Внутренний CLAUDE.md Apple утек в сеть: видно, как компания использует ИИ в поддержке

от автора

В обновлении приложения Apple Support v5.13, выпущенном 1 мая, Apple случайно оставила два внутренних файла CLAUDE.md с инструкциями для ИИ-ассистента Claude Code. Главное в утечке — не сам факт, что Apple использует Claude, а то, как устроен чат поддержки. В нем предусмотрены три участника: клиент, живой оператор и ИИ — и все их сообщения идут через одну и ту же систему обработки. Приложение никак не показывает пользователю, кто на самом деле прислал ответ.

Внутри Apple ИИ-сторону этой системы называют Juno AI. Она работает в паре с модулем для живых операторов: между ними есть переключатель, который незаметно отдает диалог то ИИ, то человеку. В файлах видны фрагменты из живой кодовой базы Apple, в том числе ссылка на запись во внутреннем баг-трекере — то есть это не учебный пример, а рабочая документация продукта.

На файлы первым обратил внимание аналитик MacRumors Аарон Перрис: он выложил скриншоты в X. Apple отреагировала быстро — версия 5.13.1 без CLAUDE.md вышла в течение суток, но файлы уже разошлись по соцсетям. Это второй за два месяца случай, когда внутренние материалы вокруг Claude Code случайно уезжают в публичный доступ: в марте сама Anthropic похожим образом отгрузила в открытый репозиторий исходники своего инструмента.

Сам факт, что Apple использует Claude внутри, не новость. В феврале Марк Гурман из Bloomberg писал, что у Apple на собственных серверах работает своя версия Claude — внутренний код и данные не уходят за пределы компании. В сентябре 2025 Apple добавила поддержку Claude в Xcode, а в свежей версии — и встроенную интеграцию инструментов Anthropic для разработчиков. Параллельно Apple договорилась с Google о замене старой Siri на Gemini — то есть в продуктах для пользователей Apple переходит на Gemini, а инфраструктуру разработки и ИИ-поддержку строит на Claude.

Самое интересное в утечке — не очередное подтверждение, что Apple использует продукты Anthropic, а зафиксированный в коде принцип: пользователь в чате принципиально не должен понимать, говорит он с человеком или с моделью. Это не недосмотр, а сознательный выбор. И на фоне обсуждений в ЕС обязательной маркировки ИИ-собеседников такой подход скоро может вызвать вопросы у регуляторов.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.

ссылка на оригинал статьи https://habr.com/ru/articles/1030808/