
Администрация Дональда Трампа обсуждает указ (executive order) о создании рабочей группы по ИИ и государственной проверке новых моделей до их публичного релиза, сообщает The New York Times. На прошлой неделе с планами уже ознакомили CEO трех компаний — Anthropic, Google и OpenAI.
По данным газеты, обсуждаемая схема не предполагает права на блокировку релиза — речь о другом. Государство получает ранний доступ к новым моделям, чтобы оценить риски заранее и параллельно понять, можно ли применить их возможности в интересах Пентагона и разведки. Похожий подход уже работает в Британии: AI Security Institute тестирует передовые модели на соответствие стандартам безопасности до их публичного запуска. На американской стороне функции рецензента могут взять на себя АНБ, Управление национального кибердиректора Белого дома и Офис директора национальной разведки — единого ведомства по кибербезопасности в США нет.
Это резкая смена курса. С возвращения в Белый дом Трамп называл ИИ ключом к технологическому соревнованию с Китаем, отменил введенные при Байдене процедуры оценки безопасности и публично заявлял, что индустрию «не остановить дурацкими правилами». Все изменилось после анонса Mythos — модели Anthropic, способной находить критические уязвимости в софте на таком уровне, что компания отказалась выпускать ее в публичный доступ. Источники NYT в Белом доме объясняют разворот двумя соображениями: политическими рисками (если громкая кибератака произойдет с применением подобной модели, отвечать придется администрации) и желанием первыми получать доступ к кибервозможностям, полезным для Пентагона и разведки.
Параллельно изменилась расстановка фигур внутри администрации. В марте ушел главный по ИИ в Белом доме Дэвид Сакс, отвечавший за дерегуляторный курс. Его функции взяли на себя глава аппарата Сюзи Уайлс и министр финансов Скотт Бессент — оба намерены активнее заниматься ИИ-политикой. Обсуждается и роль Center for AI Standards and Innovation — агентства, созданного при Байдене для добровольной проверки моделей и фактически замороженного при Трампе.
Главное препятствие для этих планов — продолжающийся конфликт администрации с Anthropic. Весной Пентагон расторг контракт на $200 млн и присвоил компании статус угрозы для цепочки поставок (серьезное ограничение, которое ранее получали китайские компании), после чего Anthropic подала на правительство в суд. При этом военные продолжают использовать Claude в системе Maven для анализа разведданных и подбора целей в войне в Иране, а АНБ уже применяет Mythos для оценки уязвимостей в правительственной инфраструктуре Microsoft. В прошлом месяце Уайлс и Бессент встречались с Дарио Амодеи, чтобы вернуть технологии Anthropic в государственные системы — но пока итоговое решение не озвучено.
Сами компании, по словам собеседников NYT, согласны не во всем: часть руководителей предупреждает, что избыточный надзор замедлит США в гонке с Китаем. На фоне этого общественные настроения в США склоняются к регулированию: по данным опроса Pew Research Center, 50% республиканцев и 51% демократов сейчас больше обеспокоены, чем взволнованы расширением использования ИИ в повседневной жизни. Любая обязательная проверка моделей перед релизом полностью противоречит тезису вице-президента Джей Ди Вэнса, который годом ранее в Париже говорил, что «будущее ИИ не выиграть переживаниями о безопасности — его выиграют те, кто строит [новые модели]».
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть«, где я рассказываю про ИИ с творческой стороны.
ссылка на оригинал статьи https://habr.com/ru/articles/1031490/