
Несмотря на открытое письмо сотен сотрудников, Google подписала контракт, предоставляющий Министерству обороны США доступ к своим моделям искусственного интеллекта для выполнения секретных работ. Юридические эксперты утверждают, что положения контракта о безопасности не имеют юридической силы.
Как сообщает издание The Information со ссылкой на источник, знакомый с ситуацией, Google заключила контракт с Пентагоном, который позволяет Министерству обороны США использовать ИИ Google для решения секретных задач. Соглашение предоставляет Пентагону доступ к своим ресурсам для «любых законных государственных целей».
Подписание соглашения состоялось в тот же день, когда более 600 сотрудников Google, многие из которых работают в исследовательской лаборатории DeepMind AI, направили открытое письмо генеральному директору Сундару Пичаи. Они призвали его отказаться от любого секретного сотрудничества с Пентагоном.
«Мы хотим, чтобы ИИ приносил пользу человечеству, а не использовался бесчеловечными или крайне вредными способами», — написали сотрудники, как сообщает Washington Post.
Их главный аргумент: секретные контракты делают невозможным для представителей Google даже узнать, как используется технология.
«Единственный способ гарантировать, что Google не будет ассоциироваться с подобным вредом, — это отказаться от любых секретных рабочих нагрузок», — говорится в письме.
Представитель Google Public Sector назвал новый контракт продлением существующего соглашения от ноября. Google по-прежнему привержен консенсусу о том, что ИИ не следует использовать для «внутреннего массового наблюдения или автономного оружия без надлежащего контроля со стороны человека».
Юридические эксперты утверждают, что положения контракта о безопасности не имеют юридической силы
В контракте действительно есть формулировка, указывающая на то, что система ИИ «не предназначена для массового наблюдения внутри страны или автономного оружия без надлежащего контроля со стороны человека». Но, как сообщает издание The Information, в нем также говорится: «Настоящее соглашение не предоставляет никаких прав на контроль или вето в отношении законных оперативных решений правительства».
Чарли Буллок, юрист и старший научный сотрудник Института права и искусственного интеллекта, говорит, что формулировка «не предназначено для и не должно использоваться для» не имеет юридической силы. Она просто указывает на то, что такое использование было бы нежелательным, но не является нарушением контракта.
Амос Тох из Центра Бреннана при Нью-Йоркском университете добавляет, согласно изданию The Information, что «надлежащий человеческий контроль» не обязательно означает, что человек должен стоять между идентификацией цели и приказом об огне. Пентагон не исключает полностью автономных систем вооружения.
Сделка Google, по всей видимости, предоставляет Пентагону больше свободы действий, чем аналогичные соглашения. Согласно сообщению в блоге самой компании, OpenAI сохранила полный контроль над своим «блоком безопасности» в рамках февральской сделки. Google, напротив, обязалась помогать правительству корректировать свои фильтры безопасности по запросу, сообщает The Information. Помимо Google и OpenAI, компания xAI Илона Маска также имеет секретный контракт с Пентагоном в области искусственного интеллекта.
В начале этого года, в феврале, компания Anthropic была исключена из сделки с Пентагоном, поскольку потребовала договорных гарантий против массового наблюдения и автономного оружия. В настоящее время Anthropic подала в суд на это решение. В то время более 900 сотрудников Google публично призвали компанию поддержать «красные линии» Anthropic. Еще в 2018 году, после протестов тысяч сотрудников, Google решила не продлевать контракт с Пентагоном по проекту Maven и пообещала никогда не использовать ИИ для создания оружия или наблюдения. В прошлом году компания тихо отказалась от этих самоограничений.
Сам проект Maven продолжил своё существование и теперь продаётся компанией Palantir. Он использовался для выбора целей в иранском конфликте — при поддержке модели Клода компании Anthropic.
ссылка на оригинал статьи https://habr.com/ru/articles/1029198/