Meta* заявила, что модели Llama теперь доступны в проектах, связанных с национальной безопасностью США

от автора

Meta*, стремясь бороться с критикой, что её открытый ИИ может быть использован противниками США, объявила, что делает свою линейку ИИ-моделей Llama доступной для американских государственных учреждений, включая оборонные ведомства и подрядчиков в сфере национальной безопасности.

«Мы рады сообщить, что делаем Llama доступной для государственных учреждений США, в том числе для тех, которые работают в сфере обороны и национальной безопасности, а также для партнёров из частного сектора, поддерживающих их работу», — написала Meta* в своём блоге. Компания сотрудничает с такими партнёрами, как Accenture, Amazon Web Services, Lockheed Martin, Microsoft и Palantir, чтобы внедрить Llama в правительственные и оборонные структуры.

Некоторые компании уже начали использовать Llama для узкоспециализированных задач. Например, Oracle применяет её для обработки документации по обслуживанию самолётов, а Scale AI адаптирует модель для задач в области национальной безопасности. Lockheed Martin предлагает Llama своим оборонным клиентам для автоматизации создания программного кода.

Хотя Meta* обычно запрещает использовать Llama для военных и разведывательных проектов, в данном случае компания делает исключение для американских и некоторых зарубежных союзных правительств, включая Великобританию, Канаду, Австралию и Новую Зеландию.

Объявление Meta* прозвучало вскоре после того, как Reuters сообщило, что китайские исследователи, связанные с Народно-освободительной армией Китая (НОАК), применяли более раннюю версию Llama 2 для разработки военного чат-бота. Этот инструмент предназначен для сбора разведывательных данных и поддержки принятия оперативных решений. Meta заявила, что использование её модели было несанкционированным и противоречило политике компании.

Вопрос использования ИИ для оборонных нужд остаётся весьма спорным. В недавнем отчёте некоммерческой организации AI Now Institute говорится, что ИИ для военных нужд несёт риски из-за уязвимостей, таких как предвзятость и склонность к ошибочным интерпретациям. Эксперты рекомендуют создавать оборонные ИИ-системы, полностью изолированные от коммерческих моделей.

*признана в РФ экстремистской организацией и запрещена

Источник


ссылка на оригинал статьи https://habr.com/ru/articles/856032/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *