«Лаборатория Касперского» создала руководство по безопасной разработке ИИ

от автора

«Лаборатория Касперского» разработала руководство по безопасной разработке и внедрению систем на основе искусственного интеллекта (ИИ). Документ был представлен на международном Форуме ООН по управлению интернетом, проходившем в Эр‑Рияде в декабре 2024 года.

По словам ИБ‑компании, цель документа — помочь организациям избежать киберрисков, связанных с применением технологий ИИ. В первую очередь руководство предназначено для разработчиков, системных администраторов, DevOps‑команд. В инструкциях содержатся детальные практические советы о том, как предотвращать или устранять технические недостатки и операционные риски.

Руководство по безопасной разработке ИИ создано совместно с ведущими научными экспертами. Оно охватывает ключевые аспекты разработки, внедрения и использования систем ИИ, а также предлагает лучшие практики в области безопасности. Рекомендации по безопасной разработке также помогут развёртывать ИИ‑системы в соответствии с ESG‑принципами и международными стандартами.

«Лаборатория Касперского» предлагает следующие принципы для повышения безопасности систем на основе ИИ:

  • Информирование о киберугрозах и обучение. Руководство организаций должно быть осведомлено об угрозах безопасности, связанных с использованием ИИ, и регулярно проводить обучение для сотрудников. Обучающие программы необходимо постоянно обновлять, чтобы информация об угрозах была актуальной. Люди, работающие в компании, должны знать, какие методы используют злоумышленники для атак на системы ИИ;

  • Моделирование угроз и оценка рисков. Моделирование угроз позволит заранее найти и снизить риски атак и взломов. Создатели документа предлагают использовать принятые методологии оценки рисков (например STRIDE, OWASP), чтобы обнаруживать угрозы в сфере ИИ, например нецелевое использование моделей, применение нерелевантных данных для обучения модели, системные недостатки;

  • Безопасность облачной инфраструктуры. Системы ИИ могут развёртывать в облачных средах, что требует строгих защитных мер (шифрование, сегментация сети и двухфакторная аутентификация). «Лаборатория Касперского» предлагает следовать принципу нулевого доверия (то есть по умолчанию не доверять никаким пользователям или устройствам), применять защищённые каналы связи и регулярно обновлять инфраструктуру, чтобы снижать риски взломов;

  • Защита цепочки поставок и данных. Существуют риски, связанные с внешними ИИ‑компонентами и моделями, включая утечки данных и их продажу злоумышленниками. Чтобы этого избежать, необходимо строго соблюдать политику конфиденциальности и правила безопасности для всех участников цепочки поставок.

  • Тестирования и проверки. Регулярные проверки моделей ИИ помогут убедиться в надёжности их работы. Также рекомендовано проводить мониторинг их производительности и собирать отчёты об уязвимостях. Чтобы снизить риски, важно следить за актуальностью наборов данных и проверять логику принятия решений;

  • Защита от угроз, специфичных для ИИ‑моделей. ИИ‑компоненты необходимо защищать от угроз, характерных для ИИ‑систем (промпт‑инъекций и других вредоносных запросов, отравления учебных данных и так далее). Рекомендуется использовать системы обнаружения аномалий и методы дистилляции знаний, которые помогают обрабатывать информацию и придают ей большую устойчивость к манипуляциям.

  • Регулярное обновление. Надо проводить постоянное обновление ИИ‑библиотек и фреймворков, чтобы устранять появляющиеся уязвимости. Чтобы повысить устойчивость таких систем, рекомендуется участвовать в программах Bug Bounty;

  • Соответствие международным стандартам. Следование международным нормам, использование передовых практик и проверка ИИ‑систем на соответствие законодательству помогут компаниям соблюдать требования в сфере этики и конфиденциальности данных.

Как рассказала вице‑президент по связям с государственными органами «Лаборатории Касперского» Юлия Шлычкова, растущее использование инструментов на основе ИИ делает обеспечение безопасности уже не просто желательным, а обязательным условием. «Лаборатория Касперского» принимает участие в многостороннем диалоге в этой сфере, чтобы выработать стандарты, которые помогут безопасно внедрять инновации и защититься от новых киберугроз. Полная версия руководства «Лаборатории Касперского» по безопасной ИИ‑разработке доступна на сайте.


ссылка на оригинал статьи https://habr.com/ru/articles/870610/