Законопроект об ИИ разрешит обучать национальные и суверенные нейросети на госданных

от автора

«Ъ» ознакомился с последней на данный момент версией законопроекта о регулировании ИИ, в которой появился ряд заметных дополнений. Новая редакция предусматривает возможность обучения национальных и суверенных нейросетей на госданных, но только после согласования с ФСТЭК и ФСБ России. Документ также предусматривает ответственность для операторов и владельцев ИИ за обеспечение информационной безопасности моделей.

Законопроект теперь также закрепляет статус ИИ как доверенного только в том случае, если модель внесена в соответствующий реестр. Порядок ведения реестра доверенных ИИ и включения в него моделей может устанавливать правительство РФ. Кроме того, оно сможет устанавливать случаи обязательного применения суверенных и национальных ИИ в банковской сфере по согласованию с ЦБ. Ранее требование нахождения в реестре предполагалось только для тех моделей, которые используют на объектах критической информационной инфраструктуры и в госинформсистемах.

В Минцифры сказали «Ъ», что сейчас документ дорабатывается вместе с отраслью и заинтересованными ведомствами. Критерии для включения в реестр доверенных моделей планируют определять отдельными актами уполномоченных органов. «Речь о доверенности идёт для тех моделей, которые будут использоваться на объектах КИИ и в госинформсистемах. Однако говорить о финальной версии и конкретных деталях сейчас рано», — пояснили в министерстве.

В «Т‑технологиях» говорят, что текущая версия законопроекта предлагает названия «суверенной» и «национальной» модели, но не уточняет, что под ними подразумевается, а также где и как их использовать. Но определить требования к моделям, скорее всего, не получится: устанавливать их по национальности или суверенности к тому, на чём основан ИИ, технически нереализуемо, считает директор по развитию технологий ИИ компании Алексей Шпильман. Любые критерии будут или невыполнимы, или не иметь смысла, потому что под них будут подходить любые минимально модифицированные модели, заключил он.

Разумно, что законопроект предлагает для обучения систем ИИ на госданных дополнительные требования, поскольку бесконтрольное обучение на наборах данных, в том числе персональных, может нести риски информационной безопасности, считает гендиректор Национальной федерации музыкальной индустрии Никита Данилов. «При этом принципиально важно, чтобы развитие регулирования не приводило к появлению дополнительных барьеров, особенно в части получения данных, необходимых для выполнения обязанностей», — добавляют в Ассоциации больших данных.

ссылка на оригинал статьи https://habr.com/ru/articles/1031562/