Соображения совести: ученые из МФТИ представили концепцию этических паспортов для систем искусственного интеллекта

от автора

Авторы инициативы уверены: этический паспорт должен стать своего рода страховкой для разработчиков при внедрении систем ИИ в чувствительных областях. Концепцию проекта исследователи из МФТИ представили на Форуме этики искусственного интеллекта в Москве. 

Этический паспорт

Этический паспорт

По словам уполномоченного по этике ИИ ИЦ прикладных систем ИИ МФТИ Андрея Кулешова, человек имеет право знать, что он взаимодействует с системой ИИ, поскольку система ИИ может не соответствовать человеческим ожиданиям в вопросах морали и нравственности. Необходимость информирования связана с такими принципиальными вопросами, как защита приватной информации, возможная предвзятость систем ИИ и право человека на личную автономию в принятии решений.

«‎Современные системы ИИ уже способны взаимодействовать с человеком таким образом, что их участие практически неотличимо от реального человека. Если человек не знает, что его «собеседник» — система ИИ, он может, стать жертвой свойств ИИ, которые для реального человека были бы неприемлемы по морально-этическим соображениям. Например, известен случай с голосовым помощником Алиса, когда мультфильм «Маша и медведь» был представлен, как мрачная история о призраке девочки, убитой медведем»,уточнил уполномоченный по этике ИИ ИЦ прикладных систем ИИ МФТИ Андрей Кулешов.

Предвидеть все потенциально опасные ситуации взаимодействия с интеллектуальными системами невозможно

Предвидеть все потенциально опасные ситуации взаимодействия с интеллектуальными системами невозможно

При этом, уточняют авторы концепции этических паспортов для ИИ, предвидеть все потенциально опасные ситуации взаимодействия с интеллектуальными системами невозможно. Именно поэтому взаимодействия должно быть максимально прозрачным: пользователи должны понимать, какими  свойствами обладает ИИ, в каких целях его можно использовать. В противном случае не удастся избежать юридических последствий. К примеру, когда система ИИ  используется для имперсонации человека для защиты общественных интересов. Это может быть использование ИИ в качестве «приманки» для телефонных мошенников. 

Форум этики в сфере искусственного интеллекта (ИИ) прошел  в Центре международной торговли. Форум собрал 25 000 участников оффлайн и онлайн. Мероприятие стало площадкой для демонстрации лучших практик применения этики искусственного интеллекта, присоединения новых организаций к Кодексу этики в сфере ИИ и формирования актуального комплекса проектов по совершенствованию этического и нормативного регулирования ИИ.  

В форуме приняли участие представители 20 стран, в том числе из Китая, Индии, Бразилии, Египта, Саудовской Аравии, ЮАР и др. На Форуме состоялось важное для сферы ИИ событие: к Кодексу этики в сфере ИИ присоединились новые подписанты, в том числе — Инвестиционный Холдинг «Восток Инвестиции», «Т-Банк», РУДН, АНО «Проектный офис ИТ-Кампуса Нижегородской области НЕЙМАРК», АНО НИИ «Цифровой Интеллект» и др., в также восемь иностранных участников. Состоялась церемония награждения премиями за содействие развитию этики в сфере ИИ.

Организаторами события выступили Правительство РФ, Министерство цифрового развития, связи и массовых коммуникаций, Минэкономразвития, Национальный центр развития ИИ, Альянсом в сфере ИИ в  партнерстве со Сбербанком России и другими организациями. 


ссылка на оригинал статьи https://habr.com/ru/articles/855022/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *