Этические вопросы, связанные с искусственным интеллектом (ИИ), в настоящее время являются крайне актуальной темой. На протяжении последних пяти лет наблюдается стабильный рост числа публикаций по вопросам этики ИИ и регулирования интеллектуальных систем. Эта тема привлекает внимание исследователей в области машинного обучения, представителей бизнеса, использующих системы ИИ в своей деятельности, а также государственных органов и широкой общественности. Внедрение ИИ во все сферы человеческой жизни требует выработки подходов к этическому и нормативному регулированию как самих технологических решений, так и областей их применения.
Различные общественные организации и регулирующие органы разрабатывают политики в сфере этики ИИ, кодексы этики и декларации этических принципов. Эти инициативы охватывают множество сфер, подчеркивая важность создания единого подхода к этическим вопросам, связанным с использованием технологий ИИ.
В свете растущего интереса к этой проблеме возникает вопрос: насколько актуальны и полезны эти вопросы? Действительно ли назрела практическая необходимость обсуждения этических проблем, связанных с ИИ? Может ли все это быть лишь пустым философствованием на тему, которая сейчас в моде?
Этика нужна для информирования об опасностях
Существует множество мнений о роли этики в практическом использовании систем ИИ. Среди различных подходов можно выделить два наиболее значимых аспекта технологической этики в контексте применения ИИ. Во-первых, широкое общественное обсуждение этических вопросов служит средством информирования населения о проблемах и опасностях, с которыми могут столкнуться как разработчики, так и пользователи систем ИИ. Внедрение ИИ в разные сферы человеческой жизни уже достигло критической массы, что позволяет говорить о систематизации накопленного опыта в применении ИИ для решения различных задач и конкретных случаев внедрения.
При этом как разработчики интеллектуальных систем, так и их пользователи должны иметь возможность обмениваться опытом и рефлексировать модели машинного обучения и сценарии их использования. Практика и регулярно проводимые опросы показывают, что основным источником страхов перед ИИ является непонимание возможных рисков, несовершенство регуляторной системы и высокий уровень неопределенности. В этих условиях постановка и систематизация этических вопросов, их постоянное и открытое экспертное обсуждение помогают демистифицировать системы ИИ, повышая информированность всех участников. Это, в свою очередь, способствует более эффективному и широкому применению ИИ в обществе.
Этика как источник права
При обсуждении систем ИИ часто поднимается вопрос о недостаточности правовых норм в этой области и необходимости создания законов, регулирующих применение ИИ в различных сферах. Уже начали разрабатываться и приниматься специализированные правовые нормы в отдельных областях и государствах. Обсуждение этических вопросов становится источником общественного консенсуса и, следовательно, основой для формирования правовых норм в сфере ИИ. То, что сейчас становится этической нормой, в будущем вполне может стать и нормой регуляторной. Поэтому участие в этических дискуссиях полезно не только для общего образования, но и для понимания этого нарождающегося контекста. Это касается не только общественных организаций, но и представителей крупного, среднего и мелкого бизнеса, заинтересованных в разработке и внедрении систем ИИ.
Этика не должна быть обязательной, она должна быть полезной
В подобных дискуссиях часто сложно провести четкую границу между этическими нормами и нормами, регулирующими поведение. Обсуждение лучших и худших практик неизбежно затрагивает вопросы контроля за исполнением нежелательного поведения и введение санкций. Насколько обязательными должны быть кодексы этики в сфере ИИ? Что должно последовать за их неисполнением? На наш взгляд, здесь необходимо провести четкую дифференциацию: этические нормы не являются обязательными и принимаются в ходе общественных дискуссий, зачастую инициируемых общественными организациями. Они не должны включать в себя подробное изложение форм контроля. Кодексы этики и подобные документы не имеют юридической силы; их функция заключается в информировании о возможностях и опасностях ИИ и формировании общественного консенсуса. На основании этих обсуждений законодательные или регулирующие органы могут принимать отдельные законы и акты в сфере ИИ или модифицировать существующие регламенты и законы, касающиеся систем ИИ.
Вопрос контроля в сфере ИИ стоит особняком. Существуют технические сложности в детектировании контента, сгенерированного нейросетями, а также в доказательстве применения ИИ при принятии решений. Это очень сложный и неочевидный вопрос. Кроме того, вопросы соотношения систем генеративного ИИ с нормами авторского права требуют отдельного и глубокого изучения.
Какие вопросы решает этика ИИ?
Следует отметить, что все вопросы этики искусственного интеллекта можно разделить на фундаментальные и прикладные. Фундаментальная этика ИИ охватывает такие вопросы, как правосубъектность искусственного интеллекта, моделирование долгосрочных последствий его применения, тождественность искусственного интеллекта человеческому разуму, разработка систем сильного или супер интеллекта и другие теоретические проблемы, которые в настоящее время не имеют прямого приложения к практическим аспектам использования ИИ.
В отличие от этого, прикладная этика искусственного интеллекта касается конкретного применения существующих моделей слабого ИИ в принятии решений в различных областях человеческой деятельности. Она также включает в себя обеспечение соблюдения действующих норм морали и права с учетом новых технических возможностей, открывающихся перед человечеством благодаря разработке новых моделей машинного обучения. Это в значительной степени связано с современным поколением генеративных систем ИИ, которые обладают принципиально новыми возможностями, непредвиденными еще 10-15 лет назад. В дальнейшем под этикой ИИ мы будем понимать именно прикладные вопросы.
90% всех проблем не специфичны для ИИ
Важно отметить, что подавляющее большинство этических и правовых вопросов, связанных с применением систем ИИ, не являются специфичными для этой области. Существует обширный пласт проблем, для которых общие подходы к решению могут быть выведены на основе уже известных норм. Например, использование ИИ в образовательном процессе поднимает новые дискуссии об академическом мошенничестве. Применение генеративных систем вопрос-ответ ставит вопросы о качестве получаемой информации, верификации фактов, достоверности и доверии к информации из открытых источников — в данном случае источником является результат работы крупных языковых моделей. Однако подходы к решению этих проблем не являются новыми: академическое мошенничество существует независимо от технических средств, с помощью которых оно осуществляется. Обеспечение тайны частной жизни и конфиденциальности данных усложняется в связи с разработкой новых технических решений, но базовые принципы остаются теми же, что и до эпохи ИИ.
Но ИИ ставит новые задачи и вызовы
Тем не менее, новые технологии, основанные на искусственном интеллекте, действительно ставят перед нами принципиально новые вызовы и проблемы, с которыми мы не могли столкнуться до разработки соответствующих моделей. Поэтому широкое внедрение систем ИИ требует обновления нормативной базы и переосмысления некоторых терминов и определений. (Применение ИИ на финансовом рынке. Доклад ЦБ для общественных обсуждений)
Этические нормы не должны дублировать все существующее право
Таким образом, выработка этических и правовых норм в сфере ИИ должна учитывать принцип экономии. В противном случае существует риск дублирования всех существующих норм и положений, механически переформулируя их так, чтобы они относились к системам ИИ. Хотя декларации о хорошем и плохом также имеют свою ценность, они не должны быть единственным инструментом.
При этом важно помнить, что декларация о том, что является хорошим и плохим, желательным и нежелательным, может иметь значимую ценность. Например, при разработке декларации этических принципов для ИИ в образовании необходимо подчеркнуть недопустимость академического мошенничества с использованием новых технологий. Нужно четко заявить, что использование систем генеративного ИИ для написания квалификационных работ, диссертаций и выдачи сгенерированного контента за собственный интеллектуальный результат является академическим мошенничеством в новой форме. В то же время следует задекларировать, что применение ИИ для повышения эффективности принятия решений и улучшения качества образования, без нарушения прав других, может быть оправданным и желательным.
Существует риск стигматизации любого внедрения новых технологий, например, в образовательный процесс, что недопустимо.
Обсуждение этики должно приучать к комплаенсу
Широкое обсуждение этических и правовых норм в сфере ИИ несет еще один, не столь очевидный смысл. Мы должны способствовать тому, чтобы как разработчики, так и пользователи ИИ на всех этапах его внедрения задумывались о соответствии как самих моделей, так и случаев их использования этим нормам. Разработчики систем ИИ должны заниматься этическим комплаенсом своих моделей. Пользователи ИИ, в свою очередь, должны осознавать этические аспекты использования технологий. Все участники процесса должны учитывать не только непосредственное назначение технологий, но и возможность их использования не по назначению.
Как этическое регулирование будет влиять на отрасль?
В современных условиях репутация крупных компаний играет решающую роль в их успехе. Игнорирование этических вопросов при разработке и использовании систем искусственного интеллекта может привести к серьезным репутационным рискам. В практике уже зафиксированы случаи, когда неосторожное внедрение систем поддержки принятия решений, игнорирование оценки негативных последствий и угроз безопасности вызывало общественный резонанс, прямые убытки и нарушение бизнес-процессов. Например, юридические претензии к компаниям, использующим данные пользователей для обучения собственных генеративных моделей, становятся всё более распространенными. Необдуманное применение таких моделей может вызывать дополнительные юридические риски. Повышенное доверие к системам ИИ и отсутствие верификации их результатов могут приводить к ошибочным суждениям о наличии фактических ошибок в контенте.
Крупные компании, разрабатывающие или использующие ИИ, обладают необходимыми ресурсами для организации соответствующего комплаенса. Они более подвержены репутационным рискам и, как правило, относятся к внедрению искусственного интеллекта более тщательно и осторожно. В результате крупные игроки на рынке ИИ становятся главными драйверами и участниками выработки этических и правовых норм в этой области.
Потенциал развития ИИ лежит в нахождении новых, мелких ниш
По мнению Эндрю Ына, ведущего специалиста в области машинного обучения и искусственного интеллекта, многие крупные отрасли, использующие ИИ, уже внедрили соответствующие технологии и имеют практику оценки их последствий (Andrew Ng. Opportunities in AI 2023). Такие сферы, как маркетинг, реклама, финансовый сектор, здравоохранение, разработка новых лекарств и образовательная сфера, первыми испытали влияние новых интеллектуальных технологий. В связи с этим, по прогнозам Ына и других экспертов, в середине двадцатых годов ожидается взрывной рост новых кейсов применения ИИ в более мелких нишах, что приведёт к увеличению разнообразия бизнес-кейсов и применения интеллектуальных систем.
Исследователи также отмечают, что рост качества генеративных моделей в области написания кода и создания программных продуктов с меньшим участием человека приведет к значительному увеличению эффективности труда в разработке программного обеспечения. Использование таких систем, как Google Copilot, демократизирует процесс создания как классических программных продуктов, так и собственных интеллектуальных систем. Это означает, что программные продукты, включая те, которые используют машинное обучение, смогут создавать более широкий круг разработчиков, а промышленная разработка перестанет требовать специализированных глубоких знаний и навыков. В то же время, расширение применения ИИ во всех сферах несет в себе этические риски и угрозы безопасности. Уже сейчас наблюдается компетентностный разрыв между специалистами по информационной безопасности и аналитиками данных, что приводит к недостаточному аудиту безопасности систем ИИ по сравнению с классической информационной инфраструктурой, особенно в критически важных областях.
Демократизация ИИ приводит к размытию ответственности
Демократизация разработки программного обеспечения, безусловно, является благом, но также может привести к размытию ответственности за инциденты, связанные с информационной безопасностью, защитой конфиденциальности данных пользователей и неправомерным использованием технологий. В настоящее время большинство разработчиков систем ИИ не создают свои модели с нуля, а используют готовые интеллектуальные модули и платформенные решения в области анализа данных и машинного обучения. Это ставит под сомнение степень ответственности каждого участника рынка, так как затрудняет оценку их активного и ответственного участия в процессе разработки программного обеспечения.
Сложность используемых систем и решений также вносит свою лепту в размытие ответственности. Увеличение количества побочных эффектов от систем ИИ становится неизбежным. Не только конечные пользователи, но и разработчики могут не обладать полным знанием о внутреннем устройстве, принципах работы и потенциальных уязвимостях этих систем. Это создает риск недостаточной осведомленности о всех аспектах, необходимых для оценки безопасности предлагаемых решений и моделирования последствий их применения в различных сценариях.
Надо оценивать этичность стартапов на ранних стадиях
Некоторые исследователи подчеркивают, что в условиях демократизации разработки всё больше решений, доступных широкой аудитории, создаются не крупными компаниями с соответствующим комплаенсом, а мелкими организациями и стартапами. В связи с этим возникает вопрос об этическом регулировании систем ИИ на этапе оценки идей в бизнес-инкубаторах, венчурных фондах и других подобных площадках, которые зачастую модерируются крупными технологическими и финансовыми компаниями, а также государственными или общественными организациями.
Эндрю Ын, будучи главой фонда искусственного интеллекта, говорит о необходимости внедрения в практику работы его фонда отсева потенциально прибыльных идей для разработки ИИ-систем, которые не прошли проверку на этичность. Однако из-за сложности и многогранности понятия этики, а также отсутствия четкой и системной модели рисков интеллектуальных проектов такая этическая и юридическая экспертиза требует особых компетенций и зачастую не может быть проведена даже экспертами в области ИИ. Поэтому в настоящее время мы наблюдаем зарождение института уполномоченных по этике искусственного интеллекта. Приведенные выше аргументы подтверждают необходимость и практическую значимость внедрения подобных механизмов.
Применение ИИ несет долгосрочные, слабопрогнозируемые последствия
Важно понимать, что этика искусственного интеллекта как научная отрасль находится на начальном этапе формирования. У нас нет полной и системной картины всех возможных рисков, методологий их оценки и моделирования. Поэтому негативные последствия применения систем ИИ могут быть трудно предсказуемыми и неожиданными, даже если постфактум они кажутся очевидными. Необходимо подчеркнуть важность широкого общественного обсуждения существующих кейсов применения ИИ, их этической и правовой оценки. Это потребует от всех участников рынка максимальной прозрачности и раскрытия информации о используемых моделях и деталях практики их применения. Конечно, требования к компаниям о полном раскрытии всей информации, включая ноу-хау и чувствительные для бизнеса сведения, могут быть нереалистичными. Тем не менее, необходимо стимулировать на данном этапе развития технологий ИИ предпочтение использования открытых решений.
ссылка на оригинал статьи https://habr.com/ru/articles/854070/
Добавить комментарий