Исследователь: я создал предвзятый алгоритм 25 лет назад, а компании до сих пор делают это

от автора

Профессор компьютерных наук в Колледже Дикинсона Джон Маккормик рассказал, что ещё 25 лет назад он намеренно создал алгоритм искусственного интеллекта для распознавания лиц, который содержал расовую предвзятость. Однако компании до сих пор совершают те же ошибки.

Маккормик отметил, что во время преподавания информатики в 2021 году он показал ученикам видео с поэмой Джой Буоламвини, исследовательницы ИИ и художницы. Она называлась «ИИ, разве я не женщина?». Поэма разоблачает расовые и гендерные предубеждения в системах автоматического распознавания лиц.

Тогда профессор вспомнил, что он сам в 1998 году создал такой алгоритм в рамках своей докторской работы. Система отслеживала движения головы человека на основе данных с видеокамеры. Научный руководитель Маккормика к тому моменту уже разработал математические методы для точного отслеживания головы в определённых ситуациях, но система должна была стать намного быстрее и надёжнее. Тогда группа решила применить наработки других исследователей, которые установили, что цвет кожи потенциально позволит извлекать данные в режиме реального времени. 

Маккормик использовал цифровой фотоаппарат, чтобы сделать несколько снимков собственной руки и лица, а также рук и лиц двух или трёх других белых людей, оказавшихся в этот момент в здании. Затем он вручную извлёк некоторые пиксели цвета кожи из этих изображений и построил статистическую модель. После некоторой настройки и отладки система отслеживания головы смогла заработать в реальном времени.

Однако во время презентации алгоритма исследователь спохватился, поскольку его обучали предвзято, а на мероприятие приехали исследователи из Японии. Однако «каким-то чудом» система всё равно работала достаточно хорошо и на них. 

Спустя годы Маккормик расценивает свои действия как «бездумные и потенциально оскорбительные». Он видит ещё большую проблему в том, что компании до сих пор разрабатывают предвзятые алгоритмы. По словам исследователя, глубокие нейронные сети — в настоящее время самый популярный и мощный тип модели ИИ — часто содержат миллионы чисел, в которых можно закодировать предвзятость. 

Маккормик признаёт, что уже достигнут значительный прогресс в обеспечении непредвзятости ИИ как в академических кругах, так и в компаниях. У Microsoft, например, есть исследовательская группа, известная как FATE, занимающаяся вопросами прозрачности и этики ИИ. 

Учёный, однако, подчёркивает, что «ущербные чат-боты Bard и Bing от Google и Microsoft — недавнее свидетельство мрачной реальности». По его словам, ведомые коммерческими соображениями, IT-гиганты преждевременно выпустили эти системы на рынок. Они разработаны нерепрезентативной группой и скрывают предубеждения, уверен Маккормик.

Исследователь не первый, кто высказывает подобные опасения. После выпуска на рынок чат-бота ChatGPT от OpenAI целый ряд исследователей и глав компаний, в том числе глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи человек написали открытое письмо, в котором призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4». В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев.

Позднее учёный-информатик, один из пионеров искусственного интеллекта Джеффри Хинтон, покинул пост вице-президента Google. По словам Хинтона, он пошёл на такой шаг, чтобы предупредить человечество об опасностях ИИ.


ссылка на оригинал статьи https://habr.com/ru/articles/735088/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *