В FSF назвали лицензии Responsible AI неэтичными и несвободными

от автора

Менеджер по лицензированию и соблюдению нормативных требований Фонда свободного программного обеспечения (FSF) опубликовал в блоге сообщение, в котором заявил, что лицензии «Ответственного ИИ» (Responsible AI, RAIL) являются несвободными и неэтичными. 

Согласно веб-сайту лицензии, она ограничивает использование программного обеспечения ИИ и машинного обучения «в определённом списке вредоносных приложений», «например, в системах наблюдения и прогнозирования преступлений». 

В FSF же утверждают, что лицензии «не требуют ничего действительно необходимого для контроля пользователями вычислительных процессов, выполняемых с помощью машинного обучения, включая: полные входные данные для обучения, параметры конфигурации обучения, обученную модель или — что не менее важно — исходный код программного обеспечения, используемого для обучения, тестирования и запуска инструментов на основе машинного обучения». Таким образом, машинное обучение с использованием лицензий RAIL может быть неэтичным. Как подчеркнули в фонде, ограничения на использование не препятствуют применению этих лицензий для контроля пользователей.

«Лицензии RAIL способствуют неэтичному маркетингу машинного обучения, опять же под видом морально нагруженных ограничений, которые они якобы призваны обеспечивать. Если мы хотим, чтобы программное обеспечение помогало уменьшать социальную несправедливость, мы должны противостоять лицензиям, которые ограничивают способы использования программного обеспечения. Мы должны сосредоточиться на эффективных способах борьбы с несправедливостью: государственная и общественная поддержка инструментов и услуг, уважающих свободу; выпуск программ под сильными лицензиями copyleft; и передача авторских прав организациям, которые обладают ресурсами для обеспечения соблюдения copyleft», — указывают представители фонда.

В FSF подчеркнули, что, чем больше свободного программного обеспечения существует, тем больше вероятность того, что люди будут сотрудничать над инструментами и услугами, которые не представляют опасности и помогают решать существующие проблемы. При этом у пользователей будет реальный выбор при поиске этичных программ и инструментов, основанных на машинном обучении, уважающих свободу. 

Между тем разработчики представили инструмент под названием Malus, который использует ИИ для создания «чистых» клонов программного обеспечения с открытым исходным кодом, стремясь воспроизвести ту же функциональность, но без обязательств по указанию авторства и копилефту. Один из создателей инструмента Майк Нолан отметил, что Malus призван показать представителям сферы технологий открытого исходного кода все риски эпохи искусственного интеллекта. 

ссылка на оригинал статьи https://habr.com/ru/articles/1028432/