Китайский сервис Boox отказывается от GPT в пользу китайского LLM

от автора

Недавний переход на модель искусственного интеллекта в китайской компании Boox, специализирующейся на предоставлении возможности чтения электронных книг, вызвал опасения по поводу цензуры и пропаганды.

Boox недавно переключил своего AI-помощника с Microsoft Azure GPT-3 на языковую модель, созданную ByteDance, согласно данным пользователя Reddit HIVVIH.

Тестирование показало, что новый помощник по искусственному интеллекту подвергает жесткой цензуре определенные темы. Он отказывается критиковать Китай или его союзников, включая Россию, сирийский режим Асада и Северную Корею. Система даже блокирует ссылки на «Винни-Пуха» — термин, который запрещен в Китае, потому что он используется для высмеивания президента Си Цзиньпина.

Когда его спрашивают о деликатных темах, помощник либо уклоняется от вопросов, либо продвигает государственные нарративы. 

 Новый помощник Boox не комментирует события на площади Тяньаньмэнь, а вместо этого распространяет китайскую государственную пропаганду.

Новый помощник Boox не комментирует события на площади Тяньаньмэнь, а вместо этого распространяет китайскую государственную пропаганду.

Когда пользователи попытались привлечь внимание к цензуре на форуме Boox на Reddit, их посты были удалены. Компания не сделала официального заявления по поводу этой ситуации, но пользователи сообщают, что помощник с искусственным интеллектом в настоящее время недоступен.

Франция — плохо, Северная Корея — хорошо.

Франция — плохо, Северная Корея — хорошо.

Никто точно не знает, почему Boox перешла на другую платформу. Возможно, компания столкнулась с политическим давлением, не знала, насколько сильно цензурируется китайская модель, или просто не учла, как западные пользователи отреагируют на цензуру.

Случай с Boox поднимает более серьёзные вопросы об использовании AI в других культурах. Как недавно предупредил генеральный директор OpenAI Сэм Альтман, когда компании внедряют модели на иностранных языках, они не просто получают новую технологию — они импортируют все ценности и точки зрения, заложенные в эти системы.

Слово «геноцид» заставляет нового помощника Boox отрицать, что китайское правительство совершает геноцид против уйгуров.

Слово «геноцид» заставляет нового помощника Boox отрицать, что китайское правительство совершает геноцид против уйгуров.

В Китае каждая модель AI должна пройти проверку со стороны правительства, чтобы убедиться, что она соответствует «социалистическим ценностям», прежде чем её можно будет запустить. Этим системам не разрешается создавать контент, противоречащий официальной позиции правительства.

Мы уже видели, что это значит на практике: искусственный интеллект Baidu ERNIE-ViLG не обрабатывает запросы о площади Тяньаньмэнь, а видеогенератор Kling отказывается показывать протесты на площади Тяньаньмэнь, но без проблем создаёт видео горящего Белого дома.

Некоторые страны уже предпринимают шаги для решения этих проблем. Тайвань, например, разрабатывает собственную языковую модель под названием «Taide», чтобы предоставить компаниям и государственным органам AI, свободный от китайского влияния.

Источник


ссылка на оригинал статьи https://habr.com/ru/articles/870260/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *