Внимание на лица: как распознать дипфейки

от автора

Популярный рэпер в видеоролике обещает подарить до 100 000 рублей всем, кто перейдет по ссылке: «Осталось три часа. Забирай свои 100 000 рублей скорее». На самом деле это видео — дипфейк (deepfake), проще говоря подделка, созданная при помощи искусственного интеллекта и нейронных сетей. Как правило, эти ролики не самого высокого качества, но даже они способны ввести в заблуждение. Когда телеканал Channel4 показал в эфире дипфейк с Елизаветой II, где королева танцует на столе, некоторые из зрителей поверили.

Дипфейки часто используют в виде безобидной шутки, например, заменив лицо актера своим лицом, но случается что преступники используют порно-дипфейки для шантажа и вымогательства. Количество дипфейков растет стремительно. Если в декабре 2019 года Sensity AI обнаружила около 24 000 подделок, то к концу 2020 года — уже 85 047 фейковых видео.

Как распознать подделку?

Для создания дипфейк-видео используются разные приложения, например, RefaceAI (более 100 млн скачиваний в Google Store), или более продвинутые программы с готовыми библиотеками, такие как DeepFaceLab и SimSwap. Некоторые из приложений требуют минимальных технических навыков и позволяют создавать дипфейк-видео на основании лишь одного фото.

«Даже качественным дипфейкам, используемым в киноиндустрии и рекламе, пока не хватает естественности или реалистичности, — замечает Владимир Калугин, операционный директор Департамента Digital Risk Protection Group-IB. — Малейшая неестественность во внешнем виде и поведении объекта вызывает у зрителей тревогу и неприязнь — это так называемый эффект «зловещей долины» (uncanny valley). Поэтому, анализируя подозрительное видео, прежде всего, следует обращать внимание на главный объект наложения — лицо» .

Дипфейк может выдать множество признаков:

? излишняя пикселизация, дефекты, нечеткое и смазанное изображение, дублирование элементов;
? неестественная мимика, особенно при моргании, движении бровей и губ;
?низкое качество видео, за которым нередко пытаются скрыть некорректную работу нейросетей;
?отличия в телосложении, прическе и голосе от оригинала. Злоумышленники нередко подбирает похожих по типажу актеров, а голос может быть также скорректирован с помощью специальной технологии, например, в программах RealTimeVoiceCLoning, Resemble и Descript;
? в наиболее популярных решениях заменяется только лицо, поэтому можно заметить границу наложения лица, различие в тенях, освещенности и оттенке кожи.

От теории перейдем к практике, разберем дипфейк с «Илоном Маском»:

Что еще важно: в мошеннических схемах часто используются не дипфейки, а реальные фрагменты архивных видео с известными людьми. Например, многие звезды участвовали в различных рекламных или маркетинговых акциях по продвижению каких-либо продуктов. Такие видео могут быть лишь смонтированы и переозвучены интернет-мошенниками — и технических манипуляций с наложением лиц там не будет.


ссылка на оригинал статьи https://habr.com/ru/articles/657187/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *