Deepfake: все, что вам нужно знать о фейковых новостях

В последнее время в новостных лентах все чаще появляются видеоролики, основанные на технологии дипфейков. Технология Deepfake может заставить вас поверить, что определенные видеоролики реальны, хотя, на самом деле, это компиляция поддельных изображений и аудио. Всплеск так называемых «фейковых новостей» показывает, как deepfake-видео могут заставить аудиторию поверить в выдуманные истории.

Что такое дипфейк и как он работает?

Термин «дипфейк» происходит от базовой технологии «глубокое обучение», которая является формой искусственного интеллекта. Алгоритмы глубокого обучения, которые сами учатся решать проблемы при получении больших наборов данных, используются для обмена лицами в видео и цифровом контенте для создания реалистичных фальшивых медиафайлов.

Существует несколько методов создания дипфейков, но наиболее распространенный из них основан на использовании глубоких нейронных сетей с применением автоэнкодеров, которые меняют лица. Сначала вам нужно целевое видео в качестве основы дипфейка, а затем набор роликов с человеком, которого вы хотите вставить в видеоролик. Видео могут быть совершенно не связанными друг с другом: целью может быть, например, клип из голливудского фильма, а видео человека, которого вы хотите вставить в фильм, могут быть случайными клипами, загруженными с YouTube.

Автоэнкодер — это программа искусственного интеллекта с глубоким обучением, которой поручено изучать видеоклипы, чтобы понять, как выглядит человек с разных ракурсов и условий окружающей среды, а затем отображать его мимику на человека в целевом видео, находя общие черты.

К этому миксу добавлен еще один тип машинного обучения, известный как Generative Adversarial Networks (GAN), который обнаруживает и исправляет любые недостатки в дипфейке, что затрудняет их декодирование детекторами дипфейка.

Есть несколько приложений, упрощающих создание дипфейков даже для новичков, например, Zao, FaceApp, Face Swap и скандальный DeepNude, который генерировал поддельные изображения обнаженных женщин.

Большое количество программного обеспечения Deepfake можно найти на GitHub — сообществе разработчиков программного обеспечения с открытым исходным кодом. Некоторые из этих приложений используются исключительно в развлекательных целях, поэтому создание дипфейков не запрещено законом, но в последнее время все чаще они используются злонамеренно.

Многие эксперты полагают, что в будущем дипфейки станут намного  изощренными по мере дальнейшего развития технологий и могут представлять для общества серьезные угрозы, связанные с вмешательством в выборы, политической напряженностью и преступной деятельностью.

Как используются дипфейки?

Хотя возможность автоматической смены лиц для создания достоверного и реалистичного синтетического видео имеет несколько интересных безобидных применений (например, в кино и играх), это, очевидно, опасная технология. Одно из первых реальных приложений для deepfakes было разработано для создания поддельной порнографии.

В 2017 году пользователь Reddit создал форум для порно, в который скидывались фейковые видео для взрослых, а в главных ролях «играли» известные голливудские актеры. Эти видео нанесли серьезный ущерб репутации знаменитостей и видных деятелей. 

Фейковые видео также использовались в политике. Например, в 2018 году бельгийская политическая партия опубликовала видео, на котором Дональд Трамп произносит речь, призывающую Бельгию выйти из Парижского соглашения по климату. Однако Трамп никогда не произносил эту речь — это был дипфейк. Это не первое использование дипфейка для создания вводящих в заблуждение видеороликов, и технически подкованные политические эксперты готовятся к будущей волне фейковых новостей с убедительно реалистичными дипфейками.

 Дипфейки — это только видео?

Дипфейки не ограничиваются только видео. Deepfake audio — это быстрорастущая область, имеющая огромное количество приложений. Реалистичные звуковые дипфейки теперь можно создавать с использованием алгоритмов глубокого обучения, используя всего несколько минут записи голоса человека. Запись клонируется, и как только модель голоса создана, можно записать любой монолог от лица этого человека.

Кстати, аудио Deepfake имеет и медицинское применение в виде замены голоса, а также в разработке компьютерных игр — теперь программисты могут позволить персонажам в игре говорить что угодно в режиме реального времени, а не полагаться на ограниченный набор сценариев, которые были записаны до выхода игры.

Как обнаружить дипфейк

Есть несколько индикаторов, которые выдают дипфейки.

У современных дипфейков есть проблемы с реалистичной анимацией лиц, и в результате получается видео, на котором объект никогда не моргает, или моргает слишком часто и неестественно. Однако после того, как ученые из Университета Олбани опубликовали исследование, обнаруживающее аномальное мигание, были выпущены новые дипфейки, в которых больше не было этой проблемы.

Также существуют проблемы с кожей, волосами или лицом, которые кажутся более размытыми, чем среда, в которой они находятся. Фокус может выглядеть неестественно мягким.

Часто алгоритмы дипфейка сохраняют освещение клипов, которые использовались в качестве моделей для фальшивого видео, что плохо соответствует освещению в целевом видео.

Звук может не соответствовать человеку, особенно если видео было подделано, но исходный звук не был обработан тщательно.

Борьба с дипфейками с помощью технологий

Хотя дипфейки со временем станут только более реалистичными по мере совершенствования техники, мы не совсем беззащитны, когда дело доходит до борьбы с ними. Ряд компаний разрабатывают методы обнаружения дипфейков, некоторые из них являются стартапами.

Sensity, например, разработала платформу обнаружения, похожую на антивирус для дипфейков, которая предупреждает пользователей по электронной почте, когда они смотрят видеоролики, на которых есть явные отпечатки искусственных носителей, созданных ИИ. Sensity использует те же процессы глубокого обучения, что и применяются для создания фейковых видео.

А в прошлом году Facebook провел конкурс Deepfake Detection Challenge, направленный на создание новых технологий для обнаружения дипфейков и других видов манипулируемых медиа. В конкурсе были разыграны призы до 500 000 долларов.

Алматинский театр учит, как распознать и защитить себя от дипфейка

На днях в культурном пространстве «Трансформа», которое является частью «умного пространства» SmArt Point в Алматы, состоялась премьера спектакля-лекции «Дипфейк» режиссера Кати Дзвоник, созданного по замыслу драматурга Ольги Малышевой. По словам авторов, они решили рассказать подросткам и их родителям, как дезинформация проникает в нашу жизнь, и показать, как можно распознать и защитить себя от подобной информации. 

Что будет, если объединить театр с новыми медиа? Как спектакль может научить разоблачать фальшивые новости? Почему фейки подстерегают нас на каждом шагу и даже в театре? «Дипфейк» — это спектакль-лекция о критическом мышлении.

«В последний год мы все столкнулись с новым явлением — инфодемией, когда дезинформация распространяется быстрее, чем известный вирус. В спектакле мы пытаемся обмануть даже самых адекватных зрителей. Сделать это не слишком сложно: каждый рано или поздно ведется на какой-нибудь фейк», — отметила драматург Ольга Малышева.     

От автора.

В современном мире нельзя принимать все за чистую монету. Лучший способ защитить себя от фейковых новостей и дезинформации — улучшить свои навыки критического мышления. Всегда скептически относитесь к контенту, который вы видите в интернете, особенно если он вызывает шок, сенсацию или раздражение. И прежде чем размещать что-либо в социальных сетях, попробуйте дважды проверить подлинность, чтобы уменьшить распространение фальшивого контента — будь то видео или новостная статья.

Подписывайтесь на наш Telegram-канал и читайте новости первыми!