Статьи

22.09.2021

Что такое deepfake-технология

Deepfake-технология – новинка в сфере искусственного интеллекта, позволяющая создавать вирусные видео. Главная опасность технологии – возможность дискредитации любого пользователя Сети.

Что такое deepfake-технология

Ранее технологией создания фейковых видео владели только эксперты по спецэффектам, которые могли задействовать искусственный интеллект. Современные программы упростили этот процесс, и теперь сделать фальшивое видео способны многие продвинутые пользователи. Какой принцип работы deepfake-технологии, и чем она опасна – разберемся в этой статье.

Особенности технологии

Искусственный интеллект (ИИ) deepfake как-бы соединяет несколько изображений. На объединяемых картинках человек запечатлен в различных ракурсах, с разной мимикой на лице. Специальный алгоритм проводит мониторинг этих изображений и «запоминает» внешность человека, характерные ему движения.

В технологии задействованы две нейросети. Первая создает образцы картинок, а вторая отличает подлинники от копий. Технология похожа на парную работу фальшивомонетчиков: один создает фальсификат, а другой отличает подделку от исходника. Когда второй находит копию, образец отправляется создателю, чтобы тот улучшил его, сделал более реалистичным.

Сервисы «дипфейк» пользуются алгоритмами машинного обучения, находящимися в свободном доступе, благодаря чему нейросеть не только учится, но и достигает практически «человеческих» качеств. Нейросеть «обучается» посредством картинок и видеороликов, которые выкладывают обычные пользователи. После этого ИИ сравнивает фрагменты исходников с тем, что на видео, в результате получается правдоподобное изображение.

Что не может нейросеть?

Нейросеть не является всемогущей. Это обусловлено двумя причинами:

  • Не все люди могут незаметно обмениваться лицами. Современные алгоритмы могут переносить участок от бровей до подбородка и от одного уха до другого. Таким образом, лоб, уши и волосы остаются «родными». На схожесть результата оказывают влияние возраст, пол, форма лица, цвет волос и кожных покровов.
  • Алгоритм не перенесет лицо корректно, если люди находятся в разном положении. Если в оригинале человек в анфас, а в целевом – голова повернута, итоговое видео не получится правдоподобным. Также имеет значение положение глаз, губ, эмоции и мимика.

Таким образом, то, в чем оказалась бессильной нейросеть, дорабатывается на поспродакшене.

Опасность технологии deepfake


Поскольку технология получила широкое распространение, возникла возможность испортить репутацию любого пользователя, чье изображение есть в Сети. В зоне риска находятся публичные личности, чьих фото и видео особенно много.

В будущем может возникнуть ситуация, когда человек не сможет доказать, что он не был на том или ином мероприятии, не являлся участником или свидетелем преступления. Некоторые видео могут стать причиной тюремного заключения, большого штрафа или других неприятностей.

Если пользователи социальных сетей будут не в курсе возможностей технологии, появится возможность «вложить в уста» любого человека провокационный контент. Такие видео могут провоцировать конфликтные ситуации не только на уровне небольшой группы людей, но и на государственном или международном. Любая реакция правительства в такой ситуации будет запоздалой.

Как распознать deepfake?

Видео, в котором использовалась deepfake-технология, выглядит правдоподобным только при беглом просмотре. Внимательный пользователь уже через пару секунд поймет, что что-то не так. Например, если присмотреться к такому видео, легко заметить, что «вставленное» лицо не моргает.

Процесс создания подобных видео еще далек от совершенства, чему свидетельством является эффект постоянно открытых глаз. Это обусловлено тем, что среди изображений, которые используются в качестве обучающего материала нейросети, мало картинок с закрытыми глазами. Юзеры практически не выкладывают фото, где они моргнули. Нейросети упускают и другие спонтанные действия человека. Например, движение глаз, дыхание во время разговора. Большинство спикеров читают свою речь. Так, политик, который ни разу не моргнул во время выступления, должен вызвать подозрение.

Вместе с тем, как повышаются стандарты проверки доказательства фейкового контента, улучшается и качество поддельных видео. Чтобы не оправдались опасения касательно deepfake-технологии, методы распознавания должны развиваться быстрее.

0
199 701

Новостная подписка

Самый быстрый способ узнать о наших акциях, спецпредложениях и новостях