Москва +7 (495) 789-36-38
04.03
2019

Часть 1. Что такое дипфейк?

Как работает ИИ по созданию фейковых видео? Как отличить фейк от реальности? К чему приведёт использование программ по созданию фейковых видео, которые так сложно отличить от реальности? Как нивелировать разрушительную силу видео-фальшивок и вернуть доверие общества?

Начнём отвечать на эти вопросы постепенно, например, с теории.

Что такое дипфейк?

Видео-фейки способны разрушить человеческие отношения, репутацию и…веру в неоспоримую пользу виртуальной реальности. ИИ может создать фейковое видео, которое вы вряд ли отличите от настоящего.

До недавнего времени эта технология использовалась в порноиндустрии: вместо настоящие лица участниц видео заменяли на лица селебрити. Технологии совершенствуются, и фейковые видео стали создаваться не только для того, чтобы отомстить своим бывшим партнерам, превратив их в «порнозвезд».

Как работает программа «замена лица»?

Команда ученых из Стенфордского университета создала алгоритм ИИ, который может накладывать мимику одного человека на лицо другого.

Сначала ИИ анализирует особенности движения головы и лицевых мышц «человека-цели»:

  • наклоны,
  • движения глаз;
  • моргания;
  • движение рта.

Затем программа исследует те же движения, однако уже лица «человека-источника».

После того, как ИИ «захватил» нюансы мимики «человека-источника», он воспроизводит их, используя естественные движения «человека-цели».

Это позволяет создать исключительно реалистичное фейковое видео, ведь программа способна в точности воспроизвести даже нервный тик.

При этом ИИ способен учиться. Нейросеть Adverserial Neural Network совершенствует свои «навыки» распознавания закономерностей в больших массивах данных. Речь о технологии машинного обучения GAN (generative adversarial network – генеративно-состязательная сеть). В её основе что-то вроде «состязания» двух видов нейросетей: одна генерирует контент, а другая – их анализирует. В результате многочисленных «проверок» изображения становятся максимально реалистичными.

Мы уже давно не верим всему, что читаем, но скоро нам придётся подвергать сомнению всё, что мы видим и слышим.

Фейковые видео стали не только инструментом в руках преступников и маньяков. Куда опаснее то, что дипфейк способен подорвать доверие к политическим институтам и обществу в целом.

Представьте себе последствия просмотра ультрареалистичных, но поддельных, видео о том, как главы правительства планируют политические убийства или как руководители корпораций вступают в тайный сговор с иностранными шпионами, или как известный филантроп жестоко обращается с детьми.

Фейковые новости уже привели к заметному росту скепсиса у пользователей интернета по отношению к власти, журналистам и публичным персонам. Создать полностью вымышленный сценарий становится так легко, что пользователь, прекрасно это понимая, не готовы принимать любое видео за чистую монету. В этом эксперты видят реальную угрозу политическим, правовым и медийным институтам, не говоря уже о личных взаимоотношениях.

Как изменить ситуацию? Эксперты рассуждают о новых формах взаимного согласия, на которых будет базироваться общественная жизнь. Достичь этого помогут новые способы контроля и распределения власти: где-то политические, где-то технологические.

Фейковые скандалы фальшивых политиков

Deepfake (далее – дипфейки) страшны тем, что позволяют незаметно подменить одно изображение другим. Люди перестают верить тому, что видят.

О так называемых глубоких фейках – deep fakes – мир заговорил год назад

Очевидная цель создания фейковых видео – попытка провокации, втягивание в конфликт, скандал. Даже если позже выяснится, что это была фальшивка, ущерб, причинённый репутации, сложно исправить.

Источниками дипфейков могут стать архивные видео политиков. Нейросети могут создавать и вымышленных, новых общественных деятелей. К чему это может привести? Например, к тому, что видеосъемку не смогут использовать в суде как доказательство. При этом возрастёт роль экспертизы, когда значение будут иметь не столько фото/видео в СМИ, сколько их исследование с помощью ИИ.

Понятие «авторитетный источник» размывается

Соревнование, которое существует между теми, кто создает фальшивое видео и теми, кто разоблачает подделки, – лишь видимая часть проблемы. Суть проблемы гораздо глубже – «дипфейки» подрывают доверие социума к государству и его представителей. На волне массовой дезинформации дискредитировать можно даже честных политиков и представителей властных (корпоративных) структур. Институты, которые традиционно должны обеспечивать и создавать условия для согласия в обществе (правительство и СМИ), рискуют потерять свои компетенции.

Что поможет бороться с фальшивками?

Например, новые законы, которые будут регулировать борьбу с дипфейками. Однако этого уже недостаточно.

Необходимо разработать новые пути достижения согласия в обществе, основанные на альтернативных формах доверия. Эксперты перечисляют несколько возможных вариантов.

Блокчейн

Один из путей – это децентрализация источников истины. Помочь в этом может технология блокчейн.

Суть – в том, что данные (связанные друг с другом цепочки блоков) хранятся на множестве компьютеров по всему миру и защищены от несанкционированного вмешательства с помощью криптографии. В этой распределённой базе данных можно хранить всё, что угодно: информацию о денежных транзакциях, соглашениях, торговле и др.

Данные блокчейн-цепочки невозможно подделать, благодаря их закрытой структуре и особенностям формирования, при этом содержимое блоков доступно каждому пользователю. Это означает, что другие люди могут проверить любой блок, увидеть его содержимое, удостовериться в достоверности информации или в том, как она изменялась.

Демократизация медиа

Журналисты могут более серьёзно работать с соцсетями как с источником информации. Это позволило бы более критично относиться к сюжетам для получения согласованного мнения и повлияло на репутацию самого медиа.

Проблема любой системы, которая опирается на репутацию и экспертность лидеров мнений (ключевых персон) для фактчекинга и установления правды, заключается в том, что этим правилом могут воспользоваться мошенники.

Проверка подлинности аккаунта общественных персон, такие, как например, у Твиттера (белая галочка на синем фоне), конечно, помогают, однако нужны более эффективные юридические и технологические инструменты защиты. Например, интенсификация защиты персональных данных, эффективное реагирования на антиобщественное поведение в интернете, развитие технологий, встроенных в интерфейс соцсетей, для защиты конфиденциальности.

Потенциальные последствия создания дипфейков должны вызывать ответную реакцию в виде перестройки системы доверия. Система должна стать более открытой, децентрализованной и демократичной.

Перевод с английского выполнен редакцией Центра экспертиз при ИСЭиК.

В следующей части мы расскажем о том, как обнаружить дипфейк.

Источники:

Deepfake videos could destroy trust in society – here’s how to restore it / by Garfield Benjamin, Postdoctoral Researcher, School of Media Arts and Technology, Solent University,

Horrifying deepfake video blends Jennifer Lawrence and Steve Buscemi in latest example of the 'nightmare' technology.

Источник иллюстрации: кадры из фильма «Фантомас».

04.03.2019


Теги:

:


Новости


Статьи

Спецпроекты

Интервью

Мнения




вверх
Система Orphus
Отправить заявку
Данный сайт использует «cookie» и сторонние интернет-сервисы для сбора информации технического характера и статистической информации. Оставаясь на сайте вы соглашаетесь с Политикой защиты и обработки персональных данных. Ok