В чем правда, брат? Как фейки стирают грань между истиной и ложью
Часть 1 "Что это такое?"
Как работает ИИ по созданию фейковых видео? Как отличить фейк от реальности? К чему приведёт использование программ по созданию фейковых видео, которые так сложно отличить от реальности? Как нивелировать разрушительную силу видео-фальшивок и вернуть доверие общества?
Начнём отвечать на эти вопросы постепенно, например, с теории.
Что такое дипфейк?
Видео-фейки способны разрушить человеческие отношения, репутацию и…веру в неоспоримую пользу виртуальной реальности. ИИ может создать фейковое видео, которое вы вряд ли отличите от настоящего.
До недавнего времени эта технология использовалась в порноиндустрии: вместо настоящие лица участниц видео заменяли на лица селебрити. Технологии совершенствуются, и фейковые видео стали создаваться не только для того, чтобы отомстить своим бывшим партнерам, превратив их в «порнозвезд».
Как работает программа «замена лица»?
Команда ученых из Стенфордского университета создала алгоритм ИИ, который может накладывать мимику одного человека на лицо другого.
Сначала ИИ анализирует особенности движения головы и лицевых мышц «человека-цели»:
- наклоны,
- движения глаз;
- моргания;
- движение рта.
Затем программа исследует те же движения, однако уже лица «человека-источника».
После того, как ИИ «захватил» нюансы мимики «человека-источника», он воспроизводит их, используя естественные движения «человека-цели».
Это позволяет создать исключительно реалистичное фейковое видео, ведь программа способна в точности воспроизвести даже нервный тик.
При этом ИИ способен учиться. Нейросеть Adverserial Neural Network совершенствует свои «навыки» распознавания закономерностей в больших массивах данных. Речь о технологии машинного обучения GAN (generative adversarial network – генеративно-состязательная сеть). В её основе что-то вроде «состязания» двух видов нейросетей: одна генерирует контент, а другая – их анализирует. В результате многочисленных «проверок» изображения становятся максимально реалистичными.
Мы уже давно не верим всему, что читаем, но скоро нам придётся подвергать сомнению всё, что мы видим и слышим.Фейковые видео стали не только инструментом в руках преступников и маньяков. Куда опаснее то, что дипфейк способен подорвать доверие к политическим институтам и обществу в целом.
Представьте себе последствия просмотра ультрареалистичных, но поддельных, видео о том, как главы правительства планируют политические убийства или как руководители корпораций вступают в тайный сговор с иностранными шпионами, или как известный филантроп жестоко обращается с детьми.
Фейковые новости уже привели к заметному росту скепсиса у пользователей интернета по отношению к власти, журналистам и публичным персонам. Создать полностью вымышленный сценарий становится так легко, что пользователь, прекрасно это понимая, не готовы принимать любое видео за чистую монету. В этом эксперты видят реальную угрозу политическим, правовым и медийным институтам, не говоря уже о личных взаимоотношениях.
Как изменить ситуацию? Эксперты рассуждают о новых формах взаимного согласия, на которых будет базироваться общественная жизнь. Достичь этого помогут новые способы контроля и распределения власти: где-то политические, где-то технологические.
Фейковые скандалы фальшивых политиков
Deepfake (далее – дипфейки) страшны тем, что позволяют незаметно подменить одно изображение другим. Люди перестают верить тому, что видят.
О так называемых глубоких фейках – deep fakes – мир заговорил год назад
Очевидная цель создания фейковых видео – попытка провокации, втягивание в конфликт, скандал. Даже если позже выяснится, что это была фальшивка, ущерб, причинённый репутации, сложно исправить.
Источниками дипфейков могут стать архивные видео политиков. Нейросети могут создавать и вымышленных, новых общественных деятелей. К чему это может привести? Например, к тому, что видеосъемку не смогут использовать в суде как доказательство. При этом возрастёт роль экспертизы, когда значение будут иметь не столько фото/видео в СМИ, сколько их исследование с помощью ИИ.
Понятие «авторитетный источник» размывается
Соревнование, которое существует между теми, кто создает фальшивое видео и теми, кто разоблачает подделки, – лишь видимая часть проблемы. Суть проблемы гораздо глубже – «дипфейки» подрывают доверие социума к государству и его представителей. На волне массовой дезинформации дискредитировать можно даже честных политиков и представителей властных (корпоративных) структур. Институты, которые традиционно должны обеспечивать и создавать условия для согласия в обществе (правительство и СМИ), рискуют потерять свои компетенции.
Что поможет бороться с фальшивками?
Например, новые законы, которые будут регулировать борьбу с дипфейками. Однако этого уже недостаточно.
Необходимо разработать новые пути достижения согласия в обществе, основанные на альтернативных формах доверия. Эксперты перечисляют несколько возможных вариантов.
Блокчейн
Один из путей – это децентрализация источников истины. Помочь в этом может технология блокчейн.
Суть – в том, что данные (связанные друг с другом цепочки блоков) хранятся на множестве компьютеров по всему миру и защищены от несанкционированного вмешательства с помощью криптографии. В этой распределённой базе данных можно хранить всё, что угодно: информацию о денежных транзакциях, соглашениях, торговле и др.
Данные блокчейн-цепочки невозможно подделать, благодаря их закрытой структуре и особенностям формирования, при этом содержимое блоков доступно каждому пользователю. Это означает, что другие люди могут проверить любой блок, увидеть его содержимое, удостовериться в достоверности информации или в том, как она изменялась.
Демократизация медиа
Журналисты могут более серьёзно работать с соцсетями как с источником информации. Это позволило бы более критично относиться к сюжетам для получения согласованного мнения и повлияло на репутацию самого медиа.
Проблема любой системы, которая опирается на репутацию и экспертность лидеров мнений (ключевых персон) для фактчекинга и установления правды, заключается в том, что этим правилом могут воспользоваться мошенники.Проверка подлинности аккаунта общественных персон, такие, как например, у Твиттера (белая галочка на синем фоне), конечно, помогают, однако нужны более эффективные юридические и технологические инструменты защиты. Например, интенсификация защиты персональных данных, эффективное реагирования на антиобщественное поведение в интернете, развитие технологий, встроенных в интерфейс соцсетей, для защиты конфиденциальности.
Потенциальные последствия создания дипфейков должны вызывать ответную реакцию в виде перестройки системы доверия. Система должна стать более открытой, децентрализованной и демократичной.
Перевод с английского выполнен редакцией Центра экспертиз при ИСЭиК.
В следующей части мы расскажем о том, как обнаружить дипфейк.
Источники:
Deepfake videos could destroy trust in society – here’s how to restore it / by Garfield Benjamin, Postdoctoral Researcher, School of Media Arts and Technology, Solent University,
Источник иллюстрации: кадры из фильма «Фантомас».
ƒ