Москва +7 (495) 789-36-38
05.03
2019

Часть 2. Как обнаружить фейковое видео?

Как работает ИИ по созданию фейковых видео? Как отличить фейк от реальности? К чему приведёт использование программ по созданию фейковых видео, которые так сложно отличить от реальности? Как нивелировать разрушительную силу видео-фальшивок и вернуть доверие общества?

Мигает или не мигает

Профессор Сывэй Лю из Университета Олбани и его команда изучили каждый шаг программы по созданию фейковых видео. Оказалось, несмотря на большую реалистичность подделок, они все-таки далеки от совершенства.

«Заглянув внутрь» программы, Лю понял, что образы, которые использует программа, практически не содержат изображения людей с закрытыми глазами (действительно, ИИ анализирует все возможные доступные изображения человека, но никто не делает фото с закрытыми глазами). Нейросеть не понимает мигания.

Обычный человек моргает хотя бы раз в промежуток от 2 до 10 секунд

Программа также может пропустить движения физического тела, присущие живому существу, например, дыхание с определенной частотой или пульс.

Когда Лю и его команда опубликовали свои открытия о «немигающих» людях на дипфейках, через какое-то время они получили анонимные письма со ссылками на видео в интернете. На новых фальшивках были «звезды», которые нормально мигали.

Увы, алгоритмы по созданию фейков эволюционируют. Ученый, правда, не сомневался, что это произойдет.

Дипфейки стали основным объектом гонки вооружений между их создателями и теми, кто их выявляет. Лю говорит о том, что они усложняют программу для анализа фейковых видео, тем самым стараясь усложнить жизнь создателям фальшивок.

Анализируй это

Есть еще один проект – MediFor (Media Forensics) – создали при поддержке Агентства перспективных исследований Министерства обороны США (далее – агентство). Цель проекта, стартовавшего в 2016 году, – создать систему для проверки трёх уровней сообщений и оценки «достоверности» фотографии или видео. Что это за уровни?

  1. Выявление цифровых «следов». Например, «шум», характерный для определенной модели камеры, или результаты сжатия.
  2. Физический анализ. Возможно, на лицо неправильно падает свет, или тень находится не там, где она должна быть, судя по источнику света.
  3. «Семантический» уровень. Сравнение медиафайла с реальными фактами. Например, есть сообщение, что на видео снят футбольный матч, который состоялся во вторник 9 октября 2018 года в Центральном парке. Соответствует ли погода на видео той, которая была в этот день в данном месте и пр.?

Соединяем все уровни – вуаля! Оценка достоверности готова. Агентство рассчитывает, что по окончанию проекта MediFor, оно получит прототип системы, которую сможет протестировать более масштабно.

Эксперты предлагают создать общий стандарт авторской подписи для любого контента – метаданные, сообщающие о месте и времени создания аудио или видеофайла, а также внесении в него любых изменений.

Но время неумолимо бежит, и по заявлению программного менеджера Агентства, в скором времени мы увидим не просто дипфейк, а подделку событий. Как это? Не просто фальшивую картинку, а набор изображений и видео для создания согласованной информации.

Лос-Аламос тоже работает

Ученый из Национальной Лаборатории в Лос-Аламосе Джастон Мур обеспокоен тем, что если стандарты доказательств не будут (или не смогут быть) усовершенствованы вместе с ростом фальшивок, то человека очень легко будет «подставить». Если суды станут не доверять видео, то они могут не принять и легитимные доказательства. Следуя логике ученого, мы, возможно, перестанем доверять любой фотографии в качестве доказательства. Понравится ли нам жить в таком мире?

Проблема дипфейков не только в том, что лицо одного человека можно заменить лицом другого. Все гораздо масштабнее: алгоритм позволяет менять лицо одного человека на лицо несуществующего персонажа; менять животных, условно, превращать лошадь в зебру; менять части изображения местами (дальше-ближе), удалять объекты с переднего плана изображения.

Лаборатория Лос-Аламоса создаёт программу, в основе которое лежит принцип сжатия пикселей. Идея такая: все изображения, созданные ИИ, имеют ограниченный набор предметов, который программа может сгенерировать. Если даже изображение выглядит достаточно сложным для зрителя, на самом деле, оно построено из повторяющихся элементов. Повторное использование пикселей говорит о том, что их там не так много.

Кроме того, программа использует редкий алгоритм что-то вроде игры в соответствие. Скажем, у вас есть две коллекции: первая – это набор реальных картинок, вторая – искусственные картинки, то есть созданные представлениями конкретного ИИ.

Алгоритм тщательно исследует их и формирует так называемый «словарь визуальных элементов»:

  • общее у вымышленных картинок,
  • уникальность реальных кадров.

Если нужно проверить, фальшиво ли изображение, его загружают в программу, которая проверяет его на соответствие наборам картинок (вымышленных или реальных).

Однако, не имея под рукой программы для проверки видео, что делать обычным людям? В мире, где смотреть – не значить верить, а все цифровое кажется сомнительным? Мур говорит, что люди охотнее верят тому, что совпадает с их представлениями.

Чтобы остановить распространение дезинформации, Агентство планирует сотрудничать с соцсетями, чтобы помочь пользователям отличать реальное видео от фальшивки. А соцсети, в свою очередь, смогут так же быстро распространить разоблачение фейка, как сначала они распространяли подделку.

Но даже если никто не сможет поменять массовое сознание относительно подлинности видео, важно, чтобы те, кто принимает судьбоносные политические и юридические решения, смогли найти способ отличать реальные события от фантазий искусственного интеллекта и преступников, которые стоят за этим.

 

Перевод с английского выполнен редакцией Центра экспертиз при ИСЭиК.

Источник: «These new tricks can outsmart deepfake videos—for now» by Sarah Scoles (https://www.wired.com/story/these-new-tricks-can-outsmart-deepfake-videosfor-now/)

Иллюстрации: кадры из фильмов «Фантомас».

05.03.2019


Теги:

:


Новости


Статьи

Спецпроекты

Интервью

Мнения




вверх
Система Orphus
Отправить заявку
Данный сайт использует «cookie» и сторонние интернет-сервисы для сбора информации технического характера и статистической информации. Оставаясь на сайте вы соглашаетесь с Политикой защиты и обработки персональных данных. Ok