В чем правда, брат? Как фейки стирают грань между истиной и ложью
Часть 2. Как обнаружить фейковое видео?
Мигает или не мигает
Профессор Сывэй Лю из Университета Олбани и его команда изучили каждый шаг программы по созданию фейковых видео. Оказалось, несмотря на большую реалистичность подделок, они все-таки далеки от совершенства.
«Заглянув внутрь» программы, Лю понял, что образы, которые использует программа, практически не содержат изображения людей с закрытыми глазами (действительно, ИИ анализирует все возможные доступные изображения человека, но никто не делает фото с закрытыми глазами). Нейросеть не понимает мигания.
Обычный человек моргает хотя бы раз в промежуток от 2 до 10 секунд
Программа также может пропустить движения физического тела, присущие живому существу, например, дыхание с определенной частотой или пульс.
Когда Лю и его команда опубликовали свои открытия о «немигающих» людях на дипфейках, через какое-то время они получили анонимные письма со ссылками на видео в интернете. На новых фальшивках были «звезды», которые нормально мигали.
Увы, алгоритмы по созданию фейков эволюционируют. Ученый, правда, не сомневался, что это произойдет.
Дипфейки стали основным объектом гонки вооружений между их создателями и теми, кто их выявляет. Лю говорит о том, что они усложняют программу для анализа фейковых видео, тем самым стараясь усложнить жизнь создателям фальшивок.
Анализируй это
Есть еще один проект – MediFor (Media Forensics) – создали при поддержке Агентства перспективных исследований Министерства обороны США (далее – агентство). Цель проекта, стартовавшего в 2016 году, – создать систему для проверки трёх уровней сообщений и оценки «достоверности» фотографии или видео. Что это за уровни?
- Выявление цифровых «следов». Например, «шум», характерный для определенной модели камеры, или результаты сжатия.
- Физический анализ. Возможно, на лицо неправильно падает свет, или тень находится не там, где она должна быть, судя по источнику света.
- «Семантический» уровень. Сравнение медиафайла с реальными фактами. Например, есть сообщение, что на видео снят футбольный матч, который состоялся во вторник 9 октября 2018 года в Центральном парке. Соответствует ли погода на видео той, которая была в этот день в данном месте и пр.?
Соединяем все уровни – вуаля! Оценка достоверности готова. Агентство рассчитывает, что по окончанию проекта MediFor, оно получит прототип системы, которую сможет протестировать более масштабно.
Но время неумолимо бежит, и по заявлению программного менеджера Агентства, в скором времени мы увидим не просто дипфейк видео, будут подделываться события. И это не просто фальшивая картинка, это набор изображений и видео для создания согласованной информации.
Эксперты тоже работают
Ученый из Национальной Лаборатории в Лос-Аламосе Джастон Мур обеспокоен тем, что если стандарты доказательств не будут (или не смогут быть) усовершенствованы вместе с ростом фальшивок, то человека очень легко будет «подставить». И если суды не будут считать, что они могут доверять видео-роликам, то они могут не принять и легитимные доказательства. Следуя логике ученого, мы, возможно, перестанем доверять любой фотографии в качестве доказательства. Понравится ли нам жить в таком мире?
Проблема дипфейков не только в том, что лицо одного человека можно заменить лицом другого. Все гораздо масштабнее - алгоритм позволяет менять лицо одного человека на лицо несуществующего персонажа; менять животных, превращая лошадь в зебру; менять части изображения местами (дальше-ближе), удалять объекты с переднего плана изображения.
Лаборатория Лос-Аламоса для создания программы по обнаружению подделки сфокусировалась на принципе «сжатии» пикселей. Идея в том, что все изображения, созданные ИИ, имеют ограниченный набор предметов, который программа может сгенерировать. Если даже изображение выглядит достаточно сложным для зрителя, на самом деле оно построено на повторяющихся частях. Когда пиксели повторно используются, это значит, что их там не так много.
Кроме того, программа использует редкий алгоритм что-то вроде игры в соотвествия. Скажем, у вас есть две коллекции: одна - это набор реальных картинок, вторая - созданные представлениями конкретного ИИ. Алгоритм тщательно исследует их, создавая так называемый «словарь визуальных элементов», а конкретно: что общего есть у вымышленных картинок, и чем уникальны реалистичные кадры. Если нужно проверить изображение, насколько оно фальшиво, его загружают в программу, которая проверяет, какой из набора картинок больше - вымышленный или реальный.
Однако, не имея под рукой программы для проверки видео, что делать обычным людям? В мире, где смотреть не значить верить, а все цифровое кажется сомнительным? Мур говорит, что люди охотнее верят тому, что совпадает с их представлениями.
Чтобы остановить распространение дезинформации, Агентство планирует сотрудничать с соцсетями, для того, чтобы помочь пользователям отличать реальное видео от фальшивки. А соцсети, в свою очередь, смогут так же быстро распространить разоблачение фейка, как сначала они распространяли подделку.
Но даже если никто не сможет поменять массовое сознание относительно подлинности видео, важно, чтобы те, кто принимает судьбоносные политические и юридические решения, смогли найти способ отличать реальные события от фантазий искусственного интеллекта.
Источник: «These new tricks can outsmart deepfake videos—for now» by Sarah Scoles
Перевод выполнен реакцией ИСЭиК
Иллюстрации: кадры из фильмов «Фантомас».