8 (800) 500-76-44
WhatsApp Задать вопрос эксперту

Осторожно! Искусственный интеллект научился создавать фейк-ньюс

Создание выдуманных новостей, которые легко принять за правду, стало проще, благодаря развитию технологии искусственного интеллекта. В связи с чем у журналистского (и не только) сообщества возникли очевидные опасения о рисках использования ИИ в медиа.

Несёт ли ИИ опасность для медиа?

Deepfakes в своей серии лжероликов с известными людьми (подробнее: часть 1, часть 2), которые на самом никогда такого не делали и не говорили, использовали те же инструменты, которые можно использовать для создания новостей и статей. Фейковые новости, которые убеждают, что земля плоская, а всемирное потепление – обман, уже проникают в наши информационные ленты. Теперь же, с внедрением технологий ИИ, создание таких новостей может выйти на поток.

Изначально такие инструменты создавались учёными в исследовательских целях. Никто не ставил перед собой цели – внести хаос в медиа. Более того, алгоритм имел ограничение, которое не позволяла искусственно созданным новостям быть слишком уж правдоподобными.

Со временем учёные поняли, что инструмент может представлять опасность и привести к хаосу: в медиа в частности, и в стране в общем. Вот почему многие бьют тревогу по поводу статей, сгенерированных ИИ, и придумывают инструменты, которые позволили бы обычному человеку распознавать фальшивки.

Еджин Чой, профессор Вашингтонского колледжа, исследователь Института искусственного интеллекта Аллена и один из разработчиков программы по созданию фейк-ньюс рассуждает:

Опасность заключается в следующем: если количество пропагандистских статей, написанных людьми, станет достаточно большим, то нейронная сеть будет учиться создавать подобные новости. Результатом может стать вполне правдоподобная синтезированная нейросетью информация.

Закат журналистики?

Впервые о новой эре технологий по созданию текстов заговорили в феврале, когда исследовательская компания OpenAI из Сан-Франциско при поддержке выдающихся специалистов (например, Рид Хоффман, соучредитель LinkedIn) запустила нейросеть GPT-2.

Программа обучалась на 40 гигабайтах текстового контента, содержащегося в 8 млн. веб-страниц. Теперь, понимая алгоритм создания новости, она производит псевдоконтент, практически неотличимый от настоящего. То, что генерит компьютер, связано по контексту с предыдущим отрывком (художественная литература или обычный диалог).

Создатели ПО отдавали себе отчет, что такая технология по генерации новостного и статейного контента в конце концов обретёт самостоятельность, то есть выйдет из-под контроля. Потому необходимо ответственно подойти к его внедрению.

GPT-2 показала отличные результаты. Учёные попросили 500 человек оценить тексты, созданные программой. 72% интервьюеров назвали статьи правдоподобными. Для сравнения, статьи, написанные человеком, заслужили доверие у 83%.

Сара Крепс, профессор из Корнеллского колледжа, соавтор исследований отметила:

ИИ полностью справился с задачей по созданию огромных объемов фейковых новостей. И люди этим новостям доверяют.

По ее мнению, распространение ПО в интернете рискует стать базой для «чёрных» PR-кампаний. Даже если люди будут считать, что статьи не являются правдой, информация о том, что статьи можно купить или продать, окажет негативное влияние, разрушая веру людей в СМИ и власть.

Понимая риски от внедрения ПО, OpenAI не стал выкладывать полную версию, представив для ознакомления сокращенный вариант. Вероятно, в данный момент они озадачились разработкой инструментов, которые помогут отличить искусственно созданный текст от написанного человеком.

За прошедшие несколько месяцев некоторые исследователи пошли по стопам OpenAI. В июне профессор Чой и ее коллеги из Вашингтонского колледжа и Института искусственного интеллекта Аллена разместили на сайте института ПО под названием Grover. Grover презентовали как небольшую программу, с помощью который каждый может сгенерировать фейковую новость, которую будет трудно отличить от настоящей.

В августе израильская компания AI21Labs разместила на своем сайте ПО для генерации тестов под названием HAIM. Компания утверждала, что опасность попадания в свободный доступ таких инструментов сильно преувеличена. Она также настаивала, что пользы от таких программ больше, чем рисков: процесс подготовки текстов станет проще и быстрее.

А если в компанию к ИИ добавить человека?

Йоав Шохам, соучредитель AI21Labs, отметил, что эффективность использования программ по генерированию текстов именно для политической пропаганды весьма ограничена. Дело в том, что эти инструменты не могут насыщать текст политическим контентом в достаточной степени для достижения влияния на целевую аудиторию. Даже когда ИИ создает вполне правдоподобную статью, поясняет Шохам, машина не может уловить, скажем, враждебные отношения между двумя политиками и создать фальшивую историю для дискредитации действий одного из них. «Работа генератора текста выглядит осмысленной, но это не так», − говорит Шохам.

Кроме того, программа довольно часто может внезапно изменить тему статьи. Исследователи еще не поняли причину: иногда технологии напоминают черный ящик, создающий тексты, основанные главным образом на собственном видении существующего материала.

И, наконец, Чой считает, что для создания эффективной пропаганды ИИ должен иметь более широкое представление о том, как устроен мир, и более точные настройки для достижения таких целей. И лишь человек, наблюдая за работой программы, может способствовать выполнению этих задач.

Нельзя сказать, что на сегодняшний день какое-либо ноу-хау использовалось для пропаганды, все же риск существует. Поэтому компания Darpa (Управление перспективных исследовательских проектов Министерства обороны США) представила новую разработку: программу Semantic Forensics, цель которой – защитить от информационных атак, в том числе фейковых новостей.

Частные компании тоже занимаются разработкой программ для распознавания фальшивок. Наряду с программой Grover, которая есть в свободном онлайн-доступе, исследователи из Массачусетского института и Гарварда представили в марте текстовой анализатор. Программа использует те же методы, что и Grover, для определения, создан ли текст ИИ или человеком. Для этого программа выбирает фрагмент текста и анализирует его, определяя насколько логичным было выбрано продолжение фразы.

Всегда, когда появляются супер сложные технологии генерации текста, исследователи и создатели продолжают развивать их, обучая новым формам на огромных массивах информации. У OpenAI уже есть модель, обученная по более чем 1,5 млн параметров, но еще не представленная широкой публике.

Источник: Readers Beware: AI Has Learned to Create Fake News StoriesПеревод с английского выполнен редакцией ИСЭиК.

24.10.2019 00:00:00

Бесплатная консультация


Спасибо, мы скоро свяжемся с вами.

Заказать звонок

Спасибо, мы скоро свяжемся с вами.

Важно!

Ваши вопросы просьба задавать только в режиме сообщений, для звонков используйте номер 8 (800) 500-76-44 (бесплатно по России с любых номеров)


WhatsApp Написать в Whatsapp