«А у Вас ус отклеился» (с)
МВД объявило конкурс на создание компьютерной технологии, которая сможет распознавать видеоподделки (так называемые дипфэйки), сообщила «РГ».
В соответствии с условиями конкурса компания, ставшая победителем, должна будет:
- тщательно изучить все возможные способы обнаружения видеофальшивок, созданных с помощью нейросетей;
- сформировать техническое задание по разработке специального комплекса, состоящего из приборов и компьютерных программ, для выявления дипфэйков уже в процессе их просмотра.
Заказчик тендера – структурное подразделение МВД, которое отвечает за разработку новых технологий. Предварительная сумма контракта – 4 790 357 рублей.
Предположительно технология распознавания видеоподделок будет полностью разработана к 30 ноября 2022 года.
Зачем искать дипфейки?
Правоохранительные органы считают, что видеоподделки могут использовать мошенники для обмана граждан с целью незаконного обогащения. А значит, полиция должна быть готова выявлять такие схемы обмана.
Дипфейки создаются при помощи искусственного интеллекта. Они позволяют в видеофайле заменить изображение лица одного человека на лицо другого человека. При этом обыкновенный зритель не заметит подмену (подробнее о том, что такое дипфейки в нашей статье, и можно ли их обнаружить невооруженным глазом). Таким способом можно создать ролик с участием человека, который в нем на самом деле не снимался. Такие фейковые видео создаются чаще всего для развлечения, но также и в целях компрометации известных людей (например, создаются непристойные видеоролики с участием «звезды», которая на самом деле не принимала участие в съемках).
Многие сайты уже ввели запрет на размещение дипфэйков. В Китае публикация дипфэйков без специальной пометки запрещена на законодательном уровне.
Дипфейки опасны тем, что распространяют ложную информацию, влияя на отношение людей к тем или иным персонам, создавая негативное впечатление об известном человеке, и в конце концов подрывая авторитет государственных институтов.
По теме: