8 (800) 500-76-44
WhatsApp Задать вопрос эксперту

Компания Apple создала новые функции для защиты детей

Компания Apple сообщила, что устройства пользователей в США будут проверяться на наличие материалов о сексуальном насилии над детьми (CSAM). В информации компании подробно рассказано о работе технологии.

Как это будет работать?

Прежде, чем загрузить фотографию в «облако», система проверить ее на наличие признаков детской порнографии. Она сравнит загружаемое изображение с базой изображений, сформированной Национальным центром США по пропавшим и эксплуатируемым детям (NCMEC) и другими организациями по безопасности детей. Эти изображения переводятся в хэш-коды и сравниваются с хэш-кодом загружаемой фотографии.

Если в изображении будут выявлены признаки насилия над детьми, то компания сообщит об этом в правоохранительные органы. 

Функции технологии, направленные на защиту безопасности детей, также будут включать в себя:

  • проверку фотографий, присылаемых детям или отправляемых детьми, в мессенджерах; 
  • пользователей, которые ищут фотографии с изображением сексуального насилия, будет предупреждать голосовой помощник Siri.

В конце этого года будут выпущены версии iOS и iPadOS с новым приложением криптозащиты. Это позволит ограничить распространение материалов с детской порнографией, не нарушая конфиденциальность пользователей.

Технология позволяет также выявлять отредактированные фотографии. В компании заявляют, что технология имеет высокий уровень точности, а частота ошибки не превышает одного случая на триллион в год.

Источники: Bloomberg, BBC

Материал подготовлен редакцией ceur.ru

09.08.2021 06:00:00

Бесплатная консультация


Спасибо, мы скоро свяжемся с вами.

Заказать звонок

Спасибо, мы скоро свяжемся с вами.

Важно!

Ваши вопросы просьба задавать только в режиме сообщений, для звонков используйте номер 8 (800) 500-76-44 (бесплатно по России с любых номеров)


WhatsApp Написать в Whatsapp