Компания Apple создала новые функции для защиты детей
Компания Apple сообщила, что устройства пользователей в США будут проверяться на наличие материалов о сексуальном насилии над детьми (CSAM). В информации компании подробно рассказано о работе технологии.
Как это будет работать?
Прежде, чем загрузить фотографию в «облако», система проверить ее на наличие признаков детской порнографии. Она сравнит загружаемое изображение с базой изображений, сформированной Национальным центром США по пропавшим и эксплуатируемым детям (NCMEC) и другими организациями по безопасности детей. Эти изображения переводятся в хэш-коды и сравниваются с хэш-кодом загружаемой фотографии.
Если в изображении будут выявлены признаки насилия над детьми, то компания сообщит об этом в правоохранительные органы.
Функции технологии, направленные на защиту безопасности детей, также будут включать в себя:
- проверку фотографий, присылаемых детям или отправляемых детьми, в мессенджерах;
- пользователей, которые ищут фотографии с изображением сексуального насилия, будет предупреждать голосовой помощник Siri.
В конце этого года будут выпущены версии iOS и iPadOS с новым приложением криптозащиты. Это позволит ограничить распространение материалов с детской порнографией, не нарушая конфиденциальность пользователей.
Технология позволяет также выявлять отредактированные фотографии. В компании заявляют, что технология имеет высокий уровень точности, а частота ошибки не превышает одного случая на триллион в год.
Источники: Bloomberg, BBC
Материал подготовлен редакцией ceur.ru