8 (800) 500-76-44
WhatsApp Задать вопрос эксперту

Искусственный интеллект в полицейской работе: плюсы и минусы

Королевский объединенный институт оборонных исследований (The Royal United Services Institute, сокращенно RUSI) опубликовал статью «Анализ данных и алгоритмическая погрешность в работе полиции» о результатах исследования роли искусственного интеллекта в работе полиции. Одна из глав посвящена типичным ошибкам, которые допускали полицейские при работе с базами данных и нейросетями.

Безусловным выводом из внедрения ИИ в работу британских полицейский стало признание очевидных преимуществ от использования машинного анализа данных, нейросетей и поисковых алгоритмов в работе полиции. Однако эксперты столкнулись и с ошибками этического характера. ИИ «допускал» дискриминацию в отношении отдельных лиц и социальных групп.

Предвзятый подход ИИ к профилактике преступности

Полиция Англии и Уэльса собрала и продолжает формировать базу данных преступников. Длительное время база просто пополнялась. Для анализа данных не было технической возможности.

Такая возможность появилась в последнее десятилетие, благодаря развитию машинного обучения и внедрению искусственного интеллекта.

Теперь в полиции применяют технологию ИИ для:

  • распознавание лиц;
  • извлечения данных из телефона;
  • поиска людей по соцсетям;
  • составления карт мест с высокой криминогенностью;
  • прогноза вероятности совершения преступлений.

В докладе RUSI учёные проанализировали две сферы применения ИИ: составление карт криминогенности и прогноз совершения преступлений.

Технологию ИИ для профилактики совершения преступлений используют с 2004 года. За последние 15 лет развитие нейросетей позволило усовершенствовать алгоритмы прогнозирования преступлений. Однако полицейские столкнулись с необъективностью и предвзятостью ИИ. Теперь они сомневаются, насколько этически и юридически оправданно использование новейших технологий, которые могут привести к необъективной оценке рисков, ошибкам в анализе данных и прогнозировании.

А это вообще работает?

Прежде чем обсуждать негативные моменты использования машинного обучения, стоит ответить на вопрос: «А это вообще работает?».

Эффективность и точность работы алгоритмов неразрывно связаны с законом и этикой. Если говорить о картах повышенной криминогенности, эмпирические данные продемонстрировали, что новые технологии действительно помогают чаще пресекать преступления по сравнению с прежними методами. 

В результате исследований было установлено, что обычное, бессистемное, патрулирование незначительно влияет на выявление и предотвращение преступлений, которые неоднородно распределяются во времени и пространстве. Напротив, патрулирование в «горячих точках», определенных с помощью алгоритмов ИИ, на практике приводило к пресечению преступлений не только в этом месте, но и на прилегающих территориях.

Тестирование методики статпрогнозирования преступлений показало, что ИИ в два раза точнее (по сравнению с традиционными методами) определял места вероятных преступлений.

Однако достоверность статистического прогнозирования снижается при прогнозировании на индивидуальном уровне, то есть когда речь заходит о конкретной личности. Проблема в том, что ИИ может без проблем спрогнозировать лишь те действия, которые происходят часто, регулярно и массово. В других же случаях прогноз менее точен.

Если говорить о лицах, для которых алгоритм спрогнозировал высокий риск совершения преступления, то проверить эти данные не представляется возможным. Обычно в отношении таких лиц полиция предпринимает все возможные меры, чтобы не допустить совершения преступления.

Использовать или нет?

В докладе не рассматривается правовая база использования нейросетей в деятельности полиции, таких как, например, положения Европейской конвенции о правах человека. Тем не менее, это критически важные вопросы, которые необходимо рассматривать параллельно.

В своём докладе учёные обращаются к понятию «предвзятость», т.к. это имеет отношение к:

  • Результатам или процессам, менее благоприятным к представителям из определенной группы;
  • Прямой или косвенной дискриминации охраняемых законом основных прав человека;
  • Существующему или возможному перекосу в принятии решений, которые являются или могут быть несправедливыми.

Существует риск того, что, фокусируясь на вопросах исправления необъективности, можно уйти от решения более широкого вопроса о том, следует ли использовать алгоритмы машинного обучения в работе полиции вообще.

В ситуации строгой экономии возникают вопросы об оправданности использования нейросетей и машинных алгоритмов для повышения эффективности, когда они могут и не потребоваться, если у полиции будет больше ресурсов.

Один из полицейских так прокомментировал эту ситуацию:

«Вопрос об использовании ИИ – это не самая большая проблема полиции. Проблема – в том, что военные называют «список возможностей», то есть в комбинации работы компьютера и человека, а также процессов, которые должны быть учтены».

С какими проблемами может столкнуться полиция?

Акцент на профилактике преступлений и обеспечении общественной безопасности вкупе с сокращением ресурсов с 2010 года привело к необходимости наметить приоритетные цели в оценке рисков на основе баз данных. Однако предвзятость может возникнуть еще на этапе выбора модели преступления, которая станет шаблоном для анализа.

На этапе «идентификации проблемы» технологические решения, использованные для прогнозирования, подвергались критике за то, что фокусировались либо на мелких преступлениях, либо на районах с высокой криминогенностью и плохим соседством. Один из ученых предположил, что искажения могут возникать из-за представления полиции о проблеме. Например, гипотеза о том, что банда преступников формируется внутри одной демографической группы.

Оснащение полиции новыми технологическими решениями обеспечивается за счет специального фонда. Тем не менее, эксперты высказывают опасения, если процесс идёт слишком быстро. У полицейских не хватает времени для тестирования и оценки рисков, а также для долгосрочных прогнозов о преимуществах, которые эти технологии могут дать. Представитель полиции отметил, что «мы рискуем, так как приобретаем возможности на основе решений, опирающихся на мнение, а не на факты».

Учитывая все это, решение о внедрении новых технологических возможностей сам по себе может быть предвзятым.

Предвзятость еще на стадии тестирования

Алгоритмы, которые обучаются на базе данных полиции, могут тиражировать (и в ряде случаев усиливать) существующие искажения, которые находятся в базе данных. Речь идет о таких искажениях, как недостаточный или чрезмерный контроль полиции определенных сообществ, или данные, отражающие ошибочные или незаконные действия (и это поднимает следующие вопросы о необходимости соблюдения требований к точности информации в соответствии с Законом о защите персональных данных).

Один из опрошенных полицейских заметил:

«Молодого темнокожего мужчину остановят и обыщут с большей вероятностью, чем молодого белого мужчину, и это основано на предвзятости людей. Эту предвзятость вносят в базы данных, а затем она проявляется в результатах использования этих данных».

Эффект образца предвзятости может быть усилен алгоритмическим прогнозированием через цикл обратной связи, согласно которому прогнозируются действия полиции, а не вероятное преступление.

Помимо этих предубеждений, лица, которые находятся в социально-неблагополучной ситуации чаще оказываются в поле внимания социальных служб, а значит, у полиции попросту больше данных о них. Вот почему они попадают в группу риска.

Сложности возникают, когда алгоритм должен учесть обоснованные различия в демографии. Например, мужчины совершают преступления чаще, чем женщины, и вероятность совершения насильственных преступлений у них выше. Возраст также находится во взаимосвязи с правонарушениями, общеизвестно, что пик совершения преступлений приходится на подростковый возраст, а затем уровень снижается.

Предвзятость на стадии внедрения

Предвзятость может возникнуть тогда, когда лицо, которое принимает решения, может следовать или отклоняться от прогноза или выводов алгоритма. 

Фактор, который может возникнуть во время внедрения системы, это автоматическая предвзятость, то есть излишнее доверие алгоритму, без учета корректной, релевантной информации. Это может привести к принятию неверных решений.

Как пояснил один из сотрудников полиции: «Офицеры часто не согласны с алгоритмом. Для меня это вызов, я к нему готов. Если вы откладываете свое профессиональное суждение в сторону, то вы не принимаете вызов».

Однако другой офицер заявил, что «профессиональное мнение может быть просто еще одним поводом для предвзятости», пояснив, что «всякий раз, когда мы должны принять решение, это всегда еще одна возможность для предвзятости».

Важно сохранить баланс, не полагаясь только на результаты аналитического прогнозирования и не отвергая другие важные факторы. Для достижения этого необходима адекватная подготовка, ориентированная на понимание когнитивной предвзятости и принятии справедливых решений.

Выводы

Проведенный опрос и исследование показали необходимость правовой основы, согласованности, научного обоснования и контроля за использованием ИИ в работе полицейских. Очевидно, что прежде, чем приступать к полномасштабному внедрению технологий ИИ, необходимо исследовать их преимущества и недостатки.

Как заявил один из представителей правоохранительных органов, «понимать, что не работает так же важно, как и то, что работает». Это требует контролируемого пространства для экспериментов, с учетом понимания того, что «охрана правопорядка имеет дело со сложными, неопределенными и противоречивыми процессами».

Уроки недавних судебных процессов, связанных с применением технологии распознавания лица (об этом мы писали), показали, что необходимо иметь четкую правовую базу, понятную инструкцию, в том числе для тестирования и оценки. Более того, важно привлекать к этому общественность.

Источник: Data Analytics and Algorithmic Bias in Policing. Источник изображений: кадры из фильмов «Робокоп» (США, 1987), «Особое мнение» (США, 2002) и «Почти человек» (США, 2013-2014).

Краткий перевод обзора выполнен редакцией ИСЭиК.

По теме

ИИ способен идентифицировать человека, даже если на фотографии только часть лица

25.09.2019 00:00:00

Бесплатная консультация


Спасибо, мы скоро свяжемся с вами.

Заказать звонок

Спасибо, мы скоро свяжемся с вами.

Важно!

Ваши вопросы просьба задавать только в режиме сообщений, для звонков используйте номер 8 (800) 500-76-44 (бесплатно по России с любых номеров)


WhatsApp Написать в Whatsapp