«Особое мнение»: искусственный интеллект на страже борьбы с преступностью
Полиция Дубаи запустила новейшую программу с использованием технологии Искусственного интеллекта (далее - ИИ). Основная цель программного обеспечения – профилактика преступлений.
Как работает программа?
Всё почти, как в фантастическом боевике… Компания-разработчик Space Imaging Middle East (SIME) сообщила, что программа ИИ анализирует базу данных полиции о совершенных преступлениях и пытается спрогнозировать, где и когда это событие может произойти снова. Программа использует очень сложные алгоритмы, что, по словам создателей, позволяет делать прогнозы с высокой точностью.
По сообщению SIME, программа может предупреждать патрульных полицейских, на какие районы города следует обратить больше внимания.
Руководитель подразделения GIS компании SIME Спэндан Кар (Spandan Kar) сообщил:
Программное обеспечение обладает уникальной способностью распознавать закономерности преступного поведения в, казалось бы, несвязанных между собой событиях, а затем предсказывать вероятность повторного преступления. Мы уверены, что этот точный анализ наряду со знаниями и опытом сотрудников полиции, станет огромной сдерживающей силой для преступности.
Критика идеи
Идея использования искусственного интеллекта вызывала многочисленные споры в последние месяцы. Оппоненты утверждали, что это может привести к непредсказуемым последствиям, например, к конфликтам на почве расовой нетерпимости.
В сентябре этого года исследователи опубликовали отчет. Согласно представленным выводам, возможности современных технологий должны дать положительный эффект в профилактике преступлений. Правда, это также может привести и к сокращению рабочих мест. Такие предположения высказываются авторы большинства исследований на тему «Искусственный интеллект и жизнь в 2030 году», проведенных Стэнфордским Университетом. К 2030 году значительная часть работы полиции будет заключаться в предотвращении «предсказанных» преступлений.
Есть и опасности, которые таят в себе новые технологии, предупреждают исследователи. Это программное обеспечение может быть не только использовано полицией для выявления преступников, но и начать применяться повсеместно для других целей. Использование таких программ приведет к сокращению миллионов рабочих мест. Одновременно, правда, будут возникать новые профессии, новые рабочие места. «Предсказать «смерть» существующих профессий гораздо легче, чем представить появление новых», - считают исследователи.
Программа ИИ уже используется для борьбы с финансовыми преступлениями, такими как мошенничество. Она анализирует соцсети для предотвращения влияния на людей экстремистских группировок или других радикально настроенных групп. Так как технологии Искусственного интеллекта постоянно развиваются, то и сфера его применения расширяется.
Исследователи отмечают:
Силовые ведомства все больше заинтересованы в обнаружении готовящихся подрывных действий из сообщений, размещаемых в соцсетях. Также, им важно отслеживать активность большого количества людей для оценки состояния безопасности в обществе. Моделируя поведение толпы, мы сможем понять, как ее контролировать.
В то же время, исследователи отмечают, что существуют законные опасения о вмешательстве силовых ведомств в частную жизнь людей.
Главная опасность – вмешательство в личную жизнь
Кстати, о фантастическом боевике на ту же тему. В 2002 году в прокат вышел фильм Стивена Спилберга «Особое мнение» (Minority Report). Сюжет таков: полиция используют психотехнологии для ареста и наказания преступников до того, как они совершали преступление. В реальности исследователи говорят, что программа ИИ не использует инструменты, основанные на человеческой психологии. Суть её работы – в другом, в выявлении закономерностей в уже совершенных преступлениях. Например, если камеры наблюдения зафиксируют крадущегося по темной аллее человека, это будет означать возможность совершения данным человеком преступления. В этом случае полицейские получат вызов.
Машинное обучение (Machine learning) значительно повышает способность предсказать где и когда произойдет возможное преступление, и кто может его совершить, говорят разработчики. Примет или нет общество технологии Искусственного интеллекта – от этого зависит прогресс и успех, заявляют исследователи.
Если общество будет относиться к этим технологиям со страхом и подозрением, то это замедлит развитие ИИ либо приведет к нелегальным разработкам. И то, и другое помешает важной работе по усилению безопасности и надежности технологий ИИ. С другой стороны, если общество будет открыто новым технологиям, результаты их развития смогут изменить человеческое общество к лучшему уже в ближайшее десятилетие.