8 (800) 500-76-44
WhatsApp Задать вопрос эксперту

Кто на свете всех умней, беспристрастней и честней?

В научно-фантастической литературе есть много идей о том, как в будущем будет использоваться ИИ и роботы. Но практически нет примеров того, что в будущем судей заменят компьютерные программы (на ум сразу же приходит известный фантастический боевик - «Судья Дредд». Но он был человеком, клонированным на основе ДНК-лучших судей - прим. ред.). Однако похоже, что фантасты не могли предугадать все ситуации и сферы деятельности, в которых человек будет использовать ИИ.


В феврале колумбийский судья обратился к ChatGPT, чтобы получить совет о вынесении решения по страховому делу. Примерно в то же время судья в Пакистане также советовался с нейросетью по поводу своих решений в двух различных делах. Есть сообщения из Индии и Боливии, что и там судьи обращаются за помощью к ChatGPT.


Это примеры, когда судьи использовали нейросети исключительно по собственной инициативе. Но в некоторых странах планомерно внедряют ИИ в работу суда. В Китае ИИ используется как консультант и помощник судей, и скорее всего эта работа по включению нейросети в судебный процесс продолжится. Недавно главный судья сэр Джеффри Вос — второй по старшинству судья в Англии и Уэльсе — предположил, что, поскольку законодательство в этой юрисдикции переведено в цифру, ИИ может использоваться для решения некоторых «споров, не относящихся к сугубо личным», таких, как, например, арбитражные дела.

На первый взгляд кажется, что использовать ИИ в судопроизводстве - это очень хорошая идея. Ведь закон должен применяться беспристрастно и объективно, «без страха или предпочтения». Какой человек сможет похвастаться стопроцентным соблюдением этих принципов? ИИ не нуждается в обеде, отпуске, в повышении зарплаты, его нельзя подкупить. ИИ может работать быстро и эффективно. Значит ли это, что мы уже довольно скоро сможем встретить робота-судью в судебном заседании?

Эксперты назвали четыре причины, почему это плохая идея. 

Бред и непрозрачность выводов

Первое - ИИ обычно используется как система-эксперт или система машинного обучения. Экспертные системы- это программное обеспечение, которое включает в себя базу знаний для принятия решений и прогнозирования их последствий. Расцвет использования экспертных систем в юриспруденции пришелся на 80-е годы прошлого века. Однако при использовании их для решения масштабных задач, они не показали хороших результатов. (Обзор взлета и падения юридических экспертных систем был опубликован в том числе в 2010 году в Европейском журнале «Право и Технологии».)

Машинное обучение - это ИИ, который постоянно учится и совершенствуется. Это может давать очень хорошие результаты. Одна из сильных сторон такого ИИ - это способность находить взаимосвязи и закономерности в большом объеме данных, которые человек не может просчитать.  Слабая сторона - нейросеть зависит от качества вводимых данных и их предвзятости, что напрямую создает риски принятия неверных решений. Кроме того, решения ИИ непрозрачны для человека, ему непонятно, как нейросеть пришла к тем или иным выводам, и это вызывает беспокойство (явление, получившее название «проблема черного ящика»).

В одном известном примере ИИ обманом заставили идентифицировать черепаху как оружие. Системы распознавания лиц часто делают ошибки при распознавании лиц женщин, детей и чернокожих людей. Поэтому, не исключена ошибка, что ИИ может распознать на месте преступления человека, которого там никогда не было. Трудно доверять системе правосудия, если судья может вынести ошибочное решение, к тому же - непроверяемое. 

Если ИИ используется в юридических процессах и при этом допускает ошибочные решения, то последствия будут очень серьезными. В 2022 году пользователи и разработчики столкнулись с тем, что нейросеть ChatGPT может давать ссылки на несуществующие источники, описывать события, которые в действительности не происходили, сообщать вымышленные статистические данные. Такое явление называется галлюцинация ИИ (или бред), хотя предполагается, что программное обеспечение «думает», а не просто подставляет нужное слово в своем тексте, исходя из статистической предопределенности.( В 2023 году к этой проблеме ИИ очень серьезно отнеслись Илон Маск и Стив Возняк. Они обратились с открытым письмом о приостановке программ по развитию ИИ. Их поддержали предприниматели и эксперты. - прим. ред.) 

В этом году стало известно, что один нью-йоркский адвокат использовал ChatGPT для написания заявлений в суд. Он это сделал только для того, чтобы выяснить, может ли ИИ ссылаться на дела, которых в реальности не существует. Предположения юриста нашли подтверждение. И это показатель того, что ни в настоящий момент, ни в будущем нейросети не смогут заменить юристов.

Предвзятость, сохраненная в архивах

Во-вторых, системы машинного обучения основываются на статистических данных. Архивные дела с информацией о преступлениях и вынесенных судебных решениях могут содержать предвзятость или предубеждение. Представители маргинализированных сообществ часто фигурируют в делах об арестах и тюремных приговорах. Поэтому система искусственного интеллекта может ошибочно прийти к выводу о том, что люди определенного происхождения с большей вероятностью могут быть преступниками.


Ярким примером этого является система Compas (алгоритм ИИ), используемый судьями США для принятия решений об освобождении под залог и вынесении наказаний. В проведенном расследовании о работе системы утверждалось, что она давала «ложноположительные» решения для «цветных» и «ложноотрицательные» - для белых граждан. Другими словами, алгоритм предполагал, что азиаты и латиноамериканцы более склонны к совершению повторных преступлений, чем «белые». Однако разработчик системы оспаривает эти утверждения.


Ошибки программирования

В-третьих, неясно, можно ли надежно преобразовать законодательство в программный код.  Проведенные эксперименты показали, что даже простые правила, относящиеся к узким сферам применения, люди трактуют по-разному, а результат автоматизации этих правил на практике может быть весьма неопределенным.


В эксперименте 52 программистам поручили автоматизировать контроль за превышением скорости движения. В исследовании участвовал автомобиль, оснащенный датчиком, который регистрировал фактическую скорость в течение 1 часа пути. Каждый программист (индивидуально) написал программу, которая вычисляла количество нарушений скоростного режима и выдавала фиктивные штрафы. Количество выданных каждой из 52 программ штрафов, несмотря на одинаковые данные, как по ограничению скорости, так и по фактической скорости, были разными. Результаты работы программ оказались различными из-за того, что они создавались людьми без юридической подготовки и были основаны на интерпретациях и предположениях о том, как работают правила.


Судьи тоже могут по-разному интерпретировать закон, но они делают это публично, и их решения могут быть пересмотрены в апелляционном порядке. Возможность обжалования решений должно уменьшать количество вариаций суждений с течением времени — по крайней мере, в теории. Но если программист слишком строг или слишком снисходителен при автоматизации какого-либо правила или процедуры, то это очень трудно обнаружить и исправить.

Что касается автоматизированных государственных систем, то их выход из строя - это всегда масштабные последствия и трудоемкое восстановление.  Голландское правительство использовало автоматизированную систему (SyRI) для обнаружения мошенничества с пособиями. Итогом стало обвинение многих невиновных семей в мошенничестве и огромное число сломанных жизней.  


Австралийская система «Online Compliance Intervention» (известна как «Robodebt») используется для автоматической оценки долгов получателей социальных выплат. 
В результате ошибок алгоритма пострадали сотни тысяч людей, несправедливо обвиненных в задолженности, что стало предметом рассмотрения Королевской комиссии в Австралии. (Королевские комиссии — это расследования дел, имеющих общественное значение в Австралии.)


И четвертая причина

Ну и наконец, выносить судебные решения — это не все, чем занимаются судьи. У них есть много других ролей в системе судопроизводства, таких как, управление судебным процессом, взаимодействие с сотрудниками суда, ведение судебных дел и т.д.. А это весьма затруднительно вписать в алгоритм. 

По теме:

Искусственный интеллект может стать помощником судьи 


Пер. с англ. Наталья Вознесенская “AI: why installing ‘robot judges’ in courtrooms is a really bad idea”

24.07.2023 06:00:00

Бесплатная консультация


Спасибо, мы скоро свяжемся с вами.

Заказать звонок

Спасибо, мы скоро свяжемся с вами.

Важно!

Ваши вопросы просьба задавать только в режиме сообщений, для звонков используйте номер 8 (800) 500-76-44 (бесплатно по России с любых номеров)


WhatsApp Написать в Whatsapp