Let AI be

Яркий онлайн-журнал про искусственный интеллект (Artificial Intelligence, AI)

 

Свяжитесь с нами

Пресс-релизы, предложения об инфопартнерстве и сотрудничестве,
в том числе запросы на рекламу, присылайте на почту редакции:

Ждем вас в соцсетях

Когда искусственный интеллект — судья: три проблемы

Когда искусственный интеллект — судья: три проблемы

Игнат Постный, партнер и исполнительный директор TAG Consulting Russia

В июле этого года Верховный суд КНР постановил: судьи должны учитывать рекомендации искусственного интеллекта по каждому делу и предоставлять письменное объяснение в случае, если с ними не согласны. Стоит ли перенимать опыт Китая? И какие проблемы необходимо преодолеть для успешного внедрения интеллектуальных систем в судебную практику?

Где бы то ни было судебная практика предполагает большое количество рутинных, неинтеллектуальных задач. Например, поступающие исковые заявления сначала проходят проверку на соответствие формальным требованиям – указаны ли адреса, ИНН, содержит ли документ предмет и основание иска. Нужно удостовериться, не допустил ли заявитель ошибок, все ли бумаги приложены, а затем определить, какой судья уполномочен решать подобный спор. То есть уже на этапе приема искового заявления приходится внимательно изучить документ, а не просто взглянуть на «шапку».

Подобные обязанности отнимают много времени, и разумно возложить их на искусственный интеллект. В России, кстати, такой пилотный проект был запущен в Белгородской области: ИИ подключили к подготовке судебных приказов по взысканию налоговых задолженностей и проверке реквизитов в исковых заявлениях.

В Китае пошли гораздо дальше. Хотя сразу следует уточнить: приговор человеку там тоже выносит не машина, ведь судейское усмотрение никто не отменял – и искусственный интеллект выступает лишь в качестве помощника. Все же на пути внедрения подобных интеллектуальных систем встают три проблемы:

1. Недостаточный объем и низкое качество обучающего датасета. Напомню, еще в прошлом году в Китае искусственный интеллект начал выполнять функции прокурора – готовить тексты обвинительных заключений. Для этого интеллектуальную систему обучили на 17 тысячах дел по восьми типам преступлений. Получается, что на каждую категорию пришлось чуть больше двух тысяч дел – это немного.

На какой первоначальной выборке обучалась новая система – помощник судьи – не сообщалось, однако была информация, что ее подключили к полицейским базам: это дало искусственному интеллекту возможность анализировать почти 100 тыс. правонарушений в день и готовить рекомендации для новых законов. Это уже более весомые цифры.

Помимо объема датасета, важно его качество. И здесь играет критическую роль – кто привлекается к разметке данных: условно, студенты или эксперты высокого уровня.

2. Нечеткие критерии оценки результатов. При подготовке и разметке датасетов в судебной отрасли зачастую используются крайне общие и абстрактные критерии, например:

a. если судебное решение не было оспорено и отменено в последующем – значит, оно является «хорошим»;

b. если на судебный акт была подана жалоба и/или он был отменен – значит, с ним что-то не так и он «плохой».

С точки зрения самой структуры судебных документов подобный подход представляется слишком абстрактным:

a. каждое судебное решение включает в себя набор суждений/оценок в отношении целого ряда обстоятельств, которые имеют значение для рассмотрения дела по существу;

b. потенциально каждое из таких суждений/оценок может быть корректным либо некорректным; более того, допущенная ошибка может быть малозначительной (если она не привела к неправильному рассмотрению дела в целом);

c. также есть целый набор формальных критериев о соблюдении требований процессуального законодательства, которым также должно соответствовать судебное решение.

В итоге мы приходим к тому, что критерии, которые будут применяться при оценке судебных документов, написанных «не человеком», должны быть максимально детализированы и конкретизированы. Так как очень важно понимать, какова на самом деле точность искусственного интеллекта и как она соотносится с результатами человеческого труда.

3. Предубеждения в обучающей выборке. Еще в 2016 году издание ProPublica провело анализ алгоритма COMPAS, который прогнозирует вероятность случаев рецидивизма преступлений в США. Этот показатель учитывается при определении срока приговора. Аналитики изучили более 10 тыс. обвиняемых по уголовным делам в округе Брауард (штат Флорида) и сравнили прогнозируемый уровень рецидивизма с фактическим за двухлетний период. Исследование показало, что чернокожие ответчики в два раза чаще были ошибочно классифицированы как лица с более высоким риском рецидива. То есть афроамериканцев система притесняла и при прочих равных давала им более строгие приговоры. Из-за этого алгоритма в США был скандал.

Самое любопытное, что даже если в обучающих данных изначально нет строчки о расе, искусственный интеллект способен реконструировать эту информацию на основе почтовых индексов – попросту, распознать «черные» и «белые» районы. Или, например, «богатые» и «бедные», что может отразиться на кредитном скоринге.

В российском законодательстве есть 19 статья конституции, которая запрещает дискриминацию по полу, расе, национальности, отношению к религии и другим признакам. Но, предположим, существует статистический факт, что представители определенной религии более склонны к рецидиву преступлений. Дальше возникает интересный этический вопрос. Стоит ли учитывать этот факт при модерировании системы? Если проигнорировать – точность прогноза ИИ будет ниже. Если принять в расчет – права человека будут нарушены.

По моему мнению, на текущем этапе развития технологий и общества финальное решение в судебной практике нужно оставлять за человеком. При этом судья должен не только видеть рейтинг качества работы системы, но и понимать, как и почему искусственный интеллект сформулировал определенные выводы. Уверен, при правильном подходе к разработке алгоритмов, с учетом обозначенных выше проблем, можно улучшить судебную систему – ускорить процесс вынесения решений и сократить государственные расходы. 

Изображение: Confilegal (обложка)

 

You don't have permission to register