Когда искусственный интеллект — судья: три проблемы
Игнат Постный, партнер и исполнительный директор TAG Consulting Russia
В июле этого года Верховный суд КНР постановил: судьи должны учитывать рекомендации искусственного интеллекта по каждому делу и предоставлять письменное объяснение в случае, если с ними не согласны. Стоит ли перенимать опыт Китая? И какие проблемы необходимо преодолеть для успешного внедрения интеллектуальных систем в судебную практику?
Где бы то ни было судебная практика предполагает большое количество рутинных, неинтеллектуальных задач. Например, поступающие исковые заявления сначала проходят проверку на соответствие формальным требованиям – указаны ли адреса, ИНН, содержит ли документ предмет и основание иска. Нужно удостовериться, не допустил ли заявитель ошибок, все ли бумаги приложены, а затем определить, какой судья уполномочен решать подобный спор. То есть уже на этапе приема искового заявления приходится внимательно изучить документ, а не просто взглянуть на «шапку».
Подобные обязанности отнимают много времени, и разумно возложить их на искусственный интеллект. В России, кстати, такой пилотный проект был запущен в Белгородской области: ИИ подключили к подготовке судебных приказов по взысканию налоговых задолженностей и проверке реквизитов в исковых заявлениях.
В Китае пошли гораздо дальше. Хотя сразу следует уточнить: приговор человеку там тоже выносит не машина, ведь судейское усмотрение никто не отменял – и искусственный интеллект выступает лишь в качестве помощника. Все же на пути внедрения подобных интеллектуальных систем встают три проблемы:
1. Недостаточный объем и низкое качество обучающего датасета. Напомню, еще в прошлом году в Китае искусственный интеллект начал выполнять функции прокурора – готовить тексты обвинительных заключений. Для этого интеллектуальную систему обучили на 17 тысячах дел по восьми типам преступлений. Получается, что на каждую категорию пришлось чуть больше двух тысяч дел – это немного.
На какой первоначальной выборке обучалась новая система – помощник судьи – не сообщалось, однако была информация, что ее подключили к полицейским базам: это дало искусственному интеллекту возможность анализировать почти 100 тыс. правонарушений в день и готовить рекомендации для новых законов. Это уже более весомые цифры.
Помимо объема датасета, важно его качество. И здесь играет критическую роль – кто привлекается к разметке данных: условно, студенты или эксперты высокого уровня.
2. Нечеткие критерии оценки результатов. При подготовке и разметке датасетов в судебной отрасли зачастую используются крайне общие и абстрактные критерии, например:
a. если судебное решение не было оспорено и отменено в последующем – значит, оно является «хорошим»;
b. если на судебный акт была подана жалоба и/или он был отменен – значит, с ним что-то не так и он «плохой».
С точки зрения самой структуры судебных документов подобный подход представляется слишком абстрактным:
a. каждое судебное решение включает в себя набор суждений/оценок в отношении целого ряда обстоятельств, которые имеют значение для рассмотрения дела по существу;
b. потенциально каждое из таких суждений/оценок может быть корректным либо некорректным; более того, допущенная ошибка может быть малозначительной (если она не привела к неправильному рассмотрению дела в целом);
c. также есть целый набор формальных критериев о соблюдении требований процессуального законодательства, которым также должно соответствовать судебное решение.
В итоге мы приходим к тому, что критерии, которые будут применяться при оценке судебных документов, написанных «не человеком», должны быть максимально детализированы и конкретизированы. Так как очень важно понимать, какова на самом деле точность искусственного интеллекта и как она соотносится с результатами человеческого труда.
3. Предубеждения в обучающей выборке. Еще в 2016 году издание ProPublica провело анализ алгоритма COMPAS, который прогнозирует вероятность случаев рецидивизма преступлений в США. Этот показатель учитывается при определении срока приговора. Аналитики изучили более 10 тыс. обвиняемых по уголовным делам в округе Брауард (штат Флорида) и сравнили прогнозируемый уровень рецидивизма с фактическим за двухлетний период. Исследование показало, что чернокожие ответчики в два раза чаще были ошибочно классифицированы как лица с более высоким риском рецидива. То есть афроамериканцев система притесняла и при прочих равных давала им более строгие приговоры. Из-за этого алгоритма в США был скандал.
Самое любопытное, что даже если в обучающих данных изначально нет строчки о расе, искусственный интеллект способен реконструировать эту информацию на основе почтовых индексов – попросту, распознать «черные» и «белые» районы. Или, например, «богатые» и «бедные», что может отразиться на кредитном скоринге.
В российском законодательстве есть 19 статья конституции, которая запрещает дискриминацию по полу, расе, национальности, отношению к религии и другим признакам. Но, предположим, существует статистический факт, что представители определенной религии более склонны к рецидиву преступлений. Дальше возникает интересный этический вопрос. Стоит ли учитывать этот факт при модерировании системы? Если проигнорировать – точность прогноза ИИ будет ниже. Если принять в расчет – права человека будут нарушены.
По моему мнению, на текущем этапе развития технологий и общества финальное решение в судебной практике нужно оставлять за человеком. При этом судья должен не только видеть рейтинг качества работы системы, но и понимать, как и почему искусственный интеллект сформулировал определенные выводы. Уверен, при правильном подходе к разработке алгоритмов, с учетом обозначенных выше проблем, можно улучшить судебную систему – ускорить процесс вынесения решений и сократить государственные расходы.
Изображение: Confilegal (обложка)