Let AI be

Яркий онлайн-журнал про искусственный интеллект (Artificial Intelligence, AI)

 

Свяжитесь с нами

Пресс-релизы, предложения об инфопартнерстве и сотрудничестве,
в том числе запросы на рекламу, присылайте на почту редакции:

Ждем вас в соцсетях

Изменения в закон об ЭПР и вредный ИИ: где скрипит механизм

Изменения в закон об ЭПР и вредный ИИ: где скрипит механизм

Наталья Мирошниченко, советник Nevsky IP Law

15 декабря 2023 года в Государственную думу на рассмотрение внесен проект изменений, который был анонсирован ранее (ID проекта 512628-8): он предусматривает требование о страховании гражданской ответственности за причинение вреда при реализации экспериментальных правовых режимов (ЭПР), в том числе в результате использования решений, созданных с применением технологий искусственного интеллекта, а также расследование случаев причинения вреда специально создаваемой комиссией. Каждый участник ЭПР должен будет вести реестры с перечнем лиц, вступивших в правовые отношения с участником ЭПР, а также с перечнем созданных результатов интеллектуальной деятельности, в том числе с применением ИИ.

Страхование ответственности не только за вред, причиненный в результате использования ИИ, но также за вред, причиненный при реализации ЭПР, — это полностью справедливо, поскольку суть ЭПР заключается в том, что специально для участника не действуют установленные законом правила, и следовательно, нужно предусмотреть компенсаторные механизмы.  

При этом важно, чтобы соблюдение требования о страховании не превратилось в простую формальность и чтобы предусмотренные страховкой случаи (то есть те обстоятельства, при которых выплачивается компенсация) и страховое покрытие (то есть собственно сумма компенсации) были адекватны рискам, которые могут быть характерны для ЭПР.

К примеру, основная часть нынешних ЭПР касается разработки беспилотных технологий (полный перечень существующих ЭПР доступен в открытом реестре Минэкономразвития). В случае с беспилотным такси все достаточно прозрачно — можно применить аналогию с обычным страхованием и оформлять ОСАГО и КАСКО по привычным тарифам, дополнив их также страхованием на случай причинения вреда непосредственно пассажиру беспилотного такси, а не только другим участникам ДТП. А в случае использования беспилотных авиационных систем с целью доставки грузов рассчитать возможные убытки уже сложнее — это не только стоимость груза, но и ущерб наземным объектам, на которые он может упасть.

Но если взять другие инициативы, то потенциальный ущерб оценить крайне затруднительно: например, нейротехнологии и технологии ИИ в сфере телемедицинских консультаций и поддержки принятия врачебных решений. Формально в настоящее время окончательный диагноз в любом случае ставит лечащий врач, он же назначает лечение пациенту. Но что если в результате применения компьютерного зрения для оценки результатов диагностики (рентген, МРТ, УЗИ), на которые опирается врач при постановке диагноза, будут допущены ошибки? И как определить, был ли вред причинен в рамках действия ЭПР, если разработанное в период действия ЭПР решение было внедрено во врачебную практику уже после окончания ЭПР?

Многие технологии ИИ применяются в практике уже довольно широко, поэтому вопрос ответственности и ее страхования выходит за рамки только ЭПР.

Немаловажным аспектом является оценка того, насколько на итоговый результат деятельности ИИ повлиял изначально заложенный в него разработчиками алгоритм либо предоставленные для обучения наборы данных. Очевидно, что подавляющее большинство пользователей программ с ИИ не знают и не понимают, по какому принципу программа делает выводы и рекомендации либо почему генеративный ИИ выдает именно такой результат. Поэтому совершенно неочевидно как определить, кто в действительности отвечает за плохой или неудовлетворительный результат: разработчик алгоритма ИИ или тестировщик, которые не увидели в процессе обучения или тестирования модели отклонения, либо пользователь, который вводит неточные данные или некорректно формулирует задачу?

По закону разработчик или правообладатель софта как программы для ЭВМ не несет ответственность за качество ее функционирования либо результаты, которые получаются с применением программы. В отрасли ИТ принято не давать какие-либо гарантии относительно качества работы программы либо гарантии отсутствия ошибок (всем знакомы юридические заклинания со словами «AS IS»). В таком случае пользователь ИИ поневоле принимает на себя все связанные риски, хотя, возможно, в программе изначально была заложена ошибка либо были использованы неточные / неполные данные для обучения.

Не секрет, что некоторые разработчики ИИ пытаются внедрить аналоги цензурирования результата, который предоставляет программа, чтобы предотвратить ее вредоносное использование. Это, безусловно, хорошая инициатива, но в таком случае разработчик должен как минимум раскрыть пользователю заложенные в программе ограничения, а в идеале — нести ответственность за сбои в работе.

Например, если разработчик заявляет, что ИИ не допускает его использование для целей создания взрывчатых веществ, то, очевидно, на сегодняшний день это ограничено только тем знанием о взрывчатых веществах, которое доступно разработчику. Если же будет синтезировано новое вещество, в том числе благодаря подготовительному анализу, проведенному с применением ИИ, либо случайно при попытке синтезировать нечто иное, и произойдет взрыв, то кто отвечает за последствия?

Как видите, вопросы ответственности за использование ИИ и его результатов стоят достаточно остро. Но в настоящий момент следует решать их в каждом случае индивидуально — технологии распространяются в самых разных сферах, поэтому в конечном итоге все остается на усмотрение пользователя.

Новый законопроект предлагает в случае причинения вреда в результате применения решений на базе ИИ созывать некую комиссию, которая будет давать заключение о причинах нарушения, об обстоятельствах, указывающих на виновных лиц, а также о необходимых мерах, направленных на возмещение участником ЭПР причиненного вреда. Заключение комиссии подлежит официальной публикации и может быть обжаловано в суде. При этом указывается, что заключение комиссии может быть использовано при проведении расследования или судебного разбирательства, но очевидно, что до внесения соответствующих изменений в процессуальное законодательство юридическая сила такого заключения равна нулю — это не заключение эксперта и не решение государственного органа.

Страхование ответственности, безусловно, полезно, но реально работать оно будет только тогда, когда страховщики разработают относительно типовые страховые продукты для самых частых ситуаций, а пользователи ИИ удостоверятся, что выгода от приобретения страховки перекрывает стоимость риска при использовании ИИ.

Изображения: wirestock on Freepik; из личного архива Натальи Мирошниченко

Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!

 

You don't have permission to register