Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
Д. А. Казанцев,
кандидат юридических наук,
Торгово-промышленная палата Российской Федерации
САЖАТЬ ЛИ РОБОТОВ В ТЮРЬМУ? К ВОПРОСУ
О ДЕЛИКТОСПОСОБНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Аннотация.
Вовлечение технологий искусственного интеллекта в повсе-
дневные отношения требует регулирования тех, пусть даже немногочисленных,
случаев, в которых следствием действий робота стало причинение вреда физиче-
скому или юридическому лицу. Этот вопрос, в свою очередь, требует как анализа
самого феномена деликтоспособности ИИ, так и разработки матрицы ответствен-
ности за последствия его действий. Не являясь исчерпывающим изложением всех
вариантов решения данной проблемы, настоящая статья приглашает к размышле-
нию на эту тему. Ведь данный аспект использования ИИ не является сугубо тео-
ретическим, а прямо влияет на перспективы распространения цифровых техноло-
гий.
Ключевые слова:
право, цифровые технологии, правовая ответственности,
правовая субъектность, деликтоспособность, робот, искусственный интеллект
SHOULD ROBOTS BE JAILED? TO THE QUESTION OF THE DELICTOUS
CAPABILITY OF ARTIFICIAL INTELLIGENCE
Abstract
. The involvement of artificial intelligence technologies in everyday re-
lations requires regulation of those cases in which the actions of a robot have caused
harm to an individual or legal entity. This issue requires an analysis of the very phenom-
enon of the legal subjectivity of AI and the development of a matrix of responsibility for
the consequences of its actions. This article invites you to reflect on this topic. After all,
the legal liability of AI is not only a theoretical issue. The quality of regulation of AI
liability directly affects the prospects for the spread of digital technologies.
Keywords
: law, digital technologies, legal liability, legal subjectivity, delictual
capacity, robot, artificial intelligence
Роботизация производств и все более широкое использование технологий
искусственного интеллекта в различных аспектах повседневной жизни переводит
из теоретической в практическую плоскость вопрос о правовых последствиях
причинения роботом вреда человеку. За пределами этой статьи остается и вопрос
условности понятия искусственного интеллекта на текущем уровне научно-техни-
ческого развития, и вопрос о неопределенности границ понятия «робот» [9, 11].
Сегодня вопрос ответственности ИИ имеет не только теоретико-правовое,
но и сугубо практическое значение. Отсутствие соответствующего регулирования
создает правовой вакуум, который потенциально может создать ситуацию отсут-
ствия ответственности за целую группу правонарушений. Это, в свою очередь, с
неизбежностью повлечет стремление физических и юридических лиц избегать,
насколько это возможно, вовлечения в такие правоотношения, в которых потенци-
альное нарушение их прав и законных интересов не будет иметь никаких послед-
ствий. Проще говоря, неурегулированная правовая ответственность ИИ – это один
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
из ключевых факторов депопуляризации повседневного использования цифровых
технологий, а значит, и важное препятствие на пути их развития.
Классическим набором элементов правовой ответственности принято назы-
вать наличие субъекта, субъективной стороны, объекта и о объективной стороны.
И если наличие объекта и объективной стороны не устраняется фактом причине-
ния вреда в результате действий ИИ, то наличие двух оставшихся факторов пред-
ставляется в высшей степени дискуссионным.
Сам феномен деликтоспособности неразрывно связан с понятием право-
способности. Иными словами, лишь субъект права может нести правовую ответ-
ственность [6]. Однако как быть в ситуации, когда причиной возникновении де-
ликтных обязательств стали действия субъекта, не относящегося к субъектам
права?
На сегодня преждевременными представляются разговоры о присвоении
искусственному интеллекту статуса правового субъекта. Ведь сходство не озна-
чает тождество, а присвоение роботу антропоморфных черт не означает обретения
им тождества с человеком. С точки зрения достигнутого уровня развития техники
на сегодняшний день «очевидна несостоятельность предложения признания за ис-
кусственным интеллектом правосубъектности, аналогичной правосубъектности
физического лица, и, несмотря на использование принципов работы человече-
ского мозга для построения системы искусственного интеллекта, принципы пра-
вового регулирования статуса физического лица не могут быть применены к ис-
кусственному интеллекту» [2. С. 33]. Вопросы о правосубъектьности ИИ активно
обсуждаются и на страницах периодических изданий [1–4; 6; 13].
Несмотря на стремительное развитие нейросетей и технологий роботиза-
ции, все еще остается актуальным мнение о том, что «придание роботам (системе
искусственного интеллекта) статуса субъекта права не повлечет за собой в обозри-
мом будущем каких-то явных негативных последствий. В то же время не видны
и преимущества такого решения по сравнению с рассмотрением роботов (систем
искусственного интеллекта) в качестве квазисубъектов права. Исходя из философ-
ского принципа Оккама не умножать сущности без крайней на то необходимости,
мы полагаем, что введение в правовую сферу такого принципиально нового субъ-
екта права, как робот (система искусственного интеллекта), является преждевре-
менным (хотя не исключено, что такая необходимость появится)» [4. С. 108]. При-
своение ИИ прав человека стало бы лишь сугубо некорректной экстраполяций
свойств человека на ИИ [12. Р. 15], не учитывающей ни специфику человека, ни
специфику искусственного интеллекта.
Очевидным образом, подобная правовая конструкция неприменима к слу-
чаям возникновения деликтных обязательств в результате деятельности искус-
ственного интеллекта. Однако невозможность применения той или иной кон-
струкции не должна означать невозможность самой ответственности. Распростра-
нение на случаи причинения вреда роботом правового режима обстоятельств
непреодолимой силы очевидным образом создает пространство для злоупотреб-
лений. Как же в таком случае надлежит регулировать вопросы правовой ответ-
ственности за действия искусственного интеллекта?
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
В самом первом приближении необходимо уяснить (а где это возможно,
и закрепить нормативных актах) корректное соотнесение ролей человека и искус-
ственного интеллекта в хозяйственных и правовых отношениях. По общему пра-
вилу, недопустимо возлагать на ИИ принятие ключевых решений. Эти решения
должны оставаться исключительной прерогативой человека там, где это воз-
можно.
Дело здесь не только и не столько в упомянутом выше принципе антропо-
центризма. Точнее, это обстоятельство обусловлено вовлечением человека в круг
потенциальных последствий деятельности робота уже не в качестве субъекта,
а в качестве объекта. Например, в случае принятия решения об аварийном отклю-
чении мощностей электростанции или об аварийном сбросе воды из водохрани-
лища даже самый продвинутый алгоритм в отсутствие сложных дополнительных
настроек будет оценивать сугубо экономические последствия каждого из возмож-
ных решений. И вполне может оказаться, что внезапное затопление близлежащего
поселка искусственный интеллект сочтет в данной ситуации экономически целе-
сообразным.
Это возвращает нас к понятию субъективной стороны правонарушения.
Высококлассная команда разработчиков может создать алгоритм, позволяющий до
известной степени включить в механизм принятия решения роботом интересы че-
ловека в качестве наиболее высокого приоритета. Но даже она не сможет придать
роботу морально-этические свойства человека, имитировать нравственные пере-
живания и психоэмоциональное отношения к совершаемому действию.
Не нужно забывать: методы мышления человека и методы обработки ин-
формации условным искусственным интеллектом качественными образом разли-
чаются. Это два разных типа обработки информации, каждый из которых обладает
своими достоинствами и недостатками. И даже при наличии схожих целей не-
уместно переносить на один тип свойства другого.
В этих условиях по общему правилу лишь человек – при этом обладающий
и надлежащей экспертизой, и развитыми этическими установками, и именно ан-
тропоцентричной аксиологией – может принимать решения, затрагивающие клю-
чевые права и законные интересы другого человека. И потому сегодня ИИ может
быть лишь источником данных для эксперта, а не заменой этого эксперта. Более
того, не теряет своей актуальности правило: использование ИИ тем целесообраз-
нее, чем меньше оно влияет на жизнь и здоровье физических лиц.
При соблюдении данного правила не требуются новые правовые конструк-
ции. Вопросы деликтоспособности вполне могут решаться с помощью существу-
ющих правовых механизмов, пусть даже адаптированных к использованию такого
специфического инструмента, как ИИ. Но как быть в ситуации, когда устранение
человека от принятия решений и составляет саму суть роботизации?
В качестве понятного примера можно привести роботизированное такси,
автопилот морского судна или робота для микрохирургических операций. Техно-
логическая сложность выполняемых ими задач прямо обуславливает экономиче-
скую и прикладную целесообразность устранения человека от контроля за этими
операциями. Проще говоря, если за рулем находится водитель, то робот в таком
такси уже не нужен – а если такси управляет робот, то наличие водителя нивели-
рует экономические преимущества от роботизации такси. Именно для подобных
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
ситуаций актуальным является формирование новых правовых механизмов регу-
лирования ответственности за действия ИИ.
Теоретик и историк права может справедливо предположить, чтобы в дан-
ной ситуации актуально не столько изобретение новых правовых конструкций,
сколько обращение к старым, давно забытым правовым моделям. Речь идет,
например, о модели взаимоотношений pater famalias и раба в римском праве. При
таком подходе «правовое положение ИИ становится тождественным или близким
тому, которое было у римских антропоморфных коллективных организаций, либо
еще более редуцированным – раба, домочадцев, детей, в том числе filius in
potestate tua est» [1. С. 21]. Однако простой принцип «за все действия раба право-
вую ответственность несет хозяин» невозможно механистически перенести на мо-
дель распределения ответственности за последствия действий робота.
Это отнюдь не означает того, что современный ИИ более сложен в пси-
хоэмоциональном аспекте чем, например, древнеримский гладиатор. Наоборот,
при исследовании первопричин того или иного решения ИИ мы можем с большей
легкостью выделить по меньшей мере несколько ключевых субъектов, причем
каждый из этих субъектов будет являться физическим лицом, юридическим лицом
либо группой лиц. «Отношения с использованием искусственного интеллекта –
это всегда отношения между субъектами права или по поводу объектов права.
В любом случае это отношения, которые на том или ином этапе инициированы,
запрограммированы человеком – субъектом права с той или иной степенью ответ-
ственности (в том числе в рамках деятельности юридических лиц). Волеизъявле-
ние человека на те или иные действия искусственного интеллекта может быть вы-
ражено в разной степени: от действий ИИ, находящихся под полным контролем
воли человека, до автономных действий ИИ, опять же допускаемых и осознавае-
мых в своих возможных пределах и последствиях человеком (группой лиц)»
[5. С. 64].
Эта возможность, в свою очередь, может и должна стать основой для раци-
онального и справедливого распределения ответственности между ними. Речь
идет о таких субъектах, как владелец ИИ, пользователь ИИ, разработчик ИИ,
а также третьи лица [7, 8].
Разумеется, мы не можем применить уголовное или административное
наказание к ИИ. Любая мера ответственности, примененная к ИИ, в любом случае
повлечет за собой неблагоприятные последствия для его пользователя: например,
административный запрет на работу ИИ в течение определенного срока будет
означать издержки не для самого ИИ, а лишь для того субъекта, который исполь-
зовал данную систему ИИ в своей хозяйственной деятельности.
Именно этот тезис является отправной точкой для конкретизации абстракт-
ного тезиса об индивидуализии решения о распределении ответственности в каж-
дом конкретном случае с учетом комплекса факторов. Владелец ИИ в таком кон-
тексте предстает владельцем источника повышенной опасности, а в саму катего-
рию источника повышенной опасности можно и должно включать роботов и си-
стемы ИИ в целом. По умолчанию, ответственность за неблагоприятные послед-
ствия деятельности ИИ несет его владелец – но лишь до тех пор, пока не доказана
вина иных лиц.
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
Список литературы
1.
Афанасьев С. Ф. К проблеме материальной и процессуальной правосубъ-
ектности искусственного интеллекта // Вестник гражданского процесса. 2022. №
3. С. 12–31.
2.
Дурнева П. Н. Искусственный интеллект: анализ с точки зрения класси-
ческой теории правосубъектности // Гражданское право. 2019. № 5.
3.
Ивлиев Г. П., Егорова М. А. Юридическая проблематика правового ста-
туса искусственного интеллекта и продуктов, созданных системами искусствен-
ного интеллекта // Журнал российского права. 2022. № 6. С. 32–46.
4.
Чаннов С. Е. Робот (система искусственного интеллекта) как субъект
(квазисубъект) права // Актуальные проблемы российского права. 2022. № 12.
5.
Шахназаров Б. А. Правовое регулирование отношений с использованием
искусственного интеллекта // Актуальные проблемы российского права. 2022.
№ 9. С. 63–72.
6.
Черногор Н.Н., Емельянов А.С., Залоило М.В. Трансформация идейной
основы юридической ответственности: между архаикой и постмодерном //
Вопросы истории. 2021. № 11(2). С. 248–259.
7.
Bertolini A. Robots as Products: The Case for a Realistic Analysis of Robotic
Applications and Liability Rules // Law, Innovation and Technology. 2013. Vol. 5. DOI:
10.5235/17579961.5.2.214.
8.
Colonna K. Autonomous Cars and Tort Liability // Case Western Reserve Jour-
nal of Law, Technology & thpe Internet. 2012. Vol. 4. DOI: 10.2139/ssrn.2325879.
9.
Draft report with recommendations to the Commission on Civil Law Rules on
Robotics (2015/2103(INL)). Committee on Legal Affairs (31.05.2016) [Электронный
ресурс].
URL:
https://www.europarl.europa.eu/doceo/document/JURI-PR-
582443_EN.pdf?redirect
(дата обращения: 5.09.2024).
10.
Duffy S.H., Hopkins J.P. Sit, Stay, Drive: The Future of Autonomous Car
Liability // SMU Science & Technology Law Review. 2013. Vol. 16.
11.
European Parliament Resolution of 16 February 2017 with Recommenda-
tions to the Commission on Civil Law Rules on Robotics (2015/2103(INL)).
12.
Nevejans N. European Civil Law Rules in Robotics: Study. European Union,
2016.
13.
Филипова И. А., Коротеев В. Д. Будущее искусственного интеллекта:
объект или субъект права? // Journal of Digital Technologies and Law. 2023. № 1(2).
Pp. 359–386. EDN: immoam
