Сажать ли роботов в тюрьму? к вопросу о деликтоспособности искусственного интеллекта

Аннотация

Вовлечение технологий искусственного интеллекта в повседневные отношения требует регулирования тех, пусть даже немногочисленных, случаев, в которых следствием действий робота стало причинение вреда физическому или юридическому лицу. Этот вопрос, в свою очередь, требует как анализа самого феномена деликтоспособности ИИ, так и разработки матрицы ответственности за последствия его действий. Не являясь исчерпывающим изложением всех вариантов решения данной проблемы, настоящая статья приглашает к размышлению на эту тему. Ведь данный аспект использования ИИ нс является сугубо теоретическим, а прямо влияет на перспективы распространения цифровых технологий.

Тип источника: Конференции
Годы охвата с 2022
inLibrary
Google Scholar
Выпуск:
Отрасль знаний
  • Торгово-промышленная палата Российской Федерации
CC BY f
135-139
0

Скачивания

Данные скачивания пока недоступны.
Поделиться
Казанцев, Д. (2025). Сажать ли роботов в тюрьму? к вопросу о деликтоспособности искусственного интеллекта . Цифровые технологии и право, 1(1), 135–139. извлечено от https://inlibrary.uz/index.php/digteclaw/article/view/126786
Д Казанцев, Торгово-промышленная палата Российской Федерации
кандидат юридических наук
0
Цитаты
Crossref
Сrossref
Scopus
Scopus

Аннотация

Вовлечение технологий искусственного интеллекта в повседневные отношения требует регулирования тех, пусть даже немногочисленных, случаев, в которых следствием действий робота стало причинение вреда физическому или юридическому лицу. Этот вопрос, в свою очередь, требует как анализа самого феномена деликтоспособности ИИ, так и разработки матрицы ответственности за последствия его действий. Не являясь исчерпывающим изложением всех вариантов решения данной проблемы, настоящая статья приглашает к размышлению на эту тему. Ведь данный аспект использования ИИ нс является сугубо теоретическим, а прямо влияет на перспективы распространения цифровых технологий.


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

Д. А. Казанцев,

кандидат юридических наук,

Торгово-промышленная палата Российской Федерации

САЖАТЬ ЛИ РОБОТОВ В ТЮРЬМУ? К ВОПРОСУ

О ДЕЛИКТОСПОСОБНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Аннотация.

Вовлечение технологий искусственного интеллекта в повсе-

дневные отношения требует регулирования тех, пусть даже немногочисленных,
случаев, в которых следствием действий робота стало причинение вреда физиче-
скому или юридическому лицу. Этот вопрос, в свою очередь, требует как анализа
самого феномена деликтоспособности ИИ, так и разработки матрицы ответствен-
ности за последствия его действий. Не являясь исчерпывающим изложением всех
вариантов решения данной проблемы, настоящая статья приглашает к размышле-
нию на эту тему. Ведь данный аспект использования ИИ не является сугубо тео-
ретическим, а прямо влияет на перспективы распространения цифровых техноло-
гий.

Ключевые слова:

право, цифровые технологии, правовая ответственности,

правовая субъектность, деликтоспособность, робот, искусственный интеллект

SHOULD ROBOTS BE JAILED? TO THE QUESTION OF THE DELICTOUS

CAPABILITY OF ARTIFICIAL INTELLIGENCE

Abstract

. The involvement of artificial intelligence technologies in everyday re-

lations requires regulation of those cases in which the actions of a robot have caused
harm to an individual or legal entity. This issue requires an analysis of the very phenom-
enon of the legal subjectivity of AI and the development of a matrix of responsibility for
the consequences of its actions. This article invites you to reflect on this topic. After all,
the legal liability of AI is not only a theoretical issue. The quality of regulation of AI
liability directly affects the prospects for the spread of digital technologies.

Keywords

: law, digital technologies, legal liability, legal subjectivity, delictual

capacity, robot, artificial intelligence


Роботизация производств и все более широкое использование технологий

искусственного интеллекта в различных аспектах повседневной жизни переводит
из теоретической в практическую плоскость вопрос о правовых последствиях
причинения роботом вреда человеку. За пределами этой статьи остается и вопрос
условности понятия искусственного интеллекта на текущем уровне научно-техни-
ческого развития, и вопрос о неопределенности границ понятия «робот» [9, 11].

Сегодня вопрос ответственности ИИ имеет не только теоретико-правовое,

но и сугубо практическое значение. Отсутствие соответствующего регулирования
создает правовой вакуум, который потенциально может создать ситуацию отсут-
ствия ответственности за целую группу правонарушений. Это, в свою очередь, с
неизбежностью повлечет стремление физических и юридических лиц избегать,
насколько это возможно, вовлечения в такие правоотношения, в которых потенци-
альное нарушение их прав и законных интересов не будет иметь никаких послед-
ствий. Проще говоря, неурегулированная правовая ответственность ИИ – это один


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

из ключевых факторов депопуляризации повседневного использования цифровых
технологий, а значит, и важное препятствие на пути их развития.

Классическим набором элементов правовой ответственности принято назы-

вать наличие субъекта, субъективной стороны, объекта и о объективной стороны.
И если наличие объекта и объективной стороны не устраняется фактом причине-
ния вреда в результате действий ИИ, то наличие двух оставшихся факторов пред-
ставляется в высшей степени дискуссионным.

Сам феномен деликтоспособности неразрывно связан с понятием право-

способности. Иными словами, лишь субъект права может нести правовую ответ-
ственность [6]. Однако как быть в ситуации, когда причиной возникновении де-
ликтных обязательств стали действия субъекта, не относящегося к субъектам
права?

На сегодня преждевременными представляются разговоры о присвоении

искусственному интеллекту статуса правового субъекта. Ведь сходство не озна-
чает тождество, а присвоение роботу антропоморфных черт не означает обретения
им тождества с человеком. С точки зрения достигнутого уровня развития техники
на сегодняшний день «очевидна несостоятельность предложения признания за ис-
кусственным интеллектом правосубъектности, аналогичной правосубъектности
физического лица, и, несмотря на использование принципов работы человече-
ского мозга для построения системы искусственного интеллекта, принципы пра-
вового регулирования статуса физического лица не могут быть применены к ис-
кусственному интеллекту» [2. С. 33]. Вопросы о правосубъектьности ИИ активно
обсуждаются и на страницах периодических изданий [1–4; 6; 13].

Несмотря на стремительное развитие нейросетей и технологий роботиза-

ции, все еще остается актуальным мнение о том, что «придание роботам (системе
искусственного интеллекта) статуса субъекта права не повлечет за собой в обозри-
мом будущем каких-то явных негативных последствий. В то же время не видны
и преимущества такого решения по сравнению с рассмотрением роботов (систем
искусственного интеллекта) в качестве квазисубъектов права. Исходя из философ-
ского принципа Оккама не умножать сущности без крайней на то необходимости,
мы полагаем, что введение в правовую сферу такого принципиально нового субъ-
екта права, как робот (система искусственного интеллекта), является преждевре-
менным (хотя не исключено, что такая необходимость появится)» [4. С. 108]. При-
своение ИИ прав человека стало бы лишь сугубо некорректной экстраполяций
свойств человека на ИИ [12. Р. 15], не учитывающей ни специфику человека, ни
специфику искусственного интеллекта.

Очевидным образом, подобная правовая конструкция неприменима к слу-

чаям возникновения деликтных обязательств в результате деятельности искус-
ственного интеллекта. Однако невозможность применения той или иной кон-
струкции не должна означать невозможность самой ответственности. Распростра-
нение на случаи причинения вреда роботом правового режима обстоятельств
непреодолимой силы очевидным образом создает пространство для злоупотреб-
лений. Как же в таком случае надлежит регулировать вопросы правовой ответ-
ственности за действия искусственного интеллекта?


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

В самом первом приближении необходимо уяснить (а где это возможно,

и закрепить нормативных актах) корректное соотнесение ролей человека и искус-
ственного интеллекта в хозяйственных и правовых отношениях. По общему пра-
вилу, недопустимо возлагать на ИИ принятие ключевых решений. Эти решения
должны оставаться исключительной прерогативой человека там, где это воз-
можно.

Дело здесь не только и не столько в упомянутом выше принципе антропо-

центризма. Точнее, это обстоятельство обусловлено вовлечением человека в круг
потенциальных последствий деятельности робота уже не в качестве субъекта,
а в качестве объекта. Например, в случае принятия решения об аварийном отклю-
чении мощностей электростанции или об аварийном сбросе воды из водохрани-
лища даже самый продвинутый алгоритм в отсутствие сложных дополнительных
настроек будет оценивать сугубо экономические последствия каждого из возмож-
ных решений. И вполне может оказаться, что внезапное затопление близлежащего
поселка искусственный интеллект сочтет в данной ситуации экономически целе-
сообразным.

Это возвращает нас к понятию субъективной стороны правонарушения.

Высококлассная команда разработчиков может создать алгоритм, позволяющий до
известной степени включить в механизм принятия решения роботом интересы че-
ловека в качестве наиболее высокого приоритета. Но даже она не сможет придать
роботу морально-этические свойства человека, имитировать нравственные пере-
живания и психоэмоциональное отношения к совершаемому действию.

Не нужно забывать: методы мышления человека и методы обработки ин-

формации условным искусственным интеллектом качественными образом разли-
чаются. Это два разных типа обработки информации, каждый из которых обладает
своими достоинствами и недостатками. И даже при наличии схожих целей не-
уместно переносить на один тип свойства другого.

В этих условиях по общему правилу лишь человек – при этом обладающий

и надлежащей экспертизой, и развитыми этическими установками, и именно ан-
тропоцентричной аксиологией – может принимать решения, затрагивающие клю-
чевые права и законные интересы другого человека. И потому сегодня ИИ может
быть лишь источником данных для эксперта, а не заменой этого эксперта. Более
того, не теряет своей актуальности правило: использование ИИ тем целесообраз-
нее, чем меньше оно влияет на жизнь и здоровье физических лиц.

При соблюдении данного правила не требуются новые правовые конструк-

ции. Вопросы деликтоспособности вполне могут решаться с помощью существу-
ющих правовых механизмов, пусть даже адаптированных к использованию такого
специфического инструмента, как ИИ. Но как быть в ситуации, когда устранение
человека от принятия решений и составляет саму суть роботизации?

В качестве понятного примера можно привести роботизированное такси,

автопилот морского судна или робота для микрохирургических операций. Техно-
логическая сложность выполняемых ими задач прямо обуславливает экономиче-
скую и прикладную целесообразность устранения человека от контроля за этими
операциями. Проще говоря, если за рулем находится водитель, то робот в таком
такси уже не нужен – а если такси управляет робот, то наличие водителя нивели-
рует экономические преимущества от роботизации такси. Именно для подобных


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

ситуаций актуальным является формирование новых правовых механизмов регу-
лирования ответственности за действия ИИ.

Теоретик и историк права может справедливо предположить, чтобы в дан-

ной ситуации актуально не столько изобретение новых правовых конструкций,
сколько обращение к старым, давно забытым правовым моделям. Речь идет,
например, о модели взаимоотношений pater famalias и раба в римском праве. При
таком подходе «правовое положение ИИ становится тождественным или близким
тому, которое было у римских антропоморфных коллективных организаций, либо
еще более редуцированным – раба, домочадцев, детей, в том числе filius in
potestate tua est» [1. С. 21]. Однако простой принцип «за все действия раба право-
вую ответственность несет хозяин» невозможно механистически перенести на мо-
дель распределения ответственности за последствия действий робота.

Это отнюдь не означает того, что современный ИИ более сложен в пси-

хоэмоциональном аспекте чем, например, древнеримский гладиатор. Наоборот,
при исследовании первопричин того или иного решения ИИ мы можем с большей
легкостью выделить по меньшей мере несколько ключевых субъектов, причем
каждый из этих субъектов будет являться физическим лицом, юридическим лицом
либо группой лиц. «Отношения с использованием искусственного интеллекта –
это всегда отношения между субъектами права или по поводу объектов права.
В любом случае это отношения, которые на том или ином этапе инициированы,
запрограммированы человеком – субъектом права с той или иной степенью ответ-
ственности (в том числе в рамках деятельности юридических лиц). Волеизъявле-
ние человека на те или иные действия искусственного интеллекта может быть вы-
ражено в разной степени: от действий ИИ, находящихся под полным контролем
воли человека, до автономных действий ИИ, опять же допускаемых и осознавае-
мых в своих возможных пределах и последствиях человеком (группой лиц)»
[5. С. 64].

Эта возможность, в свою очередь, может и должна стать основой для раци-

онального и справедливого распределения ответственности между ними. Речь
идет о таких субъектах, как владелец ИИ, пользователь ИИ, разработчик ИИ,
а также третьи лица [7, 8].

Разумеется, мы не можем применить уголовное или административное

наказание к ИИ. Любая мера ответственности, примененная к ИИ, в любом случае
повлечет за собой неблагоприятные последствия для его пользователя: например,
административный запрет на работу ИИ в течение определенного срока будет
означать издержки не для самого ИИ, а лишь для того субъекта, который исполь-
зовал данную систему ИИ в своей хозяйственной деятельности.

Именно этот тезис является отправной точкой для конкретизации абстракт-

ного тезиса об индивидуализии решения о распределении ответственности в каж-
дом конкретном случае с учетом комплекса факторов. Владелец ИИ в таком кон-
тексте предстает владельцем источника повышенной опасности, а в саму катего-
рию источника повышенной опасности можно и должно включать роботов и си-
стемы ИИ в целом. По умолчанию, ответственность за неблагоприятные послед-
ствия деятельности ИИ несет его владелец – но лишь до тех пор, пока не доказана
вина иных лиц.


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

Список литературы

1.

Афанасьев С. Ф. К проблеме материальной и процессуальной правосубъ-

ектности искусственного интеллекта // Вестник гражданского процесса. 2022. №
3. С. 12–31.

2.

Дурнева П. Н. Искусственный интеллект: анализ с точки зрения класси-

ческой теории правосубъектности // Гражданское право. 2019. № 5.

3.

Ивлиев Г. П., Егорова М. А. Юридическая проблематика правового ста-

туса искусственного интеллекта и продуктов, созданных системами искусствен-
ного интеллекта // Журнал российского права. 2022. № 6. С. 32–46.

4.

Чаннов С. Е. Робот (система искусственного интеллекта) как субъект

(квазисубъект) права // Актуальные проблемы российского права. 2022. № 12.

5.

Шахназаров Б. А. Правовое регулирование отношений с использованием

искусственного интеллекта // Актуальные проблемы российского права. 2022.
№ 9. С. 63–72.

6.

Черногор Н.Н., Емельянов А.С., Залоило М.В. Трансформация идейной

основы юридической ответственности: между архаикой и постмодерном //
Вопросы истории. 2021. № 11(2). С. 248–259.

7.

Bertolini A. Robots as Products: The Case for a Realistic Analysis of Robotic

Applications and Liability Rules // Law, Innovation and Technology. 2013. Vol. 5. DOI:
10.5235/17579961.5.2.214.

8.

Colonna K. Autonomous Cars and Tort Liability // Case Western Reserve Jour-

nal of Law, Technology & thpe Internet. 2012. Vol. 4. DOI: 10.2139/ssrn.2325879.

9.

Draft report with recommendations to the Commission on Civil Law Rules on

Robotics (2015/2103(INL)). Committee on Legal Affairs (31.05.2016) [Электронный
ресурс].

URL:

https://www.europarl.europa.eu/doceo/document/JURI-PR-

582443_EN.pdf?redirect

(дата обращения: 5.09.2024).

10.

Duffy S.H., Hopkins J.P. Sit, Stay, Drive: The Future of Autonomous Car

Liability // SMU Science & Technology Law Review. 2013. Vol. 16.

11.

European Parliament Resolution of 16 February 2017 with Recommenda-

tions to the Commission on Civil Law Rules on Robotics (2015/2103(INL)).

12.

Nevejans N. European Civil Law Rules in Robotics: Study. European Union,

2016.

13.

Филипова И. А., Коротеев В. Д. Будущее искусственного интеллекта:

объект или субъект права? // Journal of Digital Technologies and Law. 2023. № 1(2).
Pp. 359–386. EDN: immoam

Библиографические ссылки

Афанасьев С. Ф. К проблеме материальной и процессуальной правосубъектности искусственного интеллекта // Вестник гражданского процесса. 2022. № З.С. 12-31.

Дурнева П. Н. Искусственный интеллект: анализ с точки зрения классической теории правосубъектности // Гражданское право. 2019. № 5.

Ивлиев Г. П., Егорова М. А. Юридическая проблематика правового статуса искусственного интеллекта и продуктов, созданных системами искусственного интеллекта // Журнал российского права. 2022. № 6. С. 32-46.

Чаннов С. Е. Робот (система искусственного интеллекта) как субъект (квазисубъект) права // Актуальные проблемы российского права. 2022. № 12.

Шахназаров Б. А. Правовое регулирование отношений с использованием искусственного интеллекта // Актуальные проблемы российского права. 2022. № 9. С. 63-72.

Чсрногор И.И., Емельянов А.С., Залоило М.В. Трансформация идейной основы юридической ответственности: между архаикой и постмодерном // Вопросы истории. 2021. № 11(2). С. 248-259.

Bertolini A. Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules // Law, Innovation and Technology. 2013. Vol. 5. DOI: 10.5235/17579961.5.2.214.

Colonna K. Autonomous Cars and Tort Liability // Case Western Reserve Journal of Law, Technology & thpe Internet. 2012. Vol. 4. DOI: 10.2139/ssrn.2325879.

Draft report with recommendations to the Commission on Civil Law Rules on

Robotics (2015/2103(INL)). Committee on Legal Affairs (31.05.2016) [Электронный ресурс]. URL: https://www.curoparl.curopa.cu/docco/documcnt/JURI-PR-

EN.pdf/rcdirect (дата обращения: 5.09.2024).

Duffy S.H., Hopkins J.P. Sit, Stay, Drive: The Future of Autonomous Car Liability// SMU Science & Technology Law Review. 2013. Vol. 16.

European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics (2O15/21O3(1NL)).

Nevejans N. European Civil Law Rules in Robotics: Study. European Union, 2016.

Филипова И. А., Коротеев В. Д. Будущее искусственного интеллекта: объект или субъект права? И Journal of Digital Technologies and Law. 2023. № 1(2). Pp. 359-386. EDN: immoam