Should robots be jailed? to the question of the delictous capability of artificial intelligence

Abstract

The involvement of artificial intelligence technologies in everyday relations requires regulation of those cases in which the actions of a robot have caused harm to an individual or legal entity. This issue requires an analysis of the very phenomenon of the legal subjectivity of Al and the development of a matrix of responsibility for the consequences of its actions. This article invites you to reflect on this topic. After all, the legal liability of Al is not only a theoretical issue. The quality of regulation of Al liability directly affects the prospects for the spread of digital technologies.

Source type: Conferences
Years of coverage from 2022
inLibrary
Google Scholar
Branch of knowledge
  • Chamber of Commerce and Industry of the Russian Federation
CC BY f
135-139
0

Downloads

Download data is not yet available.
To share
Kazancev Д. (2025). Should robots be jailed? to the question of the delictous capability of artificial intelligence . Digital Technologies and Law, 1(1), 135–139. Retrieved from https://www.inlibrary.uz/index.php/digteclaw/article/view/126786
D Kazancev, Chamber of Commerce and Industry of the Russian Federation
Candidate of Law
0
Citations
Crossref
Сrossref
Scopus
Scopus

Abstract

The involvement of artificial intelligence technologies in everyday relations requires regulation of those cases in which the actions of a robot have caused harm to an individual or legal entity. This issue requires an analysis of the very phenomenon of the legal subjectivity of Al and the development of a matrix of responsibility for the consequences of its actions. This article invites you to reflect on this topic. After all, the legal liability of Al is not only a theoretical issue. The quality of regulation of Al liability directly affects the prospects for the spread of digital technologies.


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

Д. А. Казанцев,

кандидат юридических наук,

Торгово-промышленная палата Российской Федерации

САЖАТЬ ЛИ РОБОТОВ В ТЮРЬМУ? К ВОПРОСУ

О ДЕЛИКТОСПОСОБНОСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Аннотация.

Вовлечение технологий искусственного интеллекта в повсе-

дневные отношения требует регулирования тех, пусть даже немногочисленных,
случаев, в которых следствием действий робота стало причинение вреда физиче-
скому или юридическому лицу. Этот вопрос, в свою очередь, требует как анализа
самого феномена деликтоспособности ИИ, так и разработки матрицы ответствен-
ности за последствия его действий. Не являясь исчерпывающим изложением всех
вариантов решения данной проблемы, настоящая статья приглашает к размышле-
нию на эту тему. Ведь данный аспект использования ИИ не является сугубо тео-
ретическим, а прямо влияет на перспективы распространения цифровых техноло-
гий.

Ключевые слова:

право, цифровые технологии, правовая ответственности,

правовая субъектность, деликтоспособность, робот, искусственный интеллект

SHOULD ROBOTS BE JAILED? TO THE QUESTION OF THE DELICTOUS

CAPABILITY OF ARTIFICIAL INTELLIGENCE

Abstract

. The involvement of artificial intelligence technologies in everyday re-

lations requires regulation of those cases in which the actions of a robot have caused
harm to an individual or legal entity. This issue requires an analysis of the very phenom-
enon of the legal subjectivity of AI and the development of a matrix of responsibility for
the consequences of its actions. This article invites you to reflect on this topic. After all,
the legal liability of AI is not only a theoretical issue. The quality of regulation of AI
liability directly affects the prospects for the spread of digital technologies.

Keywords

: law, digital technologies, legal liability, legal subjectivity, delictual

capacity, robot, artificial intelligence


Роботизация производств и все более широкое использование технологий

искусственного интеллекта в различных аспектах повседневной жизни переводит
из теоретической в практическую плоскость вопрос о правовых последствиях
причинения роботом вреда человеку. За пределами этой статьи остается и вопрос
условности понятия искусственного интеллекта на текущем уровне научно-техни-
ческого развития, и вопрос о неопределенности границ понятия «робот» [9, 11].

Сегодня вопрос ответственности ИИ имеет не только теоретико-правовое,

но и сугубо практическое значение. Отсутствие соответствующего регулирования
создает правовой вакуум, который потенциально может создать ситуацию отсут-
ствия ответственности за целую группу правонарушений. Это, в свою очередь, с
неизбежностью повлечет стремление физических и юридических лиц избегать,
насколько это возможно, вовлечения в такие правоотношения, в которых потенци-
альное нарушение их прав и законных интересов не будет иметь никаких послед-
ствий. Проще говоря, неурегулированная правовая ответственность ИИ – это один


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

из ключевых факторов депопуляризации повседневного использования цифровых
технологий, а значит, и важное препятствие на пути их развития.

Классическим набором элементов правовой ответственности принято назы-

вать наличие субъекта, субъективной стороны, объекта и о объективной стороны.
И если наличие объекта и объективной стороны не устраняется фактом причине-
ния вреда в результате действий ИИ, то наличие двух оставшихся факторов пред-
ставляется в высшей степени дискуссионным.

Сам феномен деликтоспособности неразрывно связан с понятием право-

способности. Иными словами, лишь субъект права может нести правовую ответ-
ственность [6]. Однако как быть в ситуации, когда причиной возникновении де-
ликтных обязательств стали действия субъекта, не относящегося к субъектам
права?

На сегодня преждевременными представляются разговоры о присвоении

искусственному интеллекту статуса правового субъекта. Ведь сходство не озна-
чает тождество, а присвоение роботу антропоморфных черт не означает обретения
им тождества с человеком. С точки зрения достигнутого уровня развития техники
на сегодняшний день «очевидна несостоятельность предложения признания за ис-
кусственным интеллектом правосубъектности, аналогичной правосубъектности
физического лица, и, несмотря на использование принципов работы человече-
ского мозга для построения системы искусственного интеллекта, принципы пра-
вового регулирования статуса физического лица не могут быть применены к ис-
кусственному интеллекту» [2. С. 33]. Вопросы о правосубъектьности ИИ активно
обсуждаются и на страницах периодических изданий [1–4; 6; 13].

Несмотря на стремительное развитие нейросетей и технологий роботиза-

ции, все еще остается актуальным мнение о том, что «придание роботам (системе
искусственного интеллекта) статуса субъекта права не повлечет за собой в обозри-
мом будущем каких-то явных негативных последствий. В то же время не видны
и преимущества такого решения по сравнению с рассмотрением роботов (систем
искусственного интеллекта) в качестве квазисубъектов права. Исходя из философ-
ского принципа Оккама не умножать сущности без крайней на то необходимости,
мы полагаем, что введение в правовую сферу такого принципиально нового субъ-
екта права, как робот (система искусственного интеллекта), является преждевре-
менным (хотя не исключено, что такая необходимость появится)» [4. С. 108]. При-
своение ИИ прав человека стало бы лишь сугубо некорректной экстраполяций
свойств человека на ИИ [12. Р. 15], не учитывающей ни специфику человека, ни
специфику искусственного интеллекта.

Очевидным образом, подобная правовая конструкция неприменима к слу-

чаям возникновения деликтных обязательств в результате деятельности искус-
ственного интеллекта. Однако невозможность применения той или иной кон-
струкции не должна означать невозможность самой ответственности. Распростра-
нение на случаи причинения вреда роботом правового режима обстоятельств
непреодолимой силы очевидным образом создает пространство для злоупотреб-
лений. Как же в таком случае надлежит регулировать вопросы правовой ответ-
ственности за действия искусственного интеллекта?


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

В самом первом приближении необходимо уяснить (а где это возможно,

и закрепить нормативных актах) корректное соотнесение ролей человека и искус-
ственного интеллекта в хозяйственных и правовых отношениях. По общему пра-
вилу, недопустимо возлагать на ИИ принятие ключевых решений. Эти решения
должны оставаться исключительной прерогативой человека там, где это воз-
можно.

Дело здесь не только и не столько в упомянутом выше принципе антропо-

центризма. Точнее, это обстоятельство обусловлено вовлечением человека в круг
потенциальных последствий деятельности робота уже не в качестве субъекта,
а в качестве объекта. Например, в случае принятия решения об аварийном отклю-
чении мощностей электростанции или об аварийном сбросе воды из водохрани-
лища даже самый продвинутый алгоритм в отсутствие сложных дополнительных
настроек будет оценивать сугубо экономические последствия каждого из возмож-
ных решений. И вполне может оказаться, что внезапное затопление близлежащего
поселка искусственный интеллект сочтет в данной ситуации экономически целе-
сообразным.

Это возвращает нас к понятию субъективной стороны правонарушения.

Высококлассная команда разработчиков может создать алгоритм, позволяющий до
известной степени включить в механизм принятия решения роботом интересы че-
ловека в качестве наиболее высокого приоритета. Но даже она не сможет придать
роботу морально-этические свойства человека, имитировать нравственные пере-
живания и психоэмоциональное отношения к совершаемому действию.

Не нужно забывать: методы мышления человека и методы обработки ин-

формации условным искусственным интеллектом качественными образом разли-
чаются. Это два разных типа обработки информации, каждый из которых обладает
своими достоинствами и недостатками. И даже при наличии схожих целей не-
уместно переносить на один тип свойства другого.

В этих условиях по общему правилу лишь человек – при этом обладающий

и надлежащей экспертизой, и развитыми этическими установками, и именно ан-
тропоцентричной аксиологией – может принимать решения, затрагивающие клю-
чевые права и законные интересы другого человека. И потому сегодня ИИ может
быть лишь источником данных для эксперта, а не заменой этого эксперта. Более
того, не теряет своей актуальности правило: использование ИИ тем целесообраз-
нее, чем меньше оно влияет на жизнь и здоровье физических лиц.

При соблюдении данного правила не требуются новые правовые конструк-

ции. Вопросы деликтоспособности вполне могут решаться с помощью существу-
ющих правовых механизмов, пусть даже адаптированных к использованию такого
специфического инструмента, как ИИ. Но как быть в ситуации, когда устранение
человека от принятия решений и составляет саму суть роботизации?

В качестве понятного примера можно привести роботизированное такси,

автопилот морского судна или робота для микрохирургических операций. Техно-
логическая сложность выполняемых ими задач прямо обуславливает экономиче-
скую и прикладную целесообразность устранения человека от контроля за этими
операциями. Проще говоря, если за рулем находится водитель, то робот в таком
такси уже не нужен – а если такси управляет робот, то наличие водителя нивели-
рует экономические преимущества от роботизации такси. Именно для подобных


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

ситуаций актуальным является формирование новых правовых механизмов регу-
лирования ответственности за действия ИИ.

Теоретик и историк права может справедливо предположить, чтобы в дан-

ной ситуации актуально не столько изобретение новых правовых конструкций,
сколько обращение к старым, давно забытым правовым моделям. Речь идет,
например, о модели взаимоотношений pater famalias и раба в римском праве. При
таком подходе «правовое положение ИИ становится тождественным или близким
тому, которое было у римских антропоморфных коллективных организаций, либо
еще более редуцированным – раба, домочадцев, детей, в том числе filius in
potestate tua est» [1. С. 21]. Однако простой принцип «за все действия раба право-
вую ответственность несет хозяин» невозможно механистически перенести на мо-
дель распределения ответственности за последствия действий робота.

Это отнюдь не означает того, что современный ИИ более сложен в пси-

хоэмоциональном аспекте чем, например, древнеримский гладиатор. Наоборот,
при исследовании первопричин того или иного решения ИИ мы можем с большей
легкостью выделить по меньшей мере несколько ключевых субъектов, причем
каждый из этих субъектов будет являться физическим лицом, юридическим лицом
либо группой лиц. «Отношения с использованием искусственного интеллекта –
это всегда отношения между субъектами права или по поводу объектов права.
В любом случае это отношения, которые на том или ином этапе инициированы,
запрограммированы человеком – субъектом права с той или иной степенью ответ-
ственности (в том числе в рамках деятельности юридических лиц). Волеизъявле-
ние человека на те или иные действия искусственного интеллекта может быть вы-
ражено в разной степени: от действий ИИ, находящихся под полным контролем
воли человека, до автономных действий ИИ, опять же допускаемых и осознавае-
мых в своих возможных пределах и последствиях человеком (группой лиц)»
[5. С. 64].

Эта возможность, в свою очередь, может и должна стать основой для раци-

онального и справедливого распределения ответственности между ними. Речь
идет о таких субъектах, как владелец ИИ, пользователь ИИ, разработчик ИИ,
а также третьи лица [7, 8].

Разумеется, мы не можем применить уголовное или административное

наказание к ИИ. Любая мера ответственности, примененная к ИИ, в любом случае
повлечет за собой неблагоприятные последствия для его пользователя: например,
административный запрет на работу ИИ в течение определенного срока будет
означать издержки не для самого ИИ, а лишь для того субъекта, который исполь-
зовал данную систему ИИ в своей хозяйственной деятельности.

Именно этот тезис является отправной точкой для конкретизации абстракт-

ного тезиса об индивидуализии решения о распределении ответственности в каж-
дом конкретном случае с учетом комплекса факторов. Владелец ИИ в таком кон-
тексте предстает владельцем источника повышенной опасности, а в саму катего-
рию источника повышенной опасности можно и должно включать роботов и си-
стемы ИИ в целом. По умолчанию, ответственность за неблагоприятные послед-
ствия деятельности ИИ несет его владелец – но лишь до тех пор, пока не доказана
вина иных лиц.


background image

Цифровые технологии в системе публично-правовых (государственно-правовых) отношений

Список литературы

1.

Афанасьев С. Ф. К проблеме материальной и процессуальной правосубъ-

ектности искусственного интеллекта // Вестник гражданского процесса. 2022. №
3. С. 12–31.

2.

Дурнева П. Н. Искусственный интеллект: анализ с точки зрения класси-

ческой теории правосубъектности // Гражданское право. 2019. № 5.

3.

Ивлиев Г. П., Егорова М. А. Юридическая проблематика правового ста-

туса искусственного интеллекта и продуктов, созданных системами искусствен-
ного интеллекта // Журнал российского права. 2022. № 6. С. 32–46.

4.

Чаннов С. Е. Робот (система искусственного интеллекта) как субъект

(квазисубъект) права // Актуальные проблемы российского права. 2022. № 12.

5.

Шахназаров Б. А. Правовое регулирование отношений с использованием

искусственного интеллекта // Актуальные проблемы российского права. 2022.
№ 9. С. 63–72.

6.

Черногор Н.Н., Емельянов А.С., Залоило М.В. Трансформация идейной

основы юридической ответственности: между архаикой и постмодерном //
Вопросы истории. 2021. № 11(2). С. 248–259.

7.

Bertolini A. Robots as Products: The Case for a Realistic Analysis of Robotic

Applications and Liability Rules // Law, Innovation and Technology. 2013. Vol. 5. DOI:
10.5235/17579961.5.2.214.

8.

Colonna K. Autonomous Cars and Tort Liability // Case Western Reserve Jour-

nal of Law, Technology & thpe Internet. 2012. Vol. 4. DOI: 10.2139/ssrn.2325879.

9.

Draft report with recommendations to the Commission on Civil Law Rules on

Robotics (2015/2103(INL)). Committee on Legal Affairs (31.05.2016) [Электронный
ресурс].

URL:

https://www.europarl.europa.eu/doceo/document/JURI-PR-

582443_EN.pdf?redirect

(дата обращения: 5.09.2024).

10.

Duffy S.H., Hopkins J.P. Sit, Stay, Drive: The Future of Autonomous Car

Liability // SMU Science & Technology Law Review. 2013. Vol. 16.

11.

European Parliament Resolution of 16 February 2017 with Recommenda-

tions to the Commission on Civil Law Rules on Robotics (2015/2103(INL)).

12.

Nevejans N. European Civil Law Rules in Robotics: Study. European Union,

2016.

13.

Филипова И. А., Коротеев В. Д. Будущее искусственного интеллекта:

объект или субъект права? // Journal of Digital Technologies and Law. 2023. № 1(2).
Pp. 359–386. EDN: immoam

References

Афанасьев С. Ф. К проблеме материальной и процессуальной правосубъектности искусственного интеллекта // Вестник гражданского процесса. 2022. № З.С. 12-31.

Дурнева П. Н. Искусственный интеллект: анализ с точки зрения классической теории правосубъектности // Гражданское право. 2019. № 5.

Ивлиев Г. П., Егорова М. А. Юридическая проблематика правового статуса искусственного интеллекта и продуктов, созданных системами искусственного интеллекта // Журнал российского права. 2022. № 6. С. 32-46.

Чаннов С. Е. Робот (система искусственного интеллекта) как субъект (квазисубъект) права // Актуальные проблемы российского права. 2022. № 12.

Шахназаров Б. А. Правовое регулирование отношений с использованием искусственного интеллекта // Актуальные проблемы российского права. 2022. № 9. С. 63-72.

Чсрногор И.И., Емельянов А.С., Залоило М.В. Трансформация идейной основы юридической ответственности: между архаикой и постмодерном // Вопросы истории. 2021. № 11(2). С. 248-259.

Bertolini A. Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules // Law, Innovation and Technology. 2013. Vol. 5. DOI: 10.5235/17579961.5.2.214.

Colonna K. Autonomous Cars and Tort Liability // Case Western Reserve Journal of Law, Technology & thpe Internet. 2012. Vol. 4. DOI: 10.2139/ssrn.2325879.

Draft report with recommendations to the Commission on Civil Law Rules on

Robotics (2015/2103(INL)). Committee on Legal Affairs (31.05.2016) [Электронный ресурс]. URL: https://www.curoparl.curopa.cu/docco/documcnt/JURI-PR-

EN.pdf/rcdirect (дата обращения: 5.09.2024).

Duffy S.H., Hopkins J.P. Sit, Stay, Drive: The Future of Autonomous Car Liability// SMU Science & Technology Law Review. 2013. Vol. 16.

European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics (2O15/21O3(1NL)).

Nevejans N. European Civil Law Rules in Robotics: Study. European Union, 2016.

Филипова И. А., Коротеев В. Д. Будущее искусственного интеллекта: объект или субъект права? И Journal of Digital Technologies and Law. 2023. № 1(2). Pp. 359-386. EDN: immoam