Морально-волевая дилемма для искусственного интеллекта: правовой аспект

Аннотация

Внедрение искусственного интеллекта, появление общественных отношений, осложненных искусственным интеллектом, естественно поднимает вопрос о необходимости трансформации права, его базовых понятий. Наиболее спорным представляется вопрос о понятиях мораль и воля, как применимых к искусственному интеллекту. Показательным для интерпретации этих понятий является эксперимент «проблема вагонетки», именно он и положен в основу исследования, представленного в настоящей статье. В результате исследования авторы делают вывод о потенциальной возможности искусственного интеллекта самостоятельно решать морально-волевые проблемы.

Тип источника: Конференции
Годы охвата с 2022
inLibrary
Google Scholar
Выпуск:
CC BY f
140-144
0

Скачивания

Данные скачивания пока недоступны.
Поделиться
Усольцева, Н., & Усольцев, Ю. (2025). Морально-волевая дилемма для искусственного интеллекта: правовой аспект . Цифровые технологии и право, 1(2), 140–144. извлечено от https://www.inlibrary.uz/index.php/digteclaw/article/view/128300
Н Усольцева, Сургутский государственный университет
кандидат юридических наук, доцент,
Ю Усольцев, Сургутский государственный университет
доцент
0
Цитаты
Crossref
Сrossref
Scopus
Scopus

Аннотация

Внедрение искусственного интеллекта, появление общественных отношений, осложненных искусственным интеллектом, естественно поднимает вопрос о необходимости трансформации права, его базовых понятий. Наиболее спорным представляется вопрос о понятиях мораль и воля, как применимых к искусственному интеллекту. Показательным для интерпретации этих понятий является эксперимент «проблема вагонетки», именно он и положен в основу исследования, представленного в настоящей статье. В результате исследования авторы делают вывод о потенциальной возможности искусственного интеллекта самостоятельно решать морально-волевые проблемы.


background image

Цифровые

технологии

в

системе

частно

-

правовых

(цивилистических)

отношений

______________________________________________________________________________________________________________________

140

Н.

А.

Усольцева,

кандидат

юридических

наук,

доцент,

Сургутский

государственный

университет,

Ю.

М.

Усольцев,

доцент,

Сургутский

государственный

университет

МОРАЛЬНО

-

ВОЛЕВАЯ

ДИЛЕММА

ДЛЯ

ИСКУССТВЕННОГО

ИНТЕЛЛЕКТА:

ПРАВОВОЙ

АСПЕКТ

Аннотация.

Внедрение

искусственного

интеллекта,

появление

обще-

ственных

отношений,

осложненных

искусственным

интеллектом,

естественно

поднимает

вопрос

о

необходимости

трансформации

права,

его

базовых

понятий.

Наиболее

спорным

представляется

вопрос

о

понятиях

мораль

и

воля,

как

приме-

нимых

к

искусственному

интеллекту.

Показательным

для

интерпретации

этих

понятий

является

эксперимент

«

проблема

вагонетки»,

именно

он

и

положен

в

основу

исследования,

представленного

в

настоящей

статье.

В

результате

иссле-

дования

авторы

делают

вывод

о

потенциальной

возможности

искусственного

ин-

теллекта

самостоятельно

решать

морально

-

волевые

проблемы.

Ключевые

слова:

искусственный

интеллект,

воля,

мораль,

субъект

права

MORAL-VOLITIONAL DILEMMA

FOR ARTIFICIAL INTELLIGENCE: LEGAL ASPECT

Abstract.

The introduction of artificial intelligence, the emergence of social re-

lations complicated by artificial intelligence, naturally raises the question of the need

to transform law, its basic concepts. The most controversial issue is the concept of mo-

rality and will, as applicable to artificial intelligence. The experiment «trolley prob-

lem»

is indicative for the interpretation of these concepts, it is the basis of the study

presented in this article. As a result of the study, the authors conclude that artificial in-

telligence has the potential to independently solve moral-volitional problems.

Key words:

artificial intelligence, will, morality, subject of law

Введение.

Искусственный

интеллект,

его

модели

и

системы,

стали

участ-

никами

нашей

каждодневной

жизни,

принимая

в

ней

все

более

активное

участие.

Все

это

влечет

несомненное

осознание

факта

существования

искусственного

ин-

теллекта

в

современной

реальности,

и

его

принятие

или

отрицание.

Какое

бы

ни

было

мнение

конкретного

лица

или

группы

лиц

по

этому

вопросу,

искусствен-

ный

интеллект

получает

все

больше

возможностей,

больше

правового

регулиро-

вания

и

больше

места

в

правовой

дискуссии.

Важнейшей

из

таких

дискуссий

можно

определить

дискуссию

о

статусе

искусственного

интеллекта

с

позиции

субъекта

права,

соотнесение

с

базовыми

субъектами

правовых

отношений.

Со-

временные

правовые

концепции

позволяют

рассматривать

искусственный

интел-

лект

и

как

объект

правоотношений,

и

как

их

субъекта

или

квазисубъекта

.

Остановимся

на

таких

традиционных

правовых

понятиях

как

воля

и

мораль.


background image

Цифровые

технологии

в

системе

частно

-

правовых

(цивилистических)

отношений

______________________________________________________________________________________________________________________

141

Основная

часть.

Несколько

отстраняясь

от

сформировавшейся

правовой

интерпретации

данных

понятий,

обратим

внимание

на

первоочередные,

по

нашему

мнению,

сущность

и

понимание

морали

и

воли

в

разрезе

проблемы

ис-

кусственного

интеллекта.

Вспомним

про

эксперимент

«

проблема

вагонетки»

и

представим

себя

на

месте

человека

у

стрелки.

Мы

готовы

принимать

решение,

основывая

на

соб-

ственных

моральных

ценностях,

выразить

свою

волю

и

получить

соответствую-

щие

последствия,

как

морально

-

этические,

так

и

юридические.

Варианта

пове-

дения

человека

изначально

в

этой

ситуации

два:

переключить

стрелку

,

выбирая

количество

жертв

,

или

уйти

,

не

глядя

на

нее.

Если

принимаем

решение

стрелку

переключить,

то

,

какое

количество

жертв

мы

выбираем

одну

или

пять.

Исходя

из

сформированной

статистики

этого

эксперимента,

преимущественно

испытуе-

мые

выбирают

одну

жертву,

делая

выбор

с

позиции

большего

и

меньшего

блага

для

общества

и

для

себя

(один

погибший

лучше,

чем

много).

Таким

образом,

формируется

утилитарный

или

рациональный

подход,

который

проявляет

испы-

туемый

человек.

И

тем

не

менее

исследования

в

эксперименте

с

вагонеткой

продолжаются,

и

при

изменении

критериев

жертв,

происходит

и

изменение

результатов

экспе-

римента.

Выбор

пола

жертвы;

единая

или

противоположная

гендерность

с

ли-

цом,

принимающим

решение;

изменение

числа

жертв

на

обоих

путях;

появление

дополнительных

субъектов,

которых

надо

толкнуть

на

рельсы,

чтобы

остановить

вагонетку;

все

это

приводит

к

тому,

что

рациональный

или

утилитарный

подход

срабатывает

не

всегда.

В

его

действие

вмешивается

эмоциональная

составляю-

щая.

При

изменении

условий

моральной

дилеммы,

которую

необходимо

решить,

наш

мозг

не

всегда

готов

принимать

решение

исключительно

рационально

[1].

Человек,

принимая

решение,

не

всегда

обосновывает

его

моральными

ас-

пектами,

принимая

своей

волей

аморальный

по

мнению

общества

выбор.

И

чем

же

будет

отличаться

от

него

в

данной

ситуации

искусственный

интеллект,

кото-

рый

делает

рациональный

выбор?

Если

поставить

у

стрелки

рядом

с

вагонеткой

искусственный

интеллект,

какова

будет

правовая

природа

и

особенности

его

мо-

рально

-

волевой

дилеммы?

С

позиции

правовой

мысли

мораль

можно

интерпретировать

как

выра-

женные

во

вне

долженствования,

реализованные

в

делах,

поступках,

соизмери-

мых

с

установленными

правилами,

что

воспринимается

в

качестве

уровня,

среза

морально

-

нравственного

состояния

социума

[5.

С.

38–44].

Но

мораль

не

является

стагнационным

понятием,

не

подвергающимся

трансформации

с

течением

времени.

То,

что

было

вполне

моральным

в

прошлые

времена

сейчас

признается

абсолютно

аморальным.

Традиционным

примером

для

такой

ситуации

является

морально

оправданное

разделение

общества

на

классы,

сословия,

признание

рабства

и

т.

д.

Соответственно

стоит

однозначно

утверждать,

что

трансформация

общества,

его

уклада

приводит

и

к

изменению

критериев

тех

моральных

ценностей,

которые

положены

в

его

основу.

Причем

моральные

ценности,

основанные

на

религиозных

догмах

,

также

могут

транс-

формироваться

и

изменяться

под

влиянием

времени

и

изменений

уклада

обще-

ственной

жизни,

и

прочих

условий.

Все

это

позволяет

сделать

вывод,

что

уни-


background image

Цифровые

технологии

в

системе

частно

-

правовых

(цивилистических)

отношений

______________________________________________________________________________________________________________________

142

версальной,

устойчивой

морали

просто

не

существует.

Она

проектируется

на

конкретное

место,

время,

конкретное

общество

и

конкретного

человека.

Основываясь

на

соответствующих

утверждениях,

полагаем,

что

вплетение

в

мораль

и

ее

ценности

искусственного

интеллекта

вообще

не

является

особой

проблемой,

и

даже

если

сейчас

еще

существует

неприятие

искусственного

ин-

теллекта

отдельными

субъектами

или

их

группами,

то

в

ближайшем

будущем

трансформация

однозначно

завершится.

Продолжая

исследование

морально

-

волевой

дилеммы

искусственного

ин-

теллекта,

обратимся

к

понятию

воли.

В

контексте

философских

и

психологиче-

ских

направлений

волю

можно

интерпретировать

как

способность

к

выбору

и

наличие

сил

к

реализации

этого

выбора.

При

этом

воля

может

быть

свойственна

не

только

человеку,

но

и

другим

субъектам

отношений,

даже

фиктивным

и

кол-

лективным.

Носителем

воли

может

быть

юридическое

лицо,

государство,

сооб-

щество

в

целом

и

т.

д.

В

зависимости

от

ситуации,

от

причин

и

условий,

от

носи-

теля,

воля

может

иметь

разные

характеристики

и

значение.

Характеристики

са-

мого

субъекта,

являющегося

носителем

воли,

также

существенно

влияют

на

нее

(личные

качества,

традиции,

религия,

мораль,

культура

и

т.

д.).

Несомненно,

что

воля,

в

правовом

контексте,

неразрывно

связано

с

понятием

дееспособности.

Интересным

представляется

вопрос

о

сочетании

воли

и

разума.

Разум

можно

рассматривать

как

основу

для

формирования

воли,

мотивации

к

дей-

ствию.

Это

видение

мира

и

реальности,

на

основе

которого

мы

принимаем

реше-

ния

и

имеем

волю

для

их

реализации.

И

одновременно

соотношение

этих

поня-

тий

можно

перевернуть:

воля

это

побудительность

действия,

а

разум

мотива-

ция

к

движению

по

выбранному

направлению.

При

любом

механизме

взаимо-

действия

воли

и

разума

мораль

остается

необходимым

элементом

для

выбора

способа

и

метода

решения

заданного

вопроса

или

сложившейся

ситуации.

При

такой

неоднозначности

и

неоднородности

воли,

разнообразии

субъек-

тов

носителей

воли,

несомненно,

можно

предположить

вариант

распространения

статуса

носителя

воли

на

искусственный

интеллект,

как

на

квазисубъекта

или

как

на

субъекта

правоотношений

в

будущем.

Если

же

искусственный

интеллект

останется

только

в

статусе

объекта

правоотношений,

то

конечно

говорить

о

мо-

рали,

воле,

разуме

самого

искусственного

интеллекта

в

большей

степени

бес-

смысленно.

Он

останется

исключительно

носителем

воли

и

морали

своего

созда-

теля

или

пользователя,

тем

самым

его

в

любом

случае

можно

определить

лицом,

актором,

принимающим

решение

у

вагонетки.

Рассматривая

современную

ситуацию

с

позиции

возможности

включения

искусственного

интеллекта

в

категорию

носителей

морально

-

волевых

качеств,

обратим

внимание

на

следующее.

Развивая

эту

мысль,

можно

предположить,

что

искусственный

интеллект

в

этой

ситуации

является

формой

реализации

волеизъявления

конкретного

челове-

ка.

Однако

данная

позиция

не

представляется

бесспорной.

Дополнительно

отме-

тим,

что

авторы

задали

вопрос

нескольким

из

существующих

нейросетей

о

том

,

какой

из

путей

в

ситуации

с

вагонеткой

выбрал

бы

искусственный

интеллект?

Все

нейросети

отказались

от

ответа

на

данный

вопрос

со

ссылкой,

что

он

являет-

ся

морально

-

этическим.


background image

Цифровые

технологии

в

системе

частно

-

правовых

(цивилистических)

отношений

______________________________________________________________________________________________________________________

143

Вопрос

морально

-

волевых

и

морально

-

этических

установок

для

искус-

ственного

интеллекта

не

является

праздным.

Расширение

применения

искус-

ственного

интеллекта

в

непосредственном

взаимодействии

с

человеком

в

систе-

ме

беспилотного

транспорта,

в

медицине,

в

обороне,

ставит

эти

вопросы

перед

обществом.

Логика

закрепления

моральных

ценностей

разработчи-

ка/пользователя

искусственного

интеллекта

в

его

алгоритмах

должна

завершать-

ся

системой

юридической

ответственности

для

этих

субъектов.

Что

это,

если

не

проявление

воли

и

разума?

Решение

в

данной

ситуации

искусственный

интеллект

основывает

на

собственной

морали,

или

как

минимум

на

морали

того

человека,

который

собственное

видение

моральных

ценностей

заложил

в

программные

алгоритмы.

Полагаем,

что

все

это

в

совокупности

дает

возможность

говорить

о

суще-

ствовании

потенциальной

возможности

появления

у

искусственного

интеллекта

собственных

морально

-

волевых

качеств,

а

также

самостоятельно

сформирован-

ных

и

обоснованных

побудительных

мотивов

к

действию.

Удивительным

в

та-

кой

ситуации

представляется

факт

того,

что

для

искусственного

интеллекта

уже

сейчас

появились

специализированные

тесты,

которые

не

только

отличают

ис-

кусственный

интеллект

от

компьютера

(тест

Тьюринга),

но

и

иные

тесты

(например,

эмоциональный),

которые

ориентированы

на

определение

мысли-

тельных,

когнитивных,

эмоциональных

способностей

машины

[2].

Реальность,

несомненно,

характеризуется

существованием

отношений,

в

которых

человек

может

взаимодействовать

с

искусственным

интеллектом,

и

даже

вступает

в

от-

ношения

непосредственно

с

ним.

Но

при

этом

пока

никто

не

ставит

задачу

ис-

кусственному

интеллекту

понимать

конкретного

человека,

его

мысли,

задачи

и

поступки.

Однако

именно

это

сделает

искусственный

интеллект

сравнимым

и

сопоставимым

с

естественным,

и

действительно

даст

основания

говорить

о

соб-

ственных

морально

-

волевых

качествах.

Хотя

это

не

значит,

что

искусственный

интеллект

не

способен

нас

удивить

уже

сейчас.

Заключение.

Возвращаясь

к

вопросу

морально

-

волевой

дилеммы

и

экспе-

римента

вагонетки,

предположим,

что

искусственный

интеллект

может

стать

но-

сителем

воли

и

будет

способен

с

собственного

восприятия

и

позиции

общества

выстраивать

собственную

мораль

и

следовать

общественным

нормам.

В

такой

ситуации

он

будет

способен

принять

самостоятельное

решение

о

переключении

стрелок

и

выборе

числа

жертв

либо

принять

решение

и

отказаться

от

такого

вы-

бора.

Список

литературы

1.

Иваницкая

А.

Вагонеткология:

как

люди

решают,

кто

достоин

остаться

в

живых?

[Электронный

ресурс].

URL:

https://theoryandpractice.ru/posts/20188-

vagonetkologiya-kak-lyudi-reshayut-kto-dostoin-ostatsya-v-zhivykh

(дата

обраще-

ния:

26.08.2024).

2.

Исков

А.

Если

тест

Тьюринга

не

подходит,

то

что?

Свобода

воли

искус-

ственного

интеллекта.

[Электронный

ресурс

].

URL:

https://author.today/post/

210715

(дата

обращения:

29.08.2024).


background image

Цифровые

технологии

в

системе

частно

-

правовых

(цивилистических)

отношений

______________________________________________________________________________________________________________________

144

3.

Лаптев

В.

А.

Понятие

искусственного

интеллекта

и

юридическая

ответ-

ственность

за

его

работу

//

Право.

Журнал

Высшей

школы

экономики.

– 2019. –

2. –

С.

79–102.

4.

О

проведении

эксперимента

по

установлению

специального

регулиро-

вания

в

целях

создания

необходимых

условий

для

разработки

и

внедрения

тех-

нологий

искусственного

интеллекта

в

субъекте

Российской

Федерации

городе

федерального

значения

Москве

и

внесении

изменений

в

статьи

6

и

10

Федераль-

ного

закона

«О

персональных

данных»:

Федеральный

закон

от

24.04.2020

123-

ФЗ

//

Собрание

законодательства

РФ.

– 2020. –

17. –

Ст.

2701.

5.

Осин

В.

Н.

Мораль,

нравственность

в

современном

философско

-

правовом

аспекте

//

Философия

права.

2022.

3 (102).

С.

38–44.

6.

Шахназаров

Б.

А.

Правовое

регулирование

отношений

с

использовани-

ем

искусственного

интеллекта

//

Актуальные

проблемы

российского

права.

2022. –

9 (142). –

С.

63–72.

Н.

И.

Федоров

аспирант,

Московский

государственный

юридический

университет

имени

О.

Е.

Кутафина

(МГЮА)

ПРАВОВОЕ

РЕГУЛИРОВАНИЕ

ПРОЕКТНОГО

ФИНАНСИРОВАНИЯ

В

СТРОИТЕЛЬНОЙ

ОТРАСЛИ

В

УСЛОВИЯХ

ЦИФРОВЫХ

ТЕХНОЛОГИЙ

Аннотация.

В

статье

рассматривается

правовое

регулирование

проектного

финансирования

в

строительной

отрасли

в

условиях

цифровых

технологий.

Ос-

новной

целью

исследования

является

выявление

ключевых

особенностей

и

тен-

денций,

влияющих

на

юридические

аспекты

проектного

финансирования

при

внедрении

цифровых

решений.

Особое

внимание

уделяется

изменениям

в

зако-

нодательстве,

новым

требованиям

к

прозрачности

и

безопасности

финансовых

операций,

а

также

внедрению

цифровых

инструментов

для

оптимизации

проект-

ного

финансирования.

В

статье

анализируются

актуальные

нормативно

-

правовые

акты,

судебная

практика

и

примеры

успешного

применения

цифровых

техноло-

гий

в

проектном

финансировании.

Результаты

исследования

направлены

на

фор-

мирование

рекомендаций

для

улучшения

правового

регулирования

и

повышения

эффективности

финансирования

строительных

проектов.

Ключевые

слова:

право,

цифровые

технологии,

проектное

финансирова-

ние,

ГЧП

Библиографические ссылки

Иваницкая А. Вагонеткология: как люди решают, кто достоин остаться в живых? [Электронный ресурс]. - URL: https://theorvandpractice.ru/posts/20188-vagonetkologiya-kak-lvudi-reshavut-kto-dostoin-ostatsva-v-zhivykh (дата обращения: 26.08.2024).

Исков А. Если тест Тьюринга не подходит, то что? Свобода воли искусственного интеллекта. [Электронный ресурс]. - URL: https://author.today/post/ 210715 (дата обращения: 29.08.2024).

Лаптев В. А. Понятие искусственного интеллекта и юридическая ответственность за его работу // Право. Журнал Высшей школы экономики. - 2019. -№2. - С. 79-102.

О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»: Федеральный закон от 24.04.2020 № 123-ФЗ//Собрание законодательства РФ. - 2020. - № 17. - Ст. 2701.

Осин В. Н. Мораль, нравственность в современном философско-правовом аспекте // Философия права. 2022. № 3 (102). С. 38-44.

Шахназаров Б. А. Правовое регулирование отношений с использованием искусственного интеллекта // Актуальные проблемы российского права. -2022. - № 9 (142). - С. 63-72.