242
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
11. Беспрецедентное эстонское интернет-голосование признано успешным.
URL: https://lenta.ru/news/2005/10/15/ee/ (дата
обращения: 12.09.2022).
12. Etzioni A. The Spirit of Community: Rights, Responsibilities, and the
Communitarian Agenda. New York: Google Scholar. Frank, R.H., 1993. P. 154.
13. Keskinen A. Future democracy in the information society // Futures. Quilfield.
2000. Vol. 33, № 3/4. P. 340.
14. Masuda I. The Information Society as Post-Industrial Society. Washington,
USA: World Future Society, 1981. 171 p.
Т. М. Лопатина,
доктор юридических наук, заведующий кафедрой
уголовно-правовых дисциплин,
Смоленский государственный университет
ПАРАДИГМА ЦИФРОВОГО ОБЩЕСТВА: ЭТИЧЕСКИЕ РИСКИ
ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Аннотация.
В статье представлена авторская точка зрения на проблему эти-
ческих рисков применения искусственного интеллекта в условиях формирования
цифрового общества и приоритетности права человека на личную цифровую без-
опасность. Самая технически адаптированная роботосистема не может принимать
самостоятельные решения по аналогии с решениями человека. Роботы отличаются
от людей тем, что они эмоционально не мотивированы. Но если автономные роботы
с технологией искусственного интеллекта не испытывают эмоций, то есть ли смысл
приравнивать их к человеку? В связи с этим присутствует некий период перехода от
профессиональной этики разработчиков роботов – «робоэтика», к функциональной
морали, в рамках которой в будущем машины будут наделены способностью оце-
нивания своих действий, а значит, и способностью отвечать на моральные вызовы –
«этика роботов». Обсуждение проблемы этики в области систем искусственного
интеллекта ориентировано на их соответствие этическим нормам, существующим
в социуме. Представляется, что область робоэтики шире просто выработки правил
взаимоотношения людей с системами искусственного интеллекта, происходит сме-
щение акцентов с человека на технологии искусственного интеллекта.
Ключевые слова
:
право, цифровые технологии, этика искусственного ин-
теллекта, искусственный интеллект, цифровая безопасность, моральная ответ-
ственность компьютерных систем, кодекс этики искусственной нейронной сети
THE PARADIGM OF DIGITAL SOCIETY: ETHICAL RISKS
OF USING ARTIFICIAL INTELLIGENCE
Abstract.
The article presents the author’s point of view on the problem of ethical
risks of using artificial intelligence in the context of the formation of a digital society
and the priority of the human right to personal digital security. The most technically
adapted robot system cannot make independent decisions by analogy with human
243
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
decisions. Robots differ from humans in that they are not emotionally motivated. But if
autonomous robots with artificial intelligence technology do not experience emotions,
then does it make sense to equate them with a human? In this regard, there is a certain
period of transition from the professional ethics of robot developers – “roboetics”, to
functional morality, within which in the future machines will be endowed with the ability
to evaluate their actions, and therefore the ability to respond to moral challenges – “ethics
of robots”. The discussion of the problem of ethics in the field of artificial intelligence
systems is focused on their compliance with ethical norms existing in society. Imagine.
Keywords
: Law, Digital technologies, Ethics of artificial intelligence, Artificial
intelligence, Digital security, Moral responsibility of computer systems, Code of ethics
of artificial neural network
Введение.
До недавнего времени единственным субъектом деятельности при-
знавался либо человек, либо группа или объединение людей. В настоящее время
в научном сообществе обсуждается вопрос о появлении субъектов, которые не яв-
ляются физическим лицом. Они созданы человеком, но способны оказывать влия-
ние, в том числе негативное, на общественные отношения. Мы на пути к периоду,
когда искусственный интеллект будет принимать решения как человек. В настоя-
щее время имеет место интенсивный рост компьютерных систем, интеллект ко-
торых в миллиард быстрее человеческого. Грядет эпоха электронных личностей,
которая. Решит вопрос о правах такого интеллекта. Первоочередным правом ста-
новится право на информацию, а первоочередной проблемой – моральный выбор.
Если информационные системы смогут принимать решения в сфере финансовых
транзакций, управления самолетами и автомобилями, проводить медицинские ма-
нипуляции и обеспечивать пуски новейших вооружений, то возникает вопрос: кто
будет нести ответственность за вредоносные последствия их действий?
Основная часть.
Роботы современного периода в большей части по интел-
лектуальному потенциалу являются управляемыми (частично управляемыми)
и находящимися под контролем человека. Например, подача в адрес робота ко-
манды управления, считывается, идентифицируется с командами, заложенными
в программное обеспечение, и реализуется роботом. Человек непосредственно «не
управляет действиями робота, он только инициирует комплекс действий, пред-
усмотренных алгоритмом, имеющимся в цифровом коде компьютерной програм-
мы робота. Таким образом, факт участия со стороны человека в управляемости
и подконтрольности либо инициировании действий определяет пределы челове-
ческого участия в функционировании робота» [3. С. 310]. При этом исключается
возможность автономности действий робота.
Автономным может признаваться робот, обладающий возможностью форму-
лирования поведенческого алгоритма, т. е. самостоятельного принятия решений.
Представляется, что речь идет о роботах, способных автономно анализировать
закономерности окружающей действительности и конструировать новые алго-
ритмы самостоятельных действий без участия человека как бы имитируя когни-
тивные функции человека (искусственный интеллект). «Это не просто машины,
усиливающие возможности продуктивной деятельности человека. Это сложные
244
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
системно-компьютерные комплексы, открытые по отношению к внешней среде,
обладающие свойствами саморегуляции и наделенные функцией принятия реше-
ний по жизненно важным проблемам» [6. С. 13].
Выделение обозначенных групп роботов обусловливает наличие двух групп
обстоятельств, подлежащих уголовно-правовой оценке: а) ответственность субъ-
екта – производителя (разработчика, создателя) и б) ответственность собственника
(пользователя, владельца) робота за вред, причиненный в процессе его эксплуатации;
функционирование автономного робота, повлекшее причинение вреда правоохра-
няемым интересам личности, общества и государства. Ввиду этого требуется фор-
мирование правовых мер защиты публично-правового интереса в целях пресечения
и недопущения подобного вреда. Так, к примеру, в последнее десятилетие с возрос-
шей роботизацией увеличилось число подобных инцидентов: «…в 2017 году робот
на заводе Ajin USA, производящей детали для авто Hyundai и Kia, нанес травмы,
несовместимые с жизнью, работнице завода при его ремонте [4]; в 2019 г. в городе
Грязи Липецкой области робот-упаковщик прижал мужчину к оборудованию для
формовки железобетонных изделий, травма оказалась смертельной» [7].
В настоящее время присутствуют различные точки зрения на понимание робота:
роботы – это машины, выполняющие инструментальную функцию; роботы – это ре-
зультат деятельности искусственного интеллекта, наделенного этическими аспектами
ответственности; роботы – это моральные агенты; роботы – новый эволюционирую-
щий вид техники. Если рассуждать с позиции, что роботы – это машины, что следует
говорить о возможности принятия ими решения только в техническом отношении,
поскольку процесс находится под контролем человека. Роботы как машины – это не
социальные существа и поэтому не наделены субъективными «правами». В таком слу-
чае как они могут быть морально ответственными? Самая технически адаптированная
роботосистема не может принимать самостоятельные решения по аналогии с решени-
ями человека, за которые к ней может быть применена моральная ответственность.
Вопрос о возможности этической оценки робототехники был впервые поднят
в рамках первого международного симпозиума по робототехнике в январе 2004 г.
Тогда же была предпринята попытка сформулировать термин «робоэтика». В февра-
ле этого же года в Японии подписывается Всемирная декларация роботов, в которой
указывается, «что роботы следующего поколения будут партнерами людей и будут
помогать им как физически, так и психологически» [5. С. 2]. Но могут ли роботы
и технологией искусственного интеллекта быть до такой степени совершены, чтобы
реализовались знаменитые законы А. Азимова: «1. робот не может причинить вред
человеку или своим бездействием допустить, чтобы человеку был причинен вред; 2.
робот должен повиноваться всем приказам, которые дает человек, если эти приказы
не противоречат Первому Закону; 3. робот должен заботиться о своей безопасности
в той мере, в какой это не противоречит Первому или Второму Закону» [1].
Если рассматривать возможность наделения систем искусственного интеллек-
та субъектностью, то нужно, прежде всего, иметь ответ на вопрос, может ли робот
мыслить. Да, современные искусственные нейронные сети наделены способностью
создавать художественные произведения, они могут рисовать, писать музыку и сти-
хи. Но могут ли они при этом испытывать эмоции, мыслить и чувствовать?
245
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
Д. В. Бахтеевым сформулированы четыре поведенческие модели такой
реакции:
«1. Инструментальная модель: системы искусственного интеллекта или их
физические воплощения (роботы) представляют из себя не более чем инструмент
для решения частных прикладных или научных задач.
2. Толерантная модель предполагает создание «сильного» ИИ, по своим ког-
нитивным возможностям сравнимым со способностями человека.
3. Ксенофобная модель предполагает, по сути, ситуацию рабства: человече-
ство, формально признавая когнитивные способности систем искусственного ин-
теллекта, по разным причинам предпочитает придерживаться инструментальной
концепции и не признает личностных и, соответственно, субъектных (в том числе
и правосубъектных) качеств ИИ.
4. Эмпатическая модель, по сути, представляет максимально человечное от-
ношение человека к системе искусственного интеллекта. Общество, воспринимая
в целом положительно домашних и иных социально-бытовых интеллектуальных
роботов и программных помощников, благоприятно воспринимает идею распро-
странения технологии и не исключает возможности наделения систем искусствен-
ного интеллекта свойствами субъекта права (в ограниченном смысле)» [2. С. 9].
Следовательно, обозначается процесс обоснования правосубъектности робо-
тизированных систем с элементами искусственного интеллекта, исходя из двух
противоположных подходов: признания или ее непризнания. Инструментальная
модель в данном процессе является доминирующей, но система искусственного
интеллекта – это не просто инструмент, облегчающий или упраздняющий физи-
ческий труд человека, это система, заменяющая вообще труд человека, которая
приводит к ликвидации отдельных профессий и уменьшению рабочих мест, с при-
влечением физического лица. За последние годы все чаще роботы используются
в промышленности – это сборочные автомобильные заводы или больничные ку-
рьеры, но все более широкое применение имеют и роботы-помощники в домаш-
них делах – это роботизированные пылесосы или роботы, которые могут загру-
жать посудомоечную машину. В данных моделях доминирует профессиональная
мораль сообщества разработчиков компьютерных программ.
Роботы отличаются от людей тем, что они эмоционально не мотивированы.
Но если автономные роботы с технологией искусственного интеллекта не испы-
тывают эмоций, то нет смысла приравнивать их к человеку.
В противовес инструментальной модели сторонники толерантной модели
утверждают, что роботы могут претендовать на признание их субъективных прав,
а также определение объема моральной ответственности, когда достигнут такого
уровня когнитивных способностей, что можно будет говорить о наличии разума.
Возникают проблемы моральной ответственности искусственного интеллекта.
Вместе с тем если автономные роботы не испытывают эмоций и не обладают чув-
ствительностью, то нет смысла приравнивать их к человеку. Мы же не требуем
этого от собак, хотя они находятся ближе к человеку, чем машины.
В связи с чем присутствует некий период перехода от профессиональной эти-
ки инженеров и разработчиков роботов – «робоэтика», к функциональной морали,
246
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
в рамках которой в будущем машины будут наделены способностью оценивания
своих действий и принятых поведенческих решений, а значит и способностью от-
вечать на моральные вызовы – «этика роботов». Безусловно, современные авто-
номные роботы еще не достигли стадии технологической сингулярности и несо-
поставимы по интеллектуальному потенциалу с человеком, но появление первых
автономных систем с повышенными когнитивными способностями свидетель-
ствует о необходимости разработки вопроса об их субъектности и развертывании
соответствующей научной дискуссии. Это потому, что автономные роботы пока
не способны думать и чувствовать. Роботы будущего будут делить мир с людьми.
Представляется, что робоэтика должна затрагивать сам процесс разработки тех-
нико-культурных решений, которые были бы ориентированы, с одной стороны,
на развитие сферы умных роботов, с другой – на предотвращение их неэтичного
использования, в том числе использование против человека.
С 2004 г. идет процесс формирования этического пространства взаимодей-
ствия человека с автономные роботизированными системами.
2004 г. – принимается Всемирная декларация роботов, принципы которой
формулируются исходя из доктрины «роботы следующего поколения – партнеры
человека».
2006 г. – формулируются этические ценности человека, связанные с конфи-
денциальностью личных прав, основанных на информированном согласии и лич-
ной ответственности за биосферу.
2010 г. – понимание робоэтики формируется с ориентацией на существую-
щие моральные аспекты взаимодействия человек – робот и процесса интеграции
искусственного интеллекта в человеческое общество.
2016 г. – формулируются правила по управлению интеллектуальными маши-
нами (Общество по исследованию искусственного интеллекта и моделированию
поведения – Великобритания), ориентированные на применение роботов с учетом
неприкосновенности граждан и безопасности пользователей. Юридическая ответ-
ственность возлагается на человека.
2017 г. – разработка Модельной конвенции о робототехнике и искусственном
интеллекте и инициирование Исследовательским центром «Робоправо» (Россия)
дискуссии о выработке правовых и этических представлений о правилах примене-
ния роботов с технологией искусственного интеллекта.
2019 г. – принятие Осакской декларации, в которой проработана пробле-
ма «человеко-ориентированного искусственного интеллекта» с минимизацией
негативных последствий его использования и защиты прав и свобод человека.
Юридическая ответственность возлагается на разработчиков и лиц, внедряющих
искусственный интеллект.
В России этические аспекты разработки и применения роботизированных
систем с технологией искусственного интеллекта обозначены в «Национальной
стратегии развития искусственного интеллекта на период до 2030 года».
2020 г. – предложена Модель этической ответственности за управление ро-
ботами, разработанная на основе «Интегрированной структуры управления ИИ»
Виртца. Обозначена управленческая и социальная дилемма технического уров-
247
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
ня развития общества и человеческого контроля ИИ, ответственности роботов за
причиненный вред и этики роботов.
2021 г. – Генеральной конференцией ЮНЕСКО (UNESCO General Conference)
принята рекомендация об этических аспектах искусственного интеллекта.
В России разработан и подписан первыми организациями-добровольцами
кодекс этики ИИ, цель которого – обеспечение прав граждан, которые могут нару-
шаться ИИ-системами при их экспликации компаниями или государством. Кодекс
возлагает юридическую ответственность за последствия применения таких си-
стем на человека, обозначая, что их использование должно быть ориентировано на
благо человека и человеческих сообществ. Кодекс предполагает добровольность
присоединения к нему компаний и организаций.
Ученые предполагают, что точка технологической сингулярности может быть
достигнута к 2030 г. Именно на это период прогнозируется возможность создания
робота, идентичного человеческому интеллекту, с чувственным сознанием и субъ-
ективными переживаниями. В связи с чем, как нам представляется, основная за-
дача современно этапа формирования робоэтики заключается в обозначении роли
и места человека в роботизированном общественном пространстве.
Заключение.
Область робоэтики шире просто выработки правил взаимоот-
ношения людей с системами искусственного интеллекта. Широкое применение
робототехники способствует техническому и технологическому преобразованию
общества и различных сфер жизнедеятельности, но в тоже время происходит смеще-
ние акцентов с человека на технологии искусственного интеллекта. Возможность
моделирования выполняемых функций, а также точность выполнения отдельных
операций – обуславливают промышленный интерес к робототехнике, оценивае-
мый с позиции социального запроса как позитивно, так и негативно оцениваемый
с точки права и юридической ответственности.
Научное сообщество обсуждает проблемы сетевого этикета и вежливости,
но развитие новых технологий требует юридического сопровождения, к примеру,
электронного маркетинга, а вместе с ним и этического кода маркетологов. Нам
представляется, что формирование соответствующих этических основ защиты ин-
тересов граждан, хозяйствующих субъектов, действующих в новых информацион-
ных условиях, должно стать базовой основой для последующего формирования
уголовно-правовых средств защиты информационных прав человека и граждани-
на. Робоэтика должна формироваться в рамках обозначения ответов на фундамен-
тальный вопрос: можем ли мы приравнять робота к электронной личности с соот-
ветствующими субъективными правами?
Список литературы
1. Азимов А. Хоровод. URL
:
https://libcat.ru/knigi/fantastika-i-fjentezi/177580-
ajzek-azimov-horovod.html (дата обращения: 20.06.2022).
2. Бахтеев Д. В. Риски и этико-правовые модели использования систем ис-
кусственного интеллекта // Юридические исследования. 2019. № 11. С. 1–11.
3. Бегишев И. Р. Наказание автономных роботов: уголовно-правовые пер-
спективы // Проблемы экономики и юридической науки. 2021. № 3. С. 303–313.
248
Цифровые технологии в системе публично-правовых (государственно-правовых) отношений
4. Bride-to-Be Crushed to Death by Car-Factory Robot. URL
:
https://www.the-
dailybeast.com/bride-to-be-crushed-to-death-by-car-factory-robot (дата обращения:
10.02.2022).
5. Verruggio G. The Birth of Roboethics // ICRA 2005, IEEE International
Conference on Robotics and Automation Workshop on Robo-Ethics. Barcelona, 2005.
April 18. URL
:
http://www.roboethics.org/icra2005/veruggio (дата обращения:
17.05.2022).
6. Лопатина Т. М. Некоторые аспекты проблемы моральной ответственности
компьютерных систем // Правовые вопросы связи. 2005. №
1. С. 12–13.
7. Робот убил человека на заводе под Липецком. URL
:
https://rg.ru/2019/11/02/
reg-cfo/robot-ubil-cheloveka-na-zavode-pod-lipeckom.html
(дата
обращения:
12.04.2022).
О. В. Машевская,
кандидат экономических наук, доцент,
Белорусский государственный университет
ЦИФРОВАЯ ТРАНСФОРМАЦИЯ:
ИММАНЕНТНОЕ ИЛИ ТРАНСЦЕНДЕНТОЕ?
Аннотация.
Сегодня практически все страны мира переживают процесс
цифровой трансформации, и каждый ученый по-своему определяет данный про-
цесс. Целью исследования стало осмысление процесса цифровой трансформации
исходя из того, что трансформация является одним из этапов становления циф-
ровой экономики, поэтому от качества и скорости данного процесса напрямую
будет зависеть уровень становления цифровой экономики (имманентное) или
напротив, процесс цифровой трансформации – это явление пришедшее из вне
и недоступное опытному познанию, поскольку ни одна экономика мира не стал-
кивалась с подобным прежде (трансцендентное). Ответ на поставленный вопрос
в исследовании.
Ключевые слова
: цифровая трансформация, цифровая экономика, имма-
нентное, трансцендентое, элементы трансформации, условия трансформации, ме-
ханизмы трансформации, результаты цифровой трансформации
THE DIGITAL TRANSFORMATION:
IMMANENT OR TRANSCENDENT?
Abstract.
The article states that in many countries today there is a process of
digital transformation, and each scientist defines this process in his own way. The goal
of our study was to comprehend the process of digital transformation – this is one of
the stages in the formation of the digital economy, therefore, the level of formation of
the digital economy (immanent) will directly depend on the quality and speed of this
process, or vice versa, the process of digital transformation is a phenomenon that came
from outside and is inaccessible experiential knowledge, since no economy in the world
