Правовое регулирование цифровых технологий в здравоохранении
5.
Искусственный интеллект в медицине. Как умные технологии меняют
подход к лечению / Э. Тополь; пер. с англ. А. Анваер. М.: Альпина Паблишер, 2022.
398 с.
6.
Патологически беспомощный интеллект // Коммерсантъ. 2023. № 216,
21 ноября.
7.
Приложение «ПроРодинки 2.0». URL:
https://prorodinki.ru
(дата обраще-
ния: 22.08.2024).
8.
Рекомендации об этических аспектах искусственного интеллекта ЮНЕ-
СКО 2021 г. URL:
https://unesdoc.unesco.org/ark:/48223/pf0000380455_rus
(дата об-
ращения: 22.08.2024).
9.
Об основах охраны здоровья граждан в Российской Федерации: Феде-
ральный закон от 21.11.2011 № 323-ФЗ (ред. от 13.06.2023) // Собрание законода-
тельства РФ. 2011. № 48. Cт. 6724.
10.
Тютчева Е. С. Правосубъектность «электронного лица»: теоретический
анализ // Теоретическая и прикладная юриспруденция». 2022. № 2(12). С. 50–58.
11.
Ужов Ф. В. Искусственный интеллект как субъект права // Пробелы
в российском законодательстве. 2017. № 3. С. 357–360.
12.
Харитонова Ю.С., Савина В.С., Паньини Ф. Предвзятость алгоритмов
искусственного интеллекта: вопросы этики и права // Вестник Пермского универ-
ситета. Юридические науки. 2021. № 3. С. 488–515.
13.
Шутова А. А. Этический кодекс субъектов, осуществляющих деятель-
ность по созданию, применению и утилизации медицинских изделий на основе
технологий искусственного интеллекта / А. А. Шутова, И. Р. Бегишев // Цифровые
технологии и право: cборник научных трудов II Международной научно-практи-
ческой конференции: в 6 томах, Казань, 22 сентября 2023 года. Казань: Изд-во
«Познание», 2023. С. 441–447. EDN: EFUNKM
14.
Юхнова Ю. И. Искусственный интеллект и роботы в медицине: проблема
ответственности за причинение вреда пациентам // Юрист. 2023. № 1. С. 21–26.
15.
Ястребов О. А. Правосубъектность электронного лица: теоретико-мето-
дологические подходы // Труды Института государства и права РАН. 2018. Т. 13,
№ 2. С. 36–55.
О. С. Ерахтина,
кандидат юридических наук, доцент,
Национальный исследовательский университет
«Высшая школа экономики»
К ВОПРОСУ О РАСПРЕДЕЛЕНИИ ОТВЕТСТВЕННОСТИ ЗА ВРЕД
ЗДОРОВЬЮ ПАЦИЕНТА, НАСТУПИВШИЙ В РЕЗУЛЬТАТЕ
ПРИМЕНЕНИЯ СИСТЕМ ПОДДЕРЖКИ ПРИНЯТИЯ
ВРАЧЕБНЫХ РЕШЕНИЙ
Аннотация.
В статье исследуется проблема распределения гражданско-
правовой ответственности за вред здоровью пациента, наступивший в результате
применения систем диагностики и поддержки принятия врачебных решений при
оказании медицинской помощи. Автор приходит к выводу о том, что применение
Правовое регулирование цифровых технологий в здравоохранении
при оказании медицинской помощи технологий искусственного интеллекта,
в частности СППВР, приводит к необходимости расширения круга субъектов
гражданско-правовой ответственности, включив в него разработчика технологии,
оператора, а в случае применения обучаемых систем – учителя. Вопрос распреде-
ления ответственности между субъектами правоотношений рассматриваемых
правоотношений становится еще более сложным в случае применения высокотех-
нологичных систем, действующих на основе глубокого машинного обучения.
В определенной степени решению этого вопроса будет способствовать дифферен-
циация субъектов рассматриваемых отношений и распределение между ними обя-
занностей по минимизации риска причинения вреда пациенту.
Ключевые слова
:
вред здоровью, система поддержки принятия врачебных
решений, врач-оператор, субъекты гражданско-правовой ответственности
LIABILITY FOR DAMAGE TO THE PATIENT'S HEALTH RESULTING
FROM THE USE OF MEDICAL DECISION SUPPORT SYSTEMS
Abstract.
The article examines the problem of distribution of civil liability
for harm to a patient's health resulting from the use of diagnostic systems and support for
medical decision-making in the provision of medical care. The authors come
to the conclusion that the use of AI technologies, in particular SPPV, in the provision
of medical care leads to the need to expand the range of subjects of civil liability to include
the company of the technology developer, operator, and in cases of using learning
systems – teachers.The issue of distribution of responsibility between the subjects of legal
relations of the legal relations under consideration becomes even more complex in
the case of the use of high-tech systems operating on the basis of deep machine learning.
To a certain extent, the solution to this issue will be facilitated by the differentiation of the
subjects of the relationship under consideration and the distribution of responsibilities
among them to minimize the risk of harm to the patient.
Keywords
: harm to health, medical decision support system, doctor-operator,
subjects of civil liability
Введение.
Как указано в Концепции
развития регулирования отношений
в сфере технологий искусственного интеллекта и робототехники [1]
, одним из клю-
чевых барьеров действующего регулирования, препятствующим широкому исполь-
зованию высоких технологий в медицине и требующим решения, является про-
блема распределения ответственности
за вред здоровью пациента, наступивший
в результате применения таких технологий при оказании медицинской помощи.
В последнее время активно разрабатываются и внедряются в медицинскую
деятельность системы диагностики и поддержки принятия врачебных решений,
которые позволяют использовать массивы аналитической информации, недоступ-
ные или ограниченно доступные медицинским работникам при обычном взаимо-
действии с пациентом [1].
Основная часть.
Под термином «система поддержки принятия решений»
(Decision Support System, DSS) понимается компьютерная система, которая путем
сбора и анализа информации может влиять на процессы принятия решений в раз-
личных областях человеческой деятельности [2, 7]. В здравоохранении такие ре-
Правовое регулирование цифровых технологий в здравоохранении
шения называются уточненным термином «системы поддержки принятия врачеб-
ных решений» (далее – СППВР). Чаще всего СППВР используются именно для
помощи при постановке диагноза, назначении и при необходимости корректи-
ровке назначенного лечения [3].
При применении СППВР при оказании медицинской помощи высок риск
того, что система может выдать ошибочный диагноз. При этом ошибка может
остаться незамеченной лечащим врачом, вследствие чего будет причинен вред
жизни и здоровью пациента.
Обычно в случае необходимости возмещения вреда пациенту, причинен-
ного вследствие врачебной ошибки,
гражданско-правовую ответственность несут
медицинские организации
. Существует ли необходимость расширения круга субъ-
ектов гражданско-правовой ответственности, если вред пациенту был причинен
вследствие ошибочной рекомендации СППВР? Следует ли в определенных слу-
чаях привлекать к ответственности за причиненный вред разработчика такой си-
стемы или специалиста по машинному обучению?
Всегда ли врач-оператор (врач,
использующий систему) может и должен контролировать корректность выходных
данных СППВР? Будет ли отличаться ответ на последний вопрос в зависимости
от того, кто применяет СППВР в своей деятельности – узкий специалист или врач
общей практики? Этими и многими другими вопросами задаются специалисты,
изучающие влияние технологии искусственного интеллекта в процессе оказания
медицинской помощи населению, если в результате будет причинен вред здоро-
вью или жизни [4].
Процесс, с помощью которого система генерирует выходные данные с ре-
комендациями по лечению, является достаточно сложным и представляет собой
так называемую проблему «черного ящика». Как верно отмечается в литературе,
врачи, выступающие в качестве операторов, оказываются в ловушке «зоны мо-
ральной неуверенности» [6], на них в полном объеме возлагается ответственность
за вред, причиненный здоровью и жизни пациента, хотя врачи в данном случае
имеют лишь ограниченное влияние на работу системы поддержки принятия вра-
чебных решений в силу отсутствия у них специальных знаний об особенностях
функционирования данной системы.
Вопрос определения субъекта ответственности за вред здоровью пациента,
наступивший в результате применения СППВР, заслуживает особого внимания
в связи с повышением уровня автономности таких систем и их способности
к дальнейшему обучению. Автономные системы принимают решения на основе
анализа больших объемов информации, которая обрабатывается при помощи ма-
шинного обучения.
Заслуживающим внимания является подход нидерландских ученых, кото-
рыми исследовался вопрос о субъектах ответственности за вред, причиненный
при применении высокотехнологичных систем для терапии аутизма. Особое вни-
мание в исследовании обращается на такого субъекта рассматриваемых отноше-
ний, как учитель – специалист по машинному обучению. При этом специалист по
машинному обучению может быть как сотрудником организации-разработчика,
так и сотрудником организации – пользователя системы, а также может быть со-
трудником сторонней организации. Задача такого специалиста состоит в том,
чтобы оценить качество разработки.
Правовое регулирование цифровых технологий в здравоохранении
Предлагаемый нидерландскими учеными подход основан на принципе:
«чем выше способность к обучению или уровень автономности системы, тем ниже
должна быть ответственность других сторон, и чем дольше длится “образование”
системы, тем выше должна быть ответственность его учителя» [5]. Для таких лиц
ученые из Нидерландов предлагают внедрить систему сертификации, в соответ-
ствии с которой им необходимо будет пройти специальную подготовку, чтобы по-
лучить дополнительные навыки для разработки сложных систем.
Вопрос распределения ответственности между субъектами рассматривае-
мых правоотношений становится еще более сложным в случае применения высо-
котехнологичных систем, действующих на основе глубокого (неконтролируемого)
машинного обучения.
Важно также учитывать тот факт, что машинное обучение представляет со-
бой сложную систему, включающую в себя подсистемы и элементы. Зачастую не-
возможно отследить вклад отдельных элементов в общий результат причинения
вреда пациенту, могут возникать системные ошибки, «наслаивающиеся» друг на
друга. Возникает вопрос первопричины: из-за сбоя А пострадала система Б (кото-
рая зависела от А), что привело к ложному выводу В. Не всегда можно отследить
данную линейность.
Заключение.
Как видим, вопрос распределения ответственности за вред
здоровью пациента, наступивший в результате применения систем поддержки
принятия врачебных решений, является сложным и требует учета многих факто-
ров. В определенной степени решению этого вопроса будет способствовать диф-
ференциация субъектов рассматриваемых отношений и распределение между
ними обязанностей по минимизации риска причинения вреда пациенту.
Список литературы
1.
Концепция
развития регулирования отношений в сфере технологий ис-
кусственного интеллекта и робототехники: Распоряжение Правительства РФ
19.08.2020. № 2129-р. // СПС «КонсультантПлюс» [Электронный ресурс]. URL:
http://www.consultant.ru/document/cons_doc_ LAW_196819
(дата обращения:
05.09.2024).
2.
Литвин A. A., Литвин B. A. Системы поддержки принятия решений в хи-
рургии // Новости хирургии. 2014. Т. 22, № 1. С. 96–100.
3.
Фролов С. В., Куликов А. Ю., Остапенко О. А., Стрыгина Е. В. Системы
поддержки врачебных решений в медицине // Научный журнал. 2018. № 9(32).
С. 9–17.
4.
Шутова А. А. Применение технологий искусственного интеллекта
в сфере здравоохранения: уголовно-правовые девиации // Правопорядок: история,
теория, практика. 2023. № 3(38). С. 92–100. EDN: RKMSGE. DOI: 10.47475/2311-
696X-2023-38-3-92-100
5.
Bratu Ioana and van der Linden Tina. Assigning Liability for Damages
to Artificial Intelligent Systems Used for Autism Therapy. A European Approach
(February 1, 2020).
6.
Elish M. C. Moral Crumple Zones: Cautionary Tales in Human-Robot
Interaction // Engaging Science, Technology and Society.
2019. Vol. 5. Pp. 40–60.
7.
Greenes R. A. Clinical decision support: the road ahead. Boston: Elsevier
Academic Press, 2007. 581 p.
