МНЕНИЕ

Механизмы внедрения технологий искусственного интеллекта в здравоохранение: новые этические вызовы

Информация об авторах

1 Ярославский государственный медицинский университет, Ярославль, Россия

2 Российский национальный исследовательский медицинский университет имени Н. И. Пирогова, Москва, Россия

3 Центральный научно-исследовательский институт организации и информатизации здравоохранения, Москва, Россия

Для корреспонденции: Михаил Юрьевич Котловский
ул. Революционная, д. 5, г. Ярославль, 150000, Россия; ur.liam@yiksvoltok.u.m

Информация о статье

Вклад авторов: авторы внесли равный вклад в проведение научно-исследовательской работы и написание статьи.

Статья получена: 31.07.2024 Статья принята к печати: 18.08.2024 Опубликовано online: 18.09.2024
|

Термин «искусственный интеллект» (Artificial Intelligence) впервые был предложен Джоном Маккарти на Дартмутском семинаре в 1956 г. Данное мероприятие продолжалось в течение 6 недель, в ходе которого ведущие специалисты, интересующиеся вопросами моделирования человеческого разума (Джон Маккарти, Марвин Мински, Клод Шеннон, Натаниэль Рочестер, Артур Самюэль, Аллен Ньюэлл, Герберт Саймон, Тренчард Мур, Рэй Соломонофф и Оливер Селфридж), обсуждали принципиальную возможность создания думающей машины. В результате этой конференции были озвучены основные установочные положения новой области науки [1].

Среди знаковых событий в развитии систем искусственного интеллекта (ИИ) в целом и их применения в медицине можно отметить статью Алана Тьюринга «Вычислительные машины и разум» (1950 г.) [2], первую научную статью «Some Studies in Machine Learning Using the Game of Checkers» [3], посвященную ИИ, размещенную в базе данных Pubmed (1964 г.), одну из первых систем поддержки принятия решений (MYCIN) на основе ИИ (1976 г.) [4], а также разрешение на применение данных систем (IDx-DR) в клинической практике в США (2018 г.) [5] и многое другое. Не удалось, однако, избежать и ослабления интереса к данной тематике, вызванного недостаточным развитием технологий и завышенными ожиданиями [6].

Безусловно, знаковым событием можно считать решение европейского регулятора (CE Mark) о допуске в 2022 г. к применению в клинике сервиса «ChestLink», разработанного литовским стартапом «Oxipit». Данный программный продукт автономно анализирует рентгенологические изображения грудной клетки и, при отсутствии патологии, самостоятельно формирует заключение для пациента, не привлекая врача-рентгенолога [7]. В настоящее время Россия подошла вплотную к разработке аналогичных систем.

Таким образом, системы ИИ в медицине становятся все более и более автономными. Это может быть хорошим подспорьем в решении ряда проблем в современном здравоохранении, таких как кадровый дефицит, профессиональное выгорание и недостаточная, в отдельных случаях, квалификация персонала. Однако это также повышает и этические требования к надежности подобных систем ИИ. Важно отметить, что до сих пор ни одна из данных систем не может гарантировать безошибочной работы в 100% случаев.

Сомнительным кажется достижение данного показателя и в будущем.

Российские аналитики выделяют следующие проблемы внедрения и использования ИИ в условиях практического здравоохранения, делающие применение подобных систем неэтичным:

  • недостаточная доказанность эффективности и безопасности решений с точки зрения допуска их для применения медицинскими работниками;
  • повышенный риск причинения вреда здоровью пациентов в силу потенциальных ошибок обработки данных и формируемых заключений (рекомендаций);
  • сложность интерпретации решений при машинном обучении (проблема «черного ящика»);
  • повышенные риски самообучающихся алгоритмов, которые способны изменять свою работу вследствие появления новых клинических данных, в том числе получаемых во время их эксплуатации;
  • проблемы кибербезопасности, включая несанкционированное вмешательство в алгоритмы работы ИИ или доступ к персональным данным пациентов;
  • проблемы смещения данных, которые в свою очередь приводят к асимметрии между теми данными, на которых обучались ИИ-модели, и данными, которые они анализируют при применении в условиях реальной клинической практики [8].

Стоит отметить, что СССР в разработках в области ИИ не только не отставал от западных стран, но и по ряду тематик был впереди. В то же время известные политические события позволили нашим партнерам вырваться вперед в данной области [9]. В настоящее время Россия активно ведет разработки, с каждым годом наращивая усилия.

Так что же такое искусственный интеллект? В указе президента о развитии ИИ в РФ можно увидеть следующее определение: искусственный интеллект —  это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека [10].

В литературе обозначены основные характеристики, которые позволяют воспринимать системы ИИ как когнитивные. Это способность к:

  • пониманию (усвоению нового содержания, включению его в систему устоявшихся идей и представлений);
  • рассуждению (способность строить ряд мыслей и умозаключений по определенной теме, изложенных в логически последовательной форме);
  • самообучению (деятельности по изменению и адаптации поведения субъекта обучения с целями выживания, развития, совершенствования);
  • расширению возможностей (увеличению совокупности средств и методов, обеспечивающих максимально возможную производительность) [11].

Стоит сказать, что в полной мере данные качества присущи так называемому сильному ИИ. При этом в настоящее время ученые выделяют два вида ИИ: слабый и сильный. Слабый ИИ способен решать лишь простые прикладные задачи без участия человека, то есть те задачи, для которых он непосредственно был создан. Сильный же ИИ, как предполагается, будет обладать автономностью, способностью к обучению и рассуждению.

В Национальной стратегии Российской Федерации по развитию искусственного интеллекта говорится о направлении всех фундаментальных научных исследований на создание универсального (сильного) ИИ [10].

Появление сильного ИИ в настоящее время связывают с развитием генеративно-состязательных нейронных сетей (GAN) и построенных на их основе больших языковых моделей. В настоящее время существует уже несколько десятков подобных систем, включая ChatGPT (Generative Pre-trained Transformer) [12]. Данные системы ИИ в свою очередь предназначены для решения широкого круга вопросов практически под любые текстовые запросы пользователя, включая написание и программного кода. Компьютерные программы стали способны самостоятельно писать новые компьютерные программы. По метрикам качества, направленным на измерение ассоциативного мышления, данные модели к 2022 г. достигли базового уровня человека. Экспансивным образом из года в год повышается и финансирование разработок данных моделей [13].

С этической позиции стоит обратить внимание на то, что в 2023 г. более тысячи экспертов в области ИИ подписали открытое письмо с призывом ввести 6-месячный мораторий на создание новых версий сильного ИИ, к которым они относят данные модели, для разработки эффективной системы прогнозирования рисков и обеспечения контроля за разработкой и последствиями внедрения интеллектуальных технологий [14]. К взвешенному и ответственному развитию и применению больших языковых моделей призывала и ВОЗ [15].

Как уже было сказано, в 2019 г. в Российской Федерации была принята национальная стратегия развития искусственного интеллекта до 2030 г. В ней определена роль ИИ в здравоохранении, которая заключается в повышении качества услуг, включая:

  • профилактические обследования;
  • диагностику, основанную на анализе изображений;
  • прогнозирование возникновения и развития заболеваний;
  • подбор оптимальных дозировок лекарственных препаратов;
  • сокращение угроз пандемий, автоматизацию и точность хирургических вмешательств [10].

Стоит отметить, что помимо России более 60 стран приняли аналогичные документы в области развития ИИ [16]. Это обусловлено осознанием экономических, политических и оборонных преимуществ, которые предоставляет эксплуатация подобных систем на государственном уровне.

В вышеуказанной стратегии говорится, что для максимально эффективного стимулирования развития и использования технологий ИИ необходимой является адаптация нормативного регулирования в части, касающейся взаимодействия человека с ИИ, и выработка основополагающих этических норм [10].

Следует отметить, что в России в 2020 г. был создан Национальный комитет по этике искусственного интеллекта при Комиссии Российской Федерации по делам ЮНЕСКО. Это первый в мире подобный орган при Национальной комиссии по делам ЮНЕСКО. В состав данного комитета вошли ведущие специалисты в данной области [17].

На международной арене в рамках 41-й сессии ЮНЕСКО (2021 г.) 193 страны заключили глобальное соглашение по этике ИИ [18]. Россия при этом выступила как одна из наиболее активных стран-участниц процесса разработки рекомендаций и инициировала обсуждения целого ряда ключевых вопросов в данной сфере.

Стоит отметить, что на межгосударственном уровне, в области медицины, более десятка международных организаций занимаются разработкой рекомендаций и стандартов по применению систем ИИ. Однако их действия между собой подчас недостаточно согласованы [19].

Как пример несоблюдения этических принципов можно привести исследование, указанное в рапорте британских ученых о развитии ИИ за 2022 г. (State of AI). Системе ИИ учеными было поставлено задание вместо снижения токсичности лекарственного препарата подобрать химическую формулу вещества с максимальной токсичностью и биологической активностью. Система ИИ сгенерировала формулу боевого отравляющего вещества «VX» [20].

Таким образом, можно сказать, что практически все системы ИИ являются системами двойного назначения. Они могут быть настроены на то, чтобы приносить как пользу человеку, так и вред. Это зависит от профессионализма и доброй воли их создателя и эксплуатанта.

В 2021 г. и в самой России был принят Кодекс этики в сфере искусственного интеллекта. Он был разработан Альянсом в сфере ИИ, объединяющим ведущие технологические российские компании при участии Аналитического центра при Правительстве РФ и Минэкономразвития. На текущий момент к кодексу присоединились 303 ведущих российских организации и 41 орган федеральной власти.

Положения данного Кодекса распространяются на отношения, связанные с этическими аспектами жизненного цикла системы ИИ, включая создание (проектирование, конструирование, пилотирование), внедрение и использование технологий ИИ на всех этапах их жизненного цикла.

Условием применения положений данного Кодекса является то, что:

  • данные отношения в настоящее время не урегулированы законодательством Российской Федерации и/или актами технического регулирования;
  • системы ИИ применяются исключительно в гражданских (не военных) целях [21].

Данный Кодекс провозглашает следующие основополагающие этические принципы и правила поведения:

  1. главный приоритет развития технологий ИИ заключается в защите интересов и прав людей и отдельного человека;
  2. необходимо осознавать ответственность при создании и использовании ИИ;
  3. ответственность за последствия применения ИИ всегда несет человек;
  4. технологии ИИ нужно применять по назначению и внедрять там, где это принесет пользу людям;
  5. интересы развития технологий ИИ выше интересов конкуренции;
  6. максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках [21].

Положения данного кодекса пронизывают весь жизненный цикл системы ИИ. Как его типичный пример можно привести цикл подобных систем в Московском эксперименте, проводимом на базе «НПКЦ ДиТ ДЗМ» (рис. 1). Этот крупнейший в мире эксперимент продолжается с 2020 г. и позволил продемонстрировать свои возможности ведущим отечественным и зарубежным производителям медицинских систем ИИ [22].

Стоит обратить внимание на то, что цикл должен включать постоянное дообучение и переобучение продукта. Это вызвано тем, что модель начинает устаревать с момента своего создания. При этом постоянно должны проводиться мониторинги и контрольные действия.

Программы на основе ИИ могут быть в РФ в двух формах как информационные системы и как медицинские изделия. В последнем случае они проходят доклинические (лабораторные) и клинические исследования, подлежат регистрации со стороны Росздравнадзора и включаются в специальный реестр медицинских изделий.

Программное обеспечение является медицинским изделием, при наличии следующих признаков:

  • представляет собой программу для ЭВМ вне зависимости от используемой аппаратной платформы, а также способов размещения и предоставления доступа к нему;
  • не является составной частью другого медицинского изделия;
  • предназначено изготовителем для оказания медицинской помощи;
  • преобразует исходную информацию.

Клинические испытания (исследования) программного обеспечения с применением технологий ИИ проводятся на основании разрешения, выданного регистрирующим органом (Росздравнадзор), а также заключения об этической обоснованности проведения клинических испытаний, выданного Советом по этике Министерства здравоохранения Российской Федерации в сфере обращения медицинских изделий [23].

В Российской Федерации существует система этических комитетов, включающая национальный и локальный уровни. Одна из главных функций локальных комитетов по этике состоит в том, чтобы удостовериться, что пациенты в клинических исследованиях в полном объеме и в доступной форме проинформированы о рисках и пользе, которые им может принести участие в исследовании, ими дано информированное согласие на участие в исследовании или согласие на использование информации, полученной при оказании им медицинской помощи.

Таким образом, при проведении клинического испытания (исследования) систем ИИ должно быть получено разрешение этических комитетов обоих уровней. При этом должен быть налажен постоянный обмен информацией с организацией, на базе которой проводятся данные испытания. Этический комитет ставится в известность о возникновении серьезных нежелательных явлений. Клинические испытания должны проводиться в полном соответствии с этическими принципами, основанными на Хельсинкской декларации [20]. В то же время при клиническом испытании данных систем может быть использована и ранее полученная медицинская информация, если непосредственного участия пациентов не требуется (ретроспективный порядок исследования).

В настоящее время в России созданы методические рекомендации по проведению этической экспертизы программы клинических испытаний (исследований) системы ИИ для здравоохранения. На рис. 2 отображен рекомендуемый ими алгоритм данной экспертизы [8].

Стоит отметить, что помимо государственного контроля в настоящее время в России начали разрабатываться и внедряться системы добровольной сертификации систем ИИ. Данная сертификация ставит цель оценки соответствия алгоритмов ИИ предъявляемым к ним требованиям. Как пример можно привести разработанную НИУ ВШЭ систему ИНТЕЛЛОМЕТРИКА (№ РОСС RU.В2915.04ВШЭ0).

Целый ряд этических вопросов поднимает процесс сбора и использования медицинских данных. Стоит отметить, что для создания и мониторинга систем ИИ необходимы соответствующие данные. При этом они разнообразны и имеют сложную структуру. Одной из ключевых задач разработчика является обеспечение интеграции разнородной информации в структурированный датасет. При этом датасет отличается от простого набора медицинских данных тем, что он наделен особыми свойствами:

  1. унифицирован и структурирован;
  2. отсутствуют грубые неточности, ошибочные значения;
  3. обеспечен дополнительной информацией (категории и значения признаков или характеристик элементов данных) [24].

В России датасет приравнивается к базе данных и как результат интеллектуальной деятельности в добровольном порядке может пройти государственную регистрацию. При проведении клинических испытаний системы ИИ рекомендуется использовать только зарегистрированные датасеты [25].

В зарубежной практике датасеты зачастую публикуются не только как доступные для скачивания наборы данных, но и как научные публикации в журнале.

Таким образом создание качественных датасетов —  это такая же сложная и ответственная задача, как и непосредственное написание программного кода и обучение модели машинного обучения.

Кто владеет данными, тот и создает системы ИИ. Об этом говорит опыт зарубежных гигантских корпораций. Западные компании готовы платить миллиарды долларов за обладание данными (IBM Watson Health).

В Российской Федерации значительное количество открытых доступных для скачивания датасетов с медицинской информацией (преимущественно размеченными компьютерными изображениями) было создано ГБУЗ «НПКЦ ДиТ ДЗМ» [26]. Большие надежды в накоплении данных возлагаются на подсистемы, создаваемые в рамках ЕГИСЗ.

В настоящее время большое количество датасетов с медицинской информацией (подчас не известного качества) остается в открытом доступе на зарубежных платформах (Kaggle, Google Dataset Search, AWS Public Datasets и др.).

В Российской Федерации медицинские данные для обучения и тестирования систем ИИ, помимо согласия пациента, которому принадлежат эти данные, не должны содержать какую-либо персональную информацию (ГОСТ Р 59921.5-2022 Системы искусственного интеллекта в клинической медицине.

Любая подобная информация должна быть удалена как из метаданных, так и из исходных данных. При этом остается открытым вопрос, как соблюсти баланс и не нарушить права и законные интересы пациента, в то же время не зарегламентировать излишне данную отрасль, сковав ее развитие. Не секрет, что современные системы, в том числе и на основе ИИ, могут восстановить личность человека, опираясь на косвенные данные (например, восстановление лица пациента по костям черепа с последующим установлением личности через социальные сети) [27]. Поэтому открытым остается вопрос о том, какая именно информация должна быть удалена и как при этом оставить информацию, хоть сколько-нибудь полезную для машинного обучения.

Для устранения излишних административных барьеров перед разработчиками рядом нормативных актов в РФ позволяется устанавливать на ограниченное время, на ограниченной территории, для ограниченного круга субъектов экспериментальные правовые режимы [28].

Для соблюдения международных и межгосударственных этических предписаний при создании и эксплуатации систем ИИ в медицине должна быть обеспечена прозрачность их применения и возможность отмены человеком и/или предотвращения принятия социально и юридически значимых решений на любом этапе их жизненного цикла. К повышению прозрачности систем ИИ призывают ведущие международные организации (ЮНЕСКО, ЕС, ОЭСР). При этом прозрачность видится в:

  • доступности исходного кода;
  • понимании пользователем, почему машина приняла то или иное решение;
  • понимании пациентом положительных и отрицательных моментов взаимодействия с ИИ.

На международном уровне стандартизацией прозрачности систем ИИ занимается, в том числе, IEEE (Institute of Electrical and Electronics Engineers) некоммерческая инженерная ассоциация из США.

Стоит отметить, что в настоящее время системы ИИ в медицине не наделены правосубъектностью. Они являются лишь советником врача и не снимают с него юридической ответственности за действия, совершаемые при оказании медицинской помощи. Ответственность в настоящее время несет именно лечащий врач. В отдельных случаях юридическая ответственность может быть возложена на медицинскую организацию, на базе которой применяются данные системы, или их разработчика и производителя [29].

Реализации вышеизложенных этических принципов способствует обеспечение сопоставимости технических параметров, унификации требований к безопасности ИИ, а также свободного трансграничного обмена медицинскими технологиями и результатами их внедрения в медицину, биологию, фармакологию. Это находит свое подтверждение в Резолюции ВОЗ WHA71.7 от 26.05.2018 «Цифровое здравоохранение» [30]. В Российской Федерации для повышения эффективности работы по стандартизации в области разработки и эксплуатации систем ИИ на национальном и международном уровнях был создан технический комитет № 164 «Искусственный интеллект» (ТК 164). В деятельности ТК164 принимают участие более 120 профильных организаций. В составе данного Комитета отдельно был выделен подкомитет ПК 01 «Искусственный интеллект в здравоохранении». Данный подкомитет осуществляет свою работу на базе ГБУЗ «НПКЦ ДиТ ДЗМ» [30]. Помимо этого, к разработке основополагающих государственных отраслевых стандартов в данной области может иметь отношение работа ряда иных технических комитетов и подкомитетов. в том числе:

  • ТК-МТК-22 «Информационные технологии» / ПК 132 «Менеджмент данных и обмен данными»;
  • ТК-МТК-22 «Информационные технологии» / ПК 138 «Платформы и сервисы для распределенных приложений»;
  • ТК-МТК-22 «Информационные технологии» / ПК 127 «Безопасность информационных технологий»;
  • ТК 96 «Биометрия и биомониторинг»;
  • ТК 164 «Искусственный интеллект» / ПК 02 «Данные»;
  • ТК 194 «Кибер-физические системы»;
  • ТК 362 «Защита информации»;
  • ТК 459 «Информационная поддержка жизненного цикла изделий».

Стоит отметить, что результатом только ПК 01 стало вступление в силу более десятка Государственных отраслевых стандартов в том числе ГОСТа 59921 «Системы искусственного интеллекта в клинической медицине» в котором рассматривается порядок проведения технических и клинических испытаний медицинских систем на основе ИИ и ГОСТ 59276 «Системы искусственного интеллекта. Способы обеспечения доверия».

ЗАКЛЮЧЕНИЕ

Интенсивное развитие систем ИИ и их широкое внедрение в систему здравоохранения неизбежно ставят множество этических вопросов перед российским обществом. Важность этического регулирования в  этом сегменте развития ИИ обусловлена несколькими ключевыми аспектами. Во-первых, это позволит в  наибольшей степени обеспечить защиту прав пациентов, которая включает обеспечение их информированного согласия, конфиденциальности данных и безопасности. Во-вторых, необходимо учитывать справедливость и  равенство в  доступе к  медицинским технологиям на основе ИИ, предотвращая возможные возникновения дискриминации. Помимо этого, необходимо учитывать потенциальные риски и ограничения применения ИИ в медицине (такие как ошибки алгоритмов, отсутствие полной прозрачности в  принятии решений и  необходимость постоянного мониторинга и обновления систем).

Этические нормы должны также включать механизмы контроля ответственности и подотчетности разработчиков и пользователей ИИ. В связи с этим развитие и внедрение систем ИИ в здравоохранение должны не только определяться, но и строго контролироваться этическими принципами. Принятие соответствующих мер на государственном и международном уровнях сможет существенно повысить доверие общества к применению ИИ в медицинских учреждениях, способствовать общему прогрессу системы современного здравоохранения и улучшению качества оказания медицинской помощи.

КОММЕНТАРИИ (0)