Авторские права: © 2024 принадлежат авторам. Лицензиат: РНИМУ им. Н.И. Пирогова.
Статья размещена в открытом доступе и распространяется на условиях лицензии Creative Commons Attribution (CC BY).

ОРИГИНАЛЬНОЕ ИССЛЕДОВАНИЕ

Подходы к оценке рисков медицинских систем искусственного интеллекта

Е. А. Вольская1, И. В. Рогова2
Информация об авторах

1 Национальный НИИ общественного здоровья имени Н. А. Семашко, Москва, Россия

2 Российский университет медицины, Москва, Россия

Для корреспонденции: Елена Алексеевна Вольская
ул. Черняховского, д. 4/а, кв. 52, г. Москва, 125319, Россия; ur.xednay@anele-slov

Информация о статье

Вклад авторов: авторы внесли равный вклад в проведение исследования и написание статьи.

Статья получена: 04.11.2024 Статья принята к печати: 15.12.2024 Опубликовано online: 31.12.2024
|

Системы искусственного интеллекта (ИИ) быстро вошли во все сферы жизни общества, в том числе в здравоохранение и медицину. В соответствии с действующими нормативными требованиями медицинские системы ИИ подлежат государственной регистрации в качестве медицинских изделий (программное обеспечение с технологией искусственного интеллекта —  ПО с ИИ) [3], которую осуществляет Росздравнадзор. На начало октября 2024 г. зарегистрировано 37 медицинских изделий, использующих технологии ИИ [4].

Следует отметить, что проведение полноценных клинических исследований ПО с ИИ и тем более медицинских систем ИИ сопряжено с многими сложностями, поэтому и в нашей стране, и за рубежом они проводятся не часто. Так, в анализе, проведенном по базе данных FDA США, к 2023 г. лишь 20% разрешенных к применению медицинских систем ИИ прошли предрегистрационные клинические исследования, причем рандомизированных исследований среди них не зафиксировано [5]. И это несмотря на то, что FDA предъявляет четкие требования к регистрационному досье в части информации о проведенных исследованиях:

  • демонстрация желаемой медицинской пользы при установленных значениях определенных показателей качества;
  • сравнение оцениваемого продукта с классическими клиническими диагностическими или лечебными процедурами (эталонный стандарт);
  • демонстрация технических/аналитических возможностей;
  • современное проспективное рандомизированное многоцентровое исследование;
  • демонстрация клинической эффективности и пр. [6].

В нашей стране наряду с крупными разработками серьезных производителей медицинских систем ИИ, которые подаются в Росздравнадзор на регистрацию для внедрения в медицинскую практику, в вузах и научно-исследовательских институтах проходят инициативные исследования в области использования систем искусственного интеллекта в целях оказания медицинской помощи пациентам. Такие проекты, особенно если они проводятся в рамках диссертационных исследований, как правило, подлежат экспертизе в локальных этических комитетах (ЛЭК).

В настоящее время ЛЭКи получили первый опыт этической оценки инициативных исследований медицинских систем ИИ. Чаще всего речь идет о навигационных системах с использованием дополненной реальности для хирургии, программном обеспечении для автоматического анализа снимков в диагностических целях, системах поддержки врачебных решений и т.п. Не все системы оригинальные, среди них есть проекты адаптации для применения медицинского изделия в новой области. Разработчики рассматривают проведение этих исследований, в том числе в рамках диссертационных работ, в качестве пилотных проектов, в случае позитивных результатов планируя продолжение разработки.

Перед ЛЭК встает задача оценить риски применения системы ИИ в рамках клинического исследования. Разумеется, ЛЭКи руководствуются, в первую очередь, актуальными нормативными актами —  Хельсинской декларацией ВМА, Правилами надлежащей клинической практики ЕАЭС, действующим ГОСТ по клиническим исследованиям медицинских изделий [7] и т.д. Должна учитываться также классификация рисков медицинских изделий, включающая три класса рисков (с двумя подклассами в классе 2). Несмотря на то, что степень безопасности пациентов, как и субъектов исследований на этапе разработки медицинских изделий, —  это основной принцип ранжирования рисков, все же специфика ПО с ИИ, включая медицинские системы ИИ, требует учитывать не только дополнительные параметры [8], но и всю имеющуюся нормативно-правовую базу обращения ПО с ИИ, тем более что ее подробный и систематизированный анализ представлен в научных публикациях [9].

Еще в 2014 г. Международный форум регуляторов медицинских изделий опубликовал финальный документ по категориям риска программного обеспечения как медицинских изделий (software as a medical product — S aMD) [10]. Это были первые рекомендации по классификации рисков, специфические для ПО с ИИ и предназначенные для применения в медицинских технологиях, включая медицинские системы ИИ.

В документе предложена матрица (табл. 1), в ее основе —  клиническая ситуация, для которой предназначается медицинская система ИИ, второй параметр —  важность поддержки врачебного решения, оказываемой ПО и ИИ, для определенной клинической ситуации. По этим критериям предложено четыре степени риска —  от первой, низкой, степени до четвертой, очень высокой, критической, степени риска.

Рассматриваются три варианта клинической ситуации:

  • критическая, когда необходима экстренная (включая хирургическую) медицинская помощь пациенту при угрожающих жизни состояниях, включая неизлечимые состояния;
  • клинические ситуации, требующие серьезных терапевтических вмешательств, когда требуется быстрое решение и цейтнот может повлиять на способность врача, принимающего решение, правильно оценить предоставляемую ему системой ИИ информацию;
  • клиническая ситуация или состояние пациента, не требующие серьезных терапевтических вмешательств, когда есть время на уточнение полученной информации.

Другой параметр, определяющий категорию риска, —  это важность поставляемой системой ИИ информации для принятия врачебного (клинического) решения:

  • информация, поставленная SaMD, должна использоваться для немедленного приятия врачебного решения;
  • информация, важная для диагностики (выявления) заболевания или состояния, важная для клинических решений по ведению пациента, для проведения последующей диагностики и/или определения плана лечения;
  • информация, важная для определения вариантов планового лечения, диагностики, профилактики, для смягчения симптоматики заболевания.

В 2020 г. Минздрав России выпустил приказ № 686н [11], который внес весьма существенные содержательные изменения в приказ 2012 г. № 4н «Об утверждении номенклатурной классификации медицинских изделий». Особенно важным оказался раздел «III. Классификация программного обеспечения, являющегося медицинским изделием» приложения № 2 к приказу.

По сути, эта классификация основывается на концепции, весьма близкой к предложенной в 2014 г. Международным форумом регуляторов. Согласно Приказу, структура классов риска программного обеспечения, являющегося медицинским изделием (в том числе медицинской системы ИИ) полностью и дословно соответствует таковой для медицинских изделий, лишь вместо термина «медицинские изделия» поставлено словосочетание «программное обеспечение» (ПО): класс 1 —  ПО с низкой степенью риска, класс 2а —  ПО со средней степенью риска, класс 2б —  ПО с повышенной степенью риска, класс 3 —  ПО с высокой степенью риска. Отмечается, что отнесение ПО к классу риска осуществляется независимо от класса риска медицинского изделия, в сочетании с которым оно используется.

Для определения степени риска используются два критерия: вид информации, предоставляемой системой ИИ, и клинические условия применения системы ИИ.

Предусмотрено три вида информации, поставляемой системой ИИ:

  1. информация, не требующая уточнения для принятия обоснованного клинического/врачебного решения и свидетельствующая о необходимости осуществления незамедлительных действий;
  2. информация, требующая уточнения для принятия обоснованного клинического/врачебного решения;
  3. информация, не свидетельствующая о необходимости осуществления незамедлительных врачебных действий.

Клинические условия применения медицинской системы ИИ также подразделены на три категории:

  • категория А присваивается, если система ИИ предназначена для применения в экстренных случаях, при проведении хирургических вмешательств, а также при оказании помощи при заболеваниях с высоким риском для индивидуального и общественного здоровья;
  • категория Б — при оказании неотложной помощи или медицинской помощи без хирургического вмешательства, при умеренном риске общественному здоровью;
  • категория В — при плановой медицинской помощи, медицинской помощи с использованием неинвазивных методов, при низких рисках для общественного здоровья.

Если структурировать пункты довольно объемного раздела III приложения 2, то получится таблица, отражающая весьма логичную систему ранжирования рисков (табл. 2). В стройной структуре классификации рисков в зависимости от двух критериев —  важности информации, поставляемой ИИ, и сложности клинической ситуации — в ыпадает лишь одно исключение. Оно касается программного обеспечения с применением технологий искусственного интеллекта: любые системы ИИ отнесены к наивысшей степени риска — к  классу 3 (п. 15.1.1 раздела III приложения 2).

Отнесение всех без исключения медицинских систем ИИ к высшему классу рисков могло бы представляться чрезмерной жесткостью. Хотя когда дело касается систем ИИ, предназначенных для помощи врачу-оператору в ходе хирургического вмешательства, и когда от точности поставляемой информации зависит успех операции, здоровье и жизнь пациента, такая строгость вполне оправдана и уместна. Например, если система ИИ выполняет диагностический анализ изображений в момент принятия врачом решения о тактике лечения пациента с острым инсультом, когда быстрая и точная дифференциация между ишемическим и геморрагическим инсультами имеет решающее значение для выбора терапии. Однако в клиническую практику введены и продолжают внедряться многие системы ИИ, поставляющие вспомогательную информацию для принятия врачебных решений в гораздо более мягких условиях. По сути классификации их можно было бы отнести к классам рисков 2б или даже 2а.

Однако наряду с классификацией по степени риска, этические комитеты при экспертизе планируемых исследований ПО для медицинских технологий, включая системы ИИ, должны учитывать и другие риски, с которыми система может быть связана как в ходе исследования, так и в будущем. К таким рискам относятся:

  • нарушение конфиденциальности: в худшем случае, дискриминация в социальной среде с последствиями для психического состояния;
  • влияние на врачебный выбор, например, при обучении SaMD на архивных данных, среди которых могут быть предвзятые;
  • потеря личного контакта пациента с врачом;
  • введение в заблуждение некачественной информацией о системе ИИ, используемой в процессе оказания медицинской помощи;
  • развитие беспокойства, стресса, ипохондрии вследствие постоянного и частого использования SaMD;
  • ошибки в интерпретации ответа системы — неправильное самолечение;
  • технические сбои, взломы системы ИИ, кибератаки и пр.

Для предупреждения этих и других рисков, возможность которых в ходе применения медицинских систем ИИ исключить невозможно, необходимо не только минимизировать их негативные воздействия на этапах исследования, но и содействовать ответственному отношению разработчиков и контролю применения этих систем в реальной клинической практике, повышению к ним лояльности со стороны пациентов. Недоверие пациентов к инновационным медицинским системам может снизить эффективность их применения [12]. Поэтому, возможно, этическим комитетам при экспертизе планируемых исследований следует расширить ракурс прогностической оценки, включив в рассмотрение вероятное гуманитарное воздействие применения разрабатываемой системы ИИ на пациентов в клинической практике.

На сегодняшний день можно выделить основные этические постулаты, которыми должны руководствоваться как разработчики медицинских систем ИИ при проектировании разработок, так и этические комитеты при их экспертной оценке:

  • окончательные полномочия по принятию решений всегда должны оставаться за врачом, поскольку на него ложится ответственность за оказанную медицинскую помощь;
  • контроль и хранение конфиденциальных медицинских данных должны быть гарантированы, следует способствовать периодическому проведению независимого аудита защиты данных субъектов;
  • пациенты/потребители должны быть полноценно информированы о системах ИИ, используемых в применяемых технологиях. Этические комитеты должны проконтролировать не только информационные материалы, предназначенные для субъектов исследования, но и информацию, касающуюся применения системы ИИ автономно или в составе других медицинских технологий и предназначенную пациентам в клинической практике.

ЗАКЛЮЧЕНИЕ

Система регулирования сферы медицинских технологий ИИ формируется и развивается как в нашей стране, так и на международном уровне (ВОЗ, ЮНЭСКО, IMDRF и другие организации). Разрабатываются и вводятся в сферу обращения технологий ИИ основные положения, понятийный аппарат, классификационные признаки и пр., что закладывает фундамент единых подходов к развитию сегмента медицинских систем ИИ. Так, в начале октября 2024 г. Росстандарт утвердил два важных для сферы медицинских технологий ИИ документа —  основные положения по системам поддержки врачебных решений [13] и основные положения по системам прогнозной аналитики на основе искусственного интеллекта [14]. Также утвержден Национальный стандарт РФ «Системы искусственного интеллекта в клинической медицине. Ч. 1. Клиническая оценка» [15].

Процесс стандартизации сферы медицинских систем ИИ осуществляется весьма своевременно, поскольку число внедряемых в медицинскую практику систем ИИ постоянно увеличивается. Это обусловливает повышенный интерес со стороны общества как к вопросам использования ПО с ИИ в повседневной клинической практике, так и к этическим аспектам разработки и применения медицинских технологий ИИ, что находит отражение в росте количества публикаций на эту тему.

Этические вопросы, связанные с феноменом внедрения в жизнь общества инновационных когнитивных технологий, способных имитировать мыслительные процессы, становятся предметом обсуждения на представительных международных форумах [16], находятся в центре внимания крупных общественных объединений, таких как Альянс в сфере искусственного интеллекта, разработавший Кодекс этики ИИ [17], составляют научный интерес серьезных научно-исследовательских коллективов [18].

Однако вопросы методологии этической оценки клинических исследований медицинских технологий и систем с использованием ИИ, а также этических аспектов, связанных с внедрением этих технологий в клиническую практику, их восприятием пациентским сообществом и вариантами социоментальных реакций, остаются дискуссионными. Очевидно, разработать критерии этической оценки и реперные точки для этических комитетов специалистам в сфере этики научных исследований еще предстоит общими усилиями, в дискуссиях и обмене мнениями.

КОММЕНТАРИИ (0)