Статья размещена в открытом доступе и распространяется на условиях лицензии Creative Commons Attribution (CC BY).
ОРИГИНАЛЬНОЕ ИССЛЕДОВАНИЕ
Подходы к оценке рисков медицинских систем искусственного интеллекта
1 Национальный НИИ общественного здоровья имени Н. А. Семашко, Москва, Россия
2 Российский университет медицины, Москва, Россия
Для корреспонденции: Елена Алексеевна Вольская
ул. Черняховского, д. 4/а, кв. 52, г. Москва, 125319, Россия; ur.xednay@anele-slov
Вклад авторов: авторы внесли равный вклад в проведение исследования и написание статьи.
Системы искусственного интеллекта (ИИ) быстро вошли во все сферы жизни общества, в том числе в здравоохранение и медицину. В соответствии с действующими нормативными требованиями медицинские системы ИИ подлежат государственной регистрации в качестве медицинских изделий (программное обеспечение с технологией искусственного интеллекта — ПО с ИИ) [3], которую осуществляет Росздравнадзор. На начало октября 2024 г. зарегистрировано 37 медицинских изделий, использующих технологии ИИ [4].
Следует отметить, что проведение полноценных клинических исследований ПО с ИИ и тем более медицинских систем ИИ сопряжено с многими сложностями, поэтому и в нашей стране, и за рубежом они проводятся не часто. Так, в анализе, проведенном по базе данных FDA США, к 2023 г. лишь 20% разрешенных к применению медицинских систем ИИ прошли предрегистрационные клинические исследования, причем рандомизированных исследований среди них не зафиксировано [5]. И это несмотря на то, что FDA предъявляет четкие требования к регистрационному досье в части информации о проведенных исследованиях:
- демонстрация желаемой медицинской пользы при установленных значениях определенных показателей качества;
- сравнение оцениваемого продукта с классическими клиническими диагностическими или лечебными процедурами (эталонный стандарт);
- демонстрация технических/аналитических возможностей;
- современное проспективное рандомизированное многоцентровое исследование;
- демонстрация клинической эффективности и пр. [6].
В нашей стране наряду с крупными разработками серьезных производителей медицинских систем ИИ, которые подаются в Росздравнадзор на регистрацию для внедрения в медицинскую практику, в вузах и научно-исследовательских институтах проходят инициативные исследования в области использования систем искусственного интеллекта в целях оказания медицинской помощи пациентам. Такие проекты, особенно если они проводятся в рамках диссертационных исследований, как правило, подлежат экспертизе в локальных этических комитетах (ЛЭК).
В настоящее время ЛЭКи получили первый опыт этической оценки инициативных исследований медицинских систем ИИ. Чаще всего речь идет о навигационных системах с использованием дополненной реальности для хирургии, программном обеспечении для автоматического анализа снимков в диагностических целях, системах поддержки врачебных решений и т.п. Не все системы оригинальные, среди них есть проекты адаптации для применения медицинского изделия в новой области. Разработчики рассматривают проведение этих исследований, в том числе в рамках диссертационных работ, в качестве пилотных проектов, в случае позитивных результатов планируя продолжение разработки.
Перед ЛЭК встает задача оценить риски применения системы ИИ в рамках клинического исследования. Разумеется, ЛЭКи руководствуются, в первую очередь, актуальными нормативными актами — Хельсинской декларацией ВМА, Правилами надлежащей клинической практики ЕАЭС, действующим ГОСТ по клиническим исследованиям медицинских изделий [7] и т.д. Должна учитываться также классификация рисков медицинских изделий, включающая три класса рисков (с двумя подклассами в классе 2). Несмотря на то, что степень безопасности пациентов, как и субъектов исследований на этапе разработки медицинских изделий, — это основной принцип ранжирования рисков, все же специфика ПО с ИИ, включая медицинские системы ИИ, требует учитывать не только дополнительные параметры [8], но и всю имеющуюся нормативно-правовую базу обращения ПО с ИИ, тем более что ее подробный и систематизированный анализ представлен в научных публикациях [9].
Еще в 2014 г. Международный форум регуляторов медицинских изделий опубликовал финальный документ по категориям риска программного обеспечения как медицинских изделий (software as a medical product — S aMD) [10]. Это были первые рекомендации по классификации рисков, специфические для ПО с ИИ и предназначенные для применения в медицинских технологиях, включая медицинские системы ИИ.
В документе предложена матрица (табл. 1), в ее основе — клиническая ситуация, для которой предназначается медицинская система ИИ, второй параметр — важность поддержки врачебного решения, оказываемой ПО и ИИ, для определенной клинической ситуации. По этим критериям предложено четыре степени риска — от первой, низкой, степени до четвертой, очень высокой, критической, степени риска.
Рассматриваются три варианта клинической ситуации:
- критическая, когда необходима экстренная (включая хирургическую) медицинская помощь пациенту при угрожающих жизни состояниях, включая неизлечимые состояния;
- клинические ситуации, требующие серьезных терапевтических вмешательств, когда требуется быстрое решение и цейтнот может повлиять на способность врача, принимающего решение, правильно оценить предоставляемую ему системой ИИ информацию;
- клиническая ситуация или состояние пациента, не требующие серьезных терапевтических вмешательств, когда есть время на уточнение полученной информации.
Другой параметр, определяющий категорию риска, — это важность поставляемой системой ИИ информации для принятия врачебного (клинического) решения:
- информация, поставленная SaMD, должна использоваться для немедленного приятия врачебного решения;
- информация, важная для диагностики (выявления) заболевания или состояния, важная для клинических решений по ведению пациента, для проведения последующей диагностики и/или определения плана лечения;
- информация, важная для определения вариантов планового лечения, диагностики, профилактики, для смягчения симптоматики заболевания.
В 2020 г. Минздрав России выпустил приказ № 686н [11], который внес весьма существенные содержательные изменения в приказ 2012 г. № 4н «Об утверждении номенклатурной классификации медицинских изделий». Особенно важным оказался раздел «III. Классификация программного обеспечения, являющегося медицинским изделием» приложения № 2 к приказу.
По сути, эта классификация основывается на концепции, весьма близкой к предложенной в 2014 г. Международным форумом регуляторов. Согласно Приказу, структура классов риска программного обеспечения, являющегося медицинским изделием (в том числе медицинской системы ИИ) полностью и дословно соответствует таковой для медицинских изделий, лишь вместо термина «медицинские изделия» поставлено словосочетание «программное обеспечение» (ПО): класс 1 — ПО с низкой степенью риска, класс 2а — ПО со средней степенью риска, класс 2б — ПО с повышенной степенью риска, класс 3 — ПО с высокой степенью риска. Отмечается, что отнесение ПО к классу риска осуществляется независимо от класса риска медицинского изделия, в сочетании с которым оно используется.
Для определения степени риска используются два критерия: вид информации, предоставляемой системой ИИ, и клинические условия применения системы ИИ.
Предусмотрено три вида информации, поставляемой системой ИИ:
- информация, не требующая уточнения для принятия обоснованного клинического/врачебного решения и свидетельствующая о необходимости осуществления незамедлительных действий;
- информация, требующая уточнения для принятия обоснованного клинического/врачебного решения;
- информация, не свидетельствующая о необходимости осуществления незамедлительных врачебных действий.
Клинические условия применения медицинской системы ИИ также подразделены на три категории:
- категория А присваивается, если система ИИ предназначена для применения в экстренных случаях, при проведении хирургических вмешательств, а также при оказании помощи при заболеваниях с высоким риском для индивидуального и общественного здоровья;
- категория Б — при оказании неотложной помощи или медицинской помощи без хирургического вмешательства, при умеренном риске общественному здоровью;
- категория В — при плановой медицинской помощи, медицинской помощи с использованием неинвазивных методов, при низких рисках для общественного здоровья.
Если структурировать пункты довольно объемного раздела III приложения 2, то получится таблица, отражающая весьма логичную систему ранжирования рисков (табл. 2). В стройной структуре классификации рисков в зависимости от двух критериев — важности информации, поставляемой ИИ, и сложности клинической ситуации — в ыпадает лишь одно исключение. Оно касается программного обеспечения с применением технологий искусственного интеллекта: любые системы ИИ отнесены к наивысшей степени риска — к классу 3 (п. 15.1.1 раздела III приложения 2).
Отнесение всех без исключения медицинских систем ИИ к высшему классу рисков могло бы представляться чрезмерной жесткостью. Хотя когда дело касается систем ИИ, предназначенных для помощи врачу-оператору в ходе хирургического вмешательства, и когда от точности поставляемой информации зависит успех операции, здоровье и жизнь пациента, такая строгость вполне оправдана и уместна. Например, если система ИИ выполняет диагностический анализ изображений в момент принятия врачом решения о тактике лечения пациента с острым инсультом, когда быстрая и точная дифференциация между ишемическим и геморрагическим инсультами имеет решающее значение для выбора терапии. Однако в клиническую практику введены и продолжают внедряться многие системы ИИ, поставляющие вспомогательную информацию для принятия врачебных решений в гораздо более мягких условиях. По сути классификации их можно было бы отнести к классам рисков 2б или даже 2а.
Однако наряду с классификацией по степени риска, этические комитеты при экспертизе планируемых исследований ПО для медицинских технологий, включая системы ИИ, должны учитывать и другие риски, с которыми система может быть связана как в ходе исследования, так и в будущем. К таким рискам относятся:
- нарушение конфиденциальности: в худшем случае, дискриминация в социальной среде с последствиями для психического состояния;
- влияние на врачебный выбор, например, при обучении SaMD на архивных данных, среди которых могут быть предвзятые;
- потеря личного контакта пациента с врачом;
- введение в заблуждение некачественной информацией о системе ИИ, используемой в процессе оказания медицинской помощи;
- развитие беспокойства, стресса, ипохондрии вследствие постоянного и частого использования SaMD;
- ошибки в интерпретации ответа системы — неправильное самолечение;
- технические сбои, взломы системы ИИ, кибератаки и пр.
Для предупреждения этих и других рисков, возможность которых в ходе применения медицинских систем ИИ исключить невозможно, необходимо не только минимизировать их негативные воздействия на этапах исследования, но и содействовать ответственному отношению разработчиков и контролю применения этих систем в реальной клинической практике, повышению к ним лояльности со стороны пациентов. Недоверие пациентов к инновационным медицинским системам может снизить эффективность их применения [12]. Поэтому, возможно, этическим комитетам при экспертизе планируемых исследований следует расширить ракурс прогностической оценки, включив в рассмотрение вероятное гуманитарное воздействие применения разрабатываемой системы ИИ на пациентов в клинической практике.
На сегодняшний день можно выделить основные этические постулаты, которыми должны руководствоваться как разработчики медицинских систем ИИ при проектировании разработок, так и этические комитеты при их экспертной оценке:
- окончательные полномочия по принятию решений всегда должны оставаться за врачом, поскольку на него ложится ответственность за оказанную медицинскую помощь;
- контроль и хранение конфиденциальных медицинских данных должны быть гарантированы, следует способствовать периодическому проведению независимого аудита защиты данных субъектов;
- пациенты/потребители должны быть полноценно информированы о системах ИИ, используемых в применяемых технологиях. Этические комитеты должны проконтролировать не только информационные материалы, предназначенные для субъектов исследования, но и информацию, касающуюся применения системы ИИ автономно или в составе других медицинских технологий и предназначенную пациентам в клинической практике.
ЗАКЛЮЧЕНИЕ
Система регулирования сферы медицинских технологий ИИ формируется и развивается как в нашей стране, так и на международном уровне (ВОЗ, ЮНЭСКО, IMDRF и другие организации). Разрабатываются и вводятся в сферу обращения технологий ИИ основные положения, понятийный аппарат, классификационные признаки и пр., что закладывает фундамент единых подходов к развитию сегмента медицинских систем ИИ. Так, в начале октября 2024 г. Росстандарт утвердил два важных для сферы медицинских технологий ИИ документа — основные положения по системам поддержки врачебных решений [13] и основные положения по системам прогнозной аналитики на основе искусственного интеллекта [14]. Также утвержден Национальный стандарт РФ «Системы искусственного интеллекта в клинической медицине. Ч. 1. Клиническая оценка» [15].
Процесс стандартизации сферы медицинских систем ИИ осуществляется весьма своевременно, поскольку число внедряемых в медицинскую практику систем ИИ постоянно увеличивается. Это обусловливает повышенный интерес со стороны общества как к вопросам использования ПО с ИИ в повседневной клинической практике, так и к этическим аспектам разработки и применения медицинских технологий ИИ, что находит отражение в росте количества публикаций на эту тему.
Этические вопросы, связанные с феноменом внедрения в жизнь общества инновационных когнитивных технологий, способных имитировать мыслительные процессы, становятся предметом обсуждения на представительных международных форумах [16], находятся в центре внимания крупных общественных объединений, таких как Альянс в сфере искусственного интеллекта, разработавший Кодекс этики ИИ [17], составляют научный интерес серьезных научно-исследовательских коллективов [18].
Однако вопросы методологии этической оценки клинических исследований медицинских технологий и систем с использованием ИИ, а также этических аспектов, связанных с внедрением этих технологий в клиническую практику, их восприятием пациентским сообществом и вариантами социоментальных реакций, остаются дискуссионными. Очевидно, разработать критерии этической оценки и реперные точки для этических комитетов специалистам в сфере этики научных исследований еще предстоит общими усилиями, в дискуссиях и обмене мнениями.