ОБЗОР

Этические проблемы внедрения искусственного интеллекта в здравоохранении

К. А. Кошечкин1, А. Л. Хохлов2
Информация об авторах

1 Первый Московский государственный медицинский университет имени И. М. Сеченова, Москва, Россия

2 Ярославский государственный медицинский университет, Ярославль, Россия

Для корреспонденции: Константин Александрович Кошечкин
Никитский бульвар, д. 13/1, оф. 504, г. Москва, 11999, Россия; ur.vonehces.ffats@a_k_nikhcehsok

Статья получена: 16.02.2024 Статья принята к печати: 02.03.2024 Опубликовано online: 31.03.2024
|

Интеграция искусственного интеллекта (ИИ) в здравоохранение быстро расширяется, совершая революцию в различных аспектах отрасли. ИИ включает в себя целый ряд технологий, таких как машинное обучение, обработка естественного языка [1] и робототехника, которые используются для улучшения оказания медицинской помощи, улучшения результатов лечения пациентов [2] и оптимизации эффективности организационной деятельности.

В медицинской диагностике системы на основе ИИ могут анализировать медицинские изображения, такие как рентгеновские снимки, магнитно-резонансная и компьютерная томография, с высокой точностью, помогая врачам в раннем выявлении и диагностике заболеваний. Эти системы могут обнаруживать тонкие закономерности и аномалии, которые могут остаться незамеченными человеком-наблюдателем, что потенциально может привести к более быстрой и точной диагностике [3]. Также эти системы позволяют снизить нагрузку на врачей при проведении массовых скринингов, отделяя медицинские изображения, на которых отсутствует патология, от исследований, требующих особого внимания специалистов.

Кроме того, ИИ трансформирует планирование лечения и персонализированную медицину [4], анализируя большие наборы данных о пациентах, включая генетические профили, истории болезни и результаты лечения. Алгоритмы машинного обучения могут выявлять корреляции и закономерности в этих данных, чтобы помочь предсказать реакцию пациентов на различные методы лечения и соответствующим образом адаптировать вмешательства [5].

Помимо диагностики и лечения, ИИ используется для мониторинга пациентов и удаленного ухода. Носимые устройства, оснащенные ИИ, могут непрерывно собирать и анализировать физиологические данные, что позволяет выявлять проблемы со здоровьем на ранней стадии и принимать упреждающие меры. Платформы телемедицины на базе ИИ облегчают консультации и удаленный мониторинг, улучшая доступ к медицинским услугам, особенно в районах с недостаточным уровнем обслуживания [6, 7].

Кроме того, системы управления здравоохранением на основе ИИ оптимизируют административные задачи, оптимизируют распределение ресурсов и улучшают процессы принятия решений. Эти системы могут анализировать огромные объемы данных из электронных медицинских карт, биллинговых систем и административных баз данных для выявления тенденций, неэффективности и областей для улучшения [8, 9].

Несмотря на то, что интеграция ИИ в здравоохранение имеет большие перспективы, она также поднимает важные этические, юридические и социальные вопросы. Обеспечение конфиденциальности, прозрачности алгоритмов и ответственности за лечение пациентов при разработке и внедрении технологий ИИ имеет важное значение для реализации всего потенциала этих инноваций при сохранении доверия и целостности систем здравоохранения [1012].

В быстро развивающемся ландшафте технологий здравоохранения интеграция ИИ открывает огромные перспективы для революционного изменения ухода за пациентами, диагностики, лечения и исследований. Однако наряду с потенциальными преимуществами существуют важные этические соображения, которые необходимо тщательно учитывать для обеспечения ответственной разработки и внедрения технологий ИИ.

Основным этическим императивом в здравоохранении является приоритет благополучия и безопасности пациентов. Технологии ИИ обладают потенциалом для улучшения результатов лечения пациентов, но они также создают новые риски, такие как алгоритмическая предвзятость, нарушения конфиденциальности данных и ошибки при принятии решений. При разработке и внедрении систем ИИ необходимо руководствоваться этическими соображениями, чтобы свести к минимуму вред и максимизировать пользу для пациентов [13].

ИИ может улучшить доступ к здравоохранению за счет расширения охвата медицинских знаний и ресурсов. Однако существует риск того, что решения, основанные на ИИ, могут усугубить существующие диспропорции, если их не применять вдумчиво. Этические рамки должны охватывать вопросы инклюзивности и доступности, чтобы гарантировать, что ИИ приносит пользу всем пациентам, независимо от социально-экономического статуса, географического положения или других факторов [7].

Этичная разработка ИИ требует прозрачности работы алгоритмов и объяснимости результатов при создании и внедрении систем на основе ИИ на протяжении всего жизненного цикла технологии. Это включает в себя прозрачность процессов принятия алгоритмических решений, источников и использования данных, а также возможность для заинтересованных сторон понимать и оспаривать рекомендации на основе ИИ. Кроме того, необходимы четкие механизмы подотчетности для устранения ошибок, предубеждений и непредвиденных последствий, которые могут возникнуть в результате развертывания ИИ [14].

Автономия и информированное согласие: уважение автономии пациента и право принимать обоснованные решения о медицинских вмешательствах являются основополагающими этическими принципами. По мере того как технологии ИИ все больше внедряются в клиническую практику, пациенты должны иметь четкое представление о том, как ИИ используется в их лечении, и иметь возможность дать информированное согласие. Это включает в себя прозрачность в отношении ограничений и неопределенностей систем ИИ и участие медицинских работников в процессах принятия решений.

Профессиональная честность и доверие: медицинские работники обязаны действовать в интересах своих пациентов и поддерживать этические стандарты в своей практике. Интеграция ИИ должна дополнять, а не заменять опыт и суждения поставщиков медицинских услуг. Этические принципы должны поддерживать этичное использование ИИ в качестве инструмента для улучшения процесса принятия клинических решений, повышения эффективности рабочих процессов и улучшения результатов лечения пациентов, сохраняя при этом доверие и целостность отношений между пациентом и поставщиком медицинских услуг.

По мере того, как ИИ продолжает проникать в различные аспекты здравоохранения, от диагностики и лечения до административных задач и взаимодействия с пациентами, он порождает множество этических соображений, которые требуют тщательного изучения. В данной работе описан ландшафт этических проблем, связанных с ИИ в здравоохранении. Изучены этические последствия применения ИИ в здравоохранении: от опасений, связанных с конфиденциальностью пациентов и безопасностью данных, до потенциальной алгоритмической предвзятости и дискриминации, а также вопросы, касающиеся подотчетности систем ИИ при принятии клинических решений, опасность подрыва доверия между пациентами и врачами в условиях автоматизированных вмешательств и этической ответственности медицинских работников [12].

МАТЕРИАЛЫ И МЕТОДЫ

Проведен обзор существующей литературы по интеграции ИИ в здравоохранение. Это включало в себя научные журналы, материалы конференций, иную доступную литературу и соответствующие отчеты регулирующих органов и профессиональных организаций. Поисковые запросы включали комбинации ключевых слов, таких как «искусственный интеллект», «машинное обучение», «здравоохранение», «этика», «прозрачность», «подотчетность» и «регулирование».

Были выявлены и проанализированы конкретные случаи и инциденты, когда технологии ИИ вызвали этические дилеммы в медицинских учреждениях. Критерии отбора кейсов включали актуальность, разнообразие этических вопросов и доступность подробной информации. Тематические исследования были взяты из опубликованной литературы, новостных статей и задокументированных юридических или нормативных случаев.

Были рассмотрены нормативно-правовые и этические рамки, регулирующие разработку и внедрение алгоритмов ИИ в здравоохранении. К ним относятся соответствующие законы, нормативные акты, руководящие принципы и этические принципы, изданные государственными органами, профессиональными сообществами и международными организациями. В число ключевых регулирующих данную область документов вошли материалы, которые публиковало Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) [15], Общий регламент Европейского союза по защите данных (GDPR) [16], Кодекс медицинской этики Американской медицинской ассоциации (AMA) и Глобальная инициатива IEEE по этическим аспектам в области искусственного интеллекта и автономных систем [17].

Сбор данных включал в себя сбор информации из различных источников, включая научные статьи, новостные сообщения, политические документы и судебные прецеденты. Данные были проанализированы с использованием качественных методов, в том числе тематического анализа, для выявления общих тем, этических дилемм и регуляторных проблем, связанных с интеграцией ИИ в здравоохранение. Тематические исследования были проанализированы с использованием подхода кейс-стади для изучения конкретных этических проблем, вовлеченных заинтересованных сторон и результатов каждого случая.

Результаты обзора литературы, тематических исследований и нормативно-правового анализа были обобщены для предоставления всестороннего обзора этических проблем, связанных с ИИ в здравоохранении. Этические последствия, пробелы в регулировании и стратегии содействия прозрачности и подотчетности обсуждались в свете результатов исследования и существующей литературы. На основе результатов и анализа исследования были предложены рекомендации для политиков, поставщиков медицинских услуг и других заинтересованных сторон.

Были признаны ограничения исследования, такие как потенциальные систематические ошибки в выбранной литературе и тематических исследованиях. Были предприняты усилия по смягчению предвзятости путем включения различных точек зрения и источников информации. Исследование сосредоточено в первую очередь на этических аспектах, связанных с ИИ в здравоохранении, и не углублялось в технические аспекты алгоритмов ИИ или проблемы внедрения. В целом, материалы и методы, использованные в данном исследовании, были направлены на тщательный и систематический анализ этических проблем, связанных с ИИ в здравоохранении, и на разработку стратегий решения этих проблем на практике.

РЕЗУЛЬТАТЫ И ОБСУЖДЕНИЕ

 

Отсутствие прозрачности и подотчетности

Одной из наиболее актуальных этических проблем, связанных с интеграцией ИИ в здравоохранение, является отсутствие прозрачности и подотчетности в алгоритмах ИИ. По мере того, как системы ИИ становятся все более сложными и автономными, понимание того, как эти алгоритмы принимают решения, становится критически важным для обеспечения справедливости, равенства и безопасности пациентов.

Алгоритмы ИИ часто работают как «черные ящики», что означает, что их процессы принятия решений непрозрачны и сложны для интерпретации или тщательного изучения. Отсутствие прозрачности создает значительные проблемы как для поставщиков медицинских услуг, так и для регуляторных органов и пациентов, поскольку это мешает им оценивать надежность, точность и потенциальные предубеждения, присущие рекомендациям на основе ИИ. Опасения по поводу алгоритмической предвзятости, дискриминации и несправедливого отношения особенно заметны в здравоохранении, где решения имеют серьезные последствия для результатов лечения и благополучия пациентов. ИИ-системы, обученные на основе предвзятых или неполных данных, могут увековечить и усугубить существующее неравенство в оказании медицинской помощи для отдельных групп населения. Кроме того, непрозрачность алгоритмов ИИ затрудняет выявление и устранение случаев предвзятости или дискриминации. Без прозрачности лежащих в основе процессов принятия решений трудно установить, влияют ли на рекомендации, сформированные с применением ИИ, такие факторы, как национальность, пол, социально-экономический статус или другие чувствительные характеристики [18].

Отсутствие подотчетности еще больше усугубляет эти этические проблемы, поскольку часто возникает неопределенность в отношении того, кто несет ответственность за действия и решения ИИ-систем в медицинских учреждениях. В тех случаях, когда алгоритмы ИИ приводят к ошибочным или вредным результатам, определение ответственности может быть сопряжено с юридическими и этическими сложностями.

Для решения этих проблем крайне важно уделять первоочередное внимание прозрачности и подотчетности при разработке и внедрении алгоритмов ИИ в здравоохранении. Это включает в себя содействие открытому доступу к алгоритмическим методологиям и источникам данных, создание условий для проведения независимого аудита и валидации ИИ-систем, а также создание четких механизмов обращения за медицинской помощью и возмещения ущерба в случае алгоритмических ошибок или причинения вреда.

 

Вопросы конфиденциальности и безопасности данных пациентов

 

В эпоху цифрового здравоохранения, когда генерируются, собираются и анализируются огромные объемы данных о пациентах, опасения по поводу конфиденциальности и безопасности данных становятся все более серьезными. Интеграция ИИ в здравоохранение усугубляет эти проблемы, поскольку системы ИИ в значительной степени зависят от доступа к большим наборам данных для обучения алгоритмов и принятия обоснованных решений. Тем не менее, сбор, хранение и обмен конфиденциальной медицинской информацией сопряжены со значительными этическими проблемами, которые необходимо решать для защиты конфиденциальности пациентов и безопасности данных.

Одной из основных проблем является возможность несанкционированного доступа к медицинским данным пациентов, будь то в результате кибератак, утечки данных или несанкционированного раскрытия. Несанкционированный доступ к конфиденциальной медицинской информации не только ставит под угрозу неприкосновенность частной жизни пациента, но и создает риски для его безопасности. Пациенты имеют право ожидать, что их медицинские данные будут обрабатываться ответственно, и нарушение этого доверия может иметь далеко идущие последствия как для отдельных лиц, так и для медицинских организаций.

Кроме того, распространение взаимосвязанных систем здравоохранения и обмен данными между платформами и учреждениями вызывают дополнительные опасения по поводу функциональной совместимости и контроля данных. Пациенты могут иметь ограниченную информированность и контроль над тем, как собираются, передаются и используются их данные, что приводит к чувству уязвимости и потере автономии. Кроме того, агрегирование разрозненных наборов данных для целей обучения ИИ может непреднамеренно раскрыть конфиденциальную информацию или способствовать повторной идентификации людей, что создает риски для неприкосновенности частной жизни и конфиденциальности пациентов [19].

Помимо внешних угроз, внимания заслуживают и внутренние риски, такие как неправомерное использование данных, несанкционированный доступ медицинского персонала и непреднамеренные утечки данных. Поставщики медицинских услуг и организации должны внедрить надежные системы управления данными, средства контроля доступа, механизмы шифрования и протоколы аудита, чтобы снизить эти риски и обеспечить безопасную обработку медицинской информации пациента на протяжении всего ее жизненного цикла. Этические соображения, связанные с конфиденциальностью пациентов и безопасностью данных, выходят за рамки соблюдения нормативных требований и охватывают более широкие принципы уважения автономии, конфиденциальности и доверия. Пациенты должны иметь возможность принимать обоснованные решения о сборе, использовании и обмене своей медицинской информацией, а поставщики медицинских услуг обязаны поддерживать высочайшие стандарты безопасности и конфиденциальности данных [17].

С появлением электронных медицинских карт (ЭМК) и носимых устройств мониторинга состояния здоровья регулярно собираются огромные объемы конфиденциальных данных пациентов. К ним относятся личные идентификаторы, история болезни, результаты диагностических тестов, планы лечения и многое другое [19].

Сбор такой всеобъемлющей медицинской информации вызывает опасения по поводу возможности несанкционированного доступа, неправомерного использования или эксплуатации, особенно в тех случаях, когда данные не являются надлежащим образом обезличенными.

 

Хранение и безопасность данных

Хранение конфиденциальной медицинской информации в цифровом формате создает уязвимости для кибератак, утечек данных и несанкционированного доступа. Организации здравоохранения должны инвестировать в надежные меры безопасности данных, включая шифрование, контроль доступа, брандмауэры и системы обнаружения вторжений, чтобы защитить данные пациентов от злоумышленников. Обмен информацией о состоянии здоровья пациента между поставщиками медицинских услуг, исследователями, страховыми компаниями и другими организациями имеет важное значение для координации лечения, проведения исследований и облегчения обмена медицинской информацией. Однако это также создает риски для неприкосновенности частной жизни и конфиденциальности пациентов. Неадекватные протоколы обмена данными, слабые механизмы аутентификации и недостаточные меры защиты данных могут привести к несанкционированному раскрытию информации, нарушению конфиденциальности и потенциальному вреду для пациентов.

Организации здравоохранения должны ориентироваться в нормативных требованиях, регулирующих сбор, хранение и обмен конфиденциальной медицинской информацией. К ним относятся такие законы, как Закон о преемственности и подотчетности медицинского страхования (HIPAA) в Соединенных Штатах и Общий регламент по защите данных (GDPR) в Европейском союзе и Федеральный закон «О персональных данных» от 27.07.2006 № 152-ФЗ, которые предписывают строгие меры безопасности для защиты конфиденциальности пациентов и безопасности данных [16, 20].

Несоблюдение этих правил может привести к серьезным штрафам, репутационному ущербу и потере доверия пациентов. Этические соображения выходят за рамки простого соблюдения нормативных актов и охватывают более широкие принципы непричинения вреда, справедливости и уважения прав пациентов.

 

Потенциальный подрыв доверия между пациентом и врачом

 

В медицинских учреждениях отношения между пациентом и врачом характеризуются доверием, эмпатией и совместным принятием решений. Однако растущая интеграция ИИ в здравоохранение вносит новую динамику, которая может подорвать это доверие и подорвать отношения между пациентом и поставщиком медицинских услуг. Пациенты часто придают большое значение человеческому общению, которое они разделяют с медицинскими работниками. Внедрение процесса принятия решений и автоматизации на основе ИИ может быть воспринято как замена человеческого взаимодействия обезличенными технологиями, что приводит к чувству отчуждения, разобщенности и недоверия.

Пациенты могут опасаться, что системам ИИ не хватает эмпатии, понимания и интуиции, которые медицинские работники привносят в клинические контакты, что потенциально снижает качество медицинской помощи и опыт пациентов. Пациенты могут испытывать неловкость из-за того, что доверяют свои медицинские решения системам ИИ, которые они не полностью понимают, что вызывает опасения по поводу прозрачности, подотчетности и возможности ошибок или предвзятости.

Также пациенты ценят автономию и способность активно участвовать в принятии решений о своем здоровье. Растущая зависимость от принятия решений на основе ИИ и систем автоматизации может ослабить у пациентов чувство контроля над собственным лечением, в результате чего они будут чувствовать себя бесправными и маргинализированными. Пациенты могут беспокоиться о том, что системы ИИ будут отдавать приоритет эффективности и рентабельности, а не их индивидуальным предпочтениям, ценностям и приоритетам, что приведет к решениям, которые не согласуются с их личными целями или предпочтениями. Широкое внедрение технологий ИИ в здравоохранении может поставить под сомнение авторитет и опыт врачей, особенно если системы ИИ воспринимаются как более совершенные или более точные, чем врачи-люди [21].

Пациенты могут сомневаться в ценности вклада врача и искать подтверждения или второго мнения из нескольких источников, включая системы на основе ИИ, что может подорвать авторитет и доверие к поставщикам медицинских услуг. Поддержание автономии, конфиденциальности и доверия пациента требует от поставщиков медицинских услуг соблюдения тонкого баланса между использованием технологий ИИ для улучшения ухода за пациентами и сохранением основных человеческих элементов в отношениях между пациентом и поставщиком медицинских услуг.

 

Правовая и нормативная неопределенность, связанная с ответственностью в случаях ошибок, связанных с ИИ, или причинения вреда пациентам

Интеграция ИИ в здравоохранение создает новые правовые и нормативные проблемы, связанные с ответственностью в тех случаях, когда системы ИИ способствуют ошибкам или причиняют вред пациентам. По мере того как технологии ИИ становятся все более автономными и распространенными в клинической практике, прояснение правовой базы, регулирующей подотчетность, имеет важное значение для защиты прав пациентов, обеспечения правосудия и укрепления доверия к здравоохранению, основанному на ИИ [22].

Алгоритмы ИИ часто функционируют как сложные, динамические системы, которые развиваются с течением времени благодаря обучению и адаптации. Сложная природа этих алгоритмов может затруднить соотнесение ошибок или неблагоприятных результатов с конкретными действиями или решениями, что усложняет определение ответственности.

Традиционная правовая база может с трудом учитывать нюансы технологий ИИ, что приводит к неопределенности в отношении распределения ответственности между разработчиками программных компонент, производителями оборудования, использующего ИИ-системы, поставщиками медицинских услуг и другими заинтересованными сторонами. Определение того, кто несет ответственность за ошибки или вред, связанные с ИИ, является спорным вопросом, который не имеет четкого прецедента или руководства во многих юрисдикциях. Возникают вопросы относительно того, лежит ли ответственность на разработчике или производителе системы ИИ, поставщике медицинских услуг, который использует технологию, или на комбинации того и другого.

Уровень вовлеченности и контроля человека в процессах принятия решений на основе ИИ еще больше усложняет распределение ответственности. Поставщики медицинских услуг могут утверждать, что они действовали в соответствии с установленными протоколами и рекомендациями, в то время как разработчики могут утверждать, что их алгоритмы использовались надлежащим образом и добросовестно. Установление стандартов оказания медицинской помощи и должной осмотрительности при разработке, внедрении и использовании технологий ИИ в здравоохранении имеет решающее значение для снижения рисков и обеспечения безопасности пациентов. Однако определение этих стандартов в контексте быстро развивающихся систем ИИ представляет собой серьезную проблему [22].

Поставщики медицинских услуг могут придерживаться различных стандартов оказания медицинской помощи в зависимости от уровня их знакомства с технологиями ИИ, обучения и доступа к ресурсам. Аналогичным образом, от разработчиков и производителей можно ожидать соблюдения лучших отраслевых практик и мер по обеспечению качества, чтобы свести к минимуму риск ошибок или вреда, связанных с ИИ.

Правовые и этические последствия: правовая и нормативная неопределенность, связанная с ответственностью в случаях ошибок или вреда, связанных с ИИ, имеет глубокие этические последствия для безопасности, правосудия и подотчетности пациентов. Пациенты имеют право требовать возмещения ущерба и компенсации за вред, причиненный технологиями ИИ, однако отсутствие четких правовых норм может препятствовать их возможности обратиться за помощью. Устранение этих неопределенностей требует сотрудничества между экспертами в области права, поставщиками медицинских услуг, разработчиками ИИ и защитниками прав пациентов для разработки комплексных механизмов, которые уравновешивают инновации с защитой пациентов и поддерживают принципы этичной медицинской практики.

 

Влияние ИИ на медицинских работников, включая изменения в ролях, обязанностях и профессиональной автономии

 

Интеграция ИИ в здравоохранение меняет роли, обязанности и профессиональную автономию медицинских работников, создавая как возможности, так и проблемы для оказания помощи пациентам. Технологии ИИ расширяют и трансформируют роли медицинских работников в различных областях, включая диагностику, планирование лечения, анализ данных и административные задачи.

Поставщики медицинских услуг все чаще сотрудничают с системами ИИ, используя их возможности для улучшения процесса принятия клинических решений, повышения эффективности рабочих процессов и оптимизации распределения ресурсов.

Например, радиологи могут использовать алгоритмы ИИ для помощи в интерпретации медицинских изображений, врачи первичной медико-санитарной помощи могут использовать инструменты поддержки принятия клинических решений на основе ИИ для рекомендаций по лечению, а медсестры могут полагаться на чат-ботов на основе ИИ для обучения и поддержки пациентов. ИИ может оптимизировать рабочие процессы в здравоохранении, снизить административную нагрузку и повысить точность и достоверность клинических задач. Автоматизируя рутинные задачи и используя аналитику на основе данных, медицинские работники могут сосредоточить свое время и опыт на более сложных и полезных видах деятельности. Предиктивная аналитика на основе ИИ может помочь выявить пациентов с высоким риском нежелательных явлений, позволяя поставщикам медицинских услуг превентивно вмешиваться и персонализировать планы лечения на основе индивидуальных характеристик и потребностей пациентов.

Несмотря на то, что технологии ИИ предлагают значительные преимущества с точки зрения эффективности и точности, они также вызывают обеспокоенность по поводу эрозии профессиональной автономии и полномочий по принятию решений среди медицинских работников. Поставщики медицинских услуг могут опасаться передачи контроля системам ИИ, особенно в тех случаях, когда алгоритмы работают как «черные ящики» с непрозрачными процессами принятия решений. Поддержание профессиональной автономии требует соблюдения тонкого баланса между использованием ИИ в качестве инструмента для улучшения клинической практики и сохранением опыта, суждений и усмотрения медицинских работников.

Примеры. Изучение конкретных случаев или инцидентов, в которых технологии ИИ вызвали этические дилеммы в медицинских учреждениях.

 

Алгоритмическая предвзятость в диагностических инструментах

 

Кейс: исследование показало, что диагностический инструмент на основе ИИ, используемый в дерматологии, демонстрирует расовую предвзятость, поскольку он был менее точным в выявлении кожных заболеваний у пациентов с более темным оттенком кожи по сравнению со светлокожими пациентами.

Этическая дилемма: алгоритмическая предвзятость вызвала обеспокоенность по поводу неравенства в доступе к медицинской услуге и ее результатах, поскольку пациенты из групп расовых и этнических меньшинств могут получать неоптимальную помощь из-за неточностей в диагностических инструментах на основе ИИ. Устранение этой предвзятости требует прозрачного и инклюзивного сбора данных, алгоритмического аудита и постоянной оценки для обеспечения справедливого предоставления медицинских услуг [23, 24].

 

Неправильные рекомендации по лечению

 

Кейс: система поддержки принятия клинических решений на основе ИИ рекомендовала пациенту хирургическую процедуру с высоким риском на основе неполных или неточных данных, что привело к ненужным осложнениям и неблагоприятным исходам.

Этическая дилемма: инцидент подчеркнул важность обеспечения точности, надежности и клинической валидности рекомендаций на основе ИИ. Поставщики медицинских услуг столкнулись с этическими дилеммами относительно того, следует ли доверять рекомендациям системы ИИ или использовать свое суждение и опыт, чтобы отклонить потенциально ошибочные предложения. Чтобы найти баланс между преимуществами поддержки принятия решений на основе ИИ и необходимостью клинического усмотрения и подотчетности, требуются четкие руководящие принципы, обучение и механизмы надзора [6].

 

Нарушения конфиденциальности в предиктивной аналитике

 

Кейс: медицинская организация внедрила предиктивную аналитику на основе ИИ для выявления пациентов с высоким риском развития хронических заболеваний. Однако произошла утечка данных, которая поставила под угрозу конфиденциальность медицинской информации и подвергла пациентов риску нарушения конфиденциальности.

Этическая дилемма: этот инцидент вызвал обеспокоенность по поводу компромисса между точностью прогнозирования и конфиденциальностью пациентов. Поставщики медицинских услуг столкнулись с этическими дилеммами в отношении надлежащего использования прогнозной аналитики на основе ИИ для улучшения показателей здоровья населения при сохранении конфиденциальности и автономии пациентов. Усиление мер безопасности данных, получение информированного согласия и внедрение прозрачных структур управления данными имеют важное значение для решения этих этических проблем [25].

 

Автономное принятие решений в отделениях интенсивной терапии

 

Кейс: автономная роботизированная хирургическая система, управляемая ИИ, вышла из строя во время сложной хирургической процедуры, что привело к причинению вреда пациенту. Сбой системы был связан с сочетанием технических сбоев, недостаточных данных для обучения и неадекватного контроля со стороны человека.

Этическая дилемма: инцидент поднял вопросы о надлежащем уровне автономии систем на основе ИИ в здравоохранении и ответственности поставщиков медицинских услуг за обеспечение безопасности пациентов. Чтобы найти баланс между потенциальными преимуществами автоматизации с использованием ИИ и необходимостью человеческого надзора, вмешательства и подотчетности, требуется надежная оценка рисков, протоколы тестирования и надзор со стороны регулирующих органов [26].

 

Стратегии обеспечения прозрачности и подотчетности в алгоритмах ИИ

Поощрение разработки алгоритмов ИИ с открытым исходным кодом позволяет добиться большей прозрачности, сделав исходный код доступным для общественности. Это позволяет исследователям, разработчикам и медицинским работникам тщательно изучить алгоритмы, понять их внутреннюю работу и выявить потенциальные предубеждения или недостатки. Разработка с открытым исходным кодом способствует сотрудничеству, экспертной оценке и обмену знаниями, что приводит к созданию более надежных и надежных решений на основе ИИ. Способствуя прозрачности и инклюзивности, инициативы с открытым исходным кодом могут повысить общественное доверие к технологиям ИИ.

Проведение аудита алгоритмов включает в себя систематическую оценку алгоритмов ИИ для оценки их производительности, надежности, справедливости и этических последствий. Аудит может включать в себя изучение обучающих данных, оценку точности модели, тестирование на предмет предвзятости или дискриминации, а также оценку влияния алгоритмических решений на различные заинтересованные стороны. Независимый аудит, проводимый сторонними организациями или регулирующими органами, может обеспечить объективную оценку алгоритмов ИИ, помогая выявлять и снижать потенциальные риски и обеспечивая подотчетность разработчиков и пользователей.

Разработка объяснимых методов ИИ (XAI от Explainable AI) позволяет алгоритмам ИИ предоставлять прозрачные объяснения своим решениям и прогнозам. Методы XAI направлены на то, чтобы развеять мифы о сложных моделях ИИ и сделать их процессы рассуждения понятными для людей. Улучшая интерпретируемость и объяснимость, XAI способствует доверию, подотчетности и принятию пользователями принятия решений на основе ИИ в медицинских учреждениях. Пациенты, поставщики медицинских услуг и регулирующие органы могут лучше понимать и тщательно изучать рекомендации ИИ, что приводит к более обоснованному принятию решений и улучшению результатов лечения пациентов [24].

Для обеспечения прозрачности и подотчетности алгоритмов ИИ требуются прозрачные методы работы с данными и надежные системы управления данными. Это включает в себя документирование источников данных, методов сбора данных, методов предварительной обработки данных и политик использования данных. Прозрачные методы работы с данными позволяют заинтересованным сторонам оценивать качество, актуальность и репрезентативность обучающих данных, используемых для разработки алгоритмов ИИ. Внедрение мер по управлению данными, таких как анонимизация данных, минимизация данных и контроль доступа к данным, помогает защитить конфиденциальность пациентов и снизить риски несанкционированного или неправильного использования данных.

 

Регулятивный надзор и стандарты

Установление регулирующего надзора и стандартов для алгоритмов ИИ в здравоохранении имеет важное значение для обеспечения прозрачности, подотчетности и соблюдения этических принципов и требований законодательства. Регулирующие органы могут разрабатывать руководства, нормативные акты и процессы сертификации для регулирования разработки, развертывания и использования технологий ИИ в здравоохранении [17]. Так, например, в РФ создано более 10 стандартов для ИИ в здравоохранении. 1 января 2023 г. в России в силу вступили стандарты (ГОСТ Р 59921.8-2022 и ГОСТ Р 59921.9-2022), устанавливающие общие требования к системам ИИ в медицине и системам менеджмента качества.

Надзор со стороны регулирующих органов обеспечивает уверенность в том, что алгоритмы ИИ соответствуют минимальным стандартам качества, безопасности и производительности, укрепляя доверие между пациентами, поставщиками медицинских услуг и политиками. Соответствие нормативным требованиям помогает снизить риски, обеспечить безопасность пациентов и соблюдать этические стандарты в здравоохранении на основе ИИ.

ЗАКЛЮЧЕНИЕ

Интеграция ИИ в здравоохранение открывает огромные перспективы для трансформации ухода за пациентами, повышения точности диагностики и улучшения оказания медицинской помощи. Однако по мере того, как технологии ИИ становятся все более распространенными в клинической практике, они также порождают сложные этические проблемы, которые необходимо ускоренно решать для обеспечения ответственного и справедливого оказания медицинской помощи. Особенно важно обеспечение прозрачности и подотчетности при разработке и внедрении алгоритмов ИИ. Такие стратегии, как разработка с открытым исходным кодом, аудит алгоритмов и объяснимый ИИ, могут повысить доверие, надежность и этичность принятия решений в здравоохранении на основе ИИ. Регулирующие органы, директивные органы, поставщики медицинских услуг и другие заинтересованные стороны играют ключевую роль в разработке руководящих принципов, стандартов и рамок, регулирующих этичное использование ИИ в здравоохранении. Несмотря на проблемы и сложности, связанные с интеграцией ИИ в здравоохранение, технологии ИИ оказывают положительное влияние на результаты лечения пациентов, повышение эффективности здравоохранения и стимулирование инноваций. Придерживаясь этических принципов, способствуя прозрачности и подотчетности, а также уделяя первостепенное внимание благополучию пациентов, заинтересованные стороны могут использовать преобразующий потенциал ИИ, поддерживая при этом высочайшие стандарты этичной медицинской практики. Решение этических проблем, связанных с ИИ в здравоохранении, требует согласованных усилий всех заинтересованных сторон для достижения баланса между инновациями и этическими соображениями. Решая эти проблемы совместно и ответственно, мы можем гарантировать, что технологии ИИ будут способствовать развитию здравоохранения, сохраняя при этом доверие, достоинство и права как пациентов, так и медицинских работников.

КОММЕНТАРИИ (0)