Статья размещена в открытом доступе и распространяется на условиях лицензии Creative Commons Attribution (CC BY).
ОРИГИНАЛЬНОЕ ИССЛЕДОВАНИЕ
Подходы к оценке рисков медицинских систем искусственного интеллекта
1 Национальный НИИ общественного здоровья имени Н. А. Семашко, Москва, Россия
2 Российский университет медицины, Москва, Россия
Для корреспонденции: Елена Алексеевна Вольская
ул. Черняховского, д. 4/а, кв. 52, г. Москва, 125319, Россия; ur.xednay@anele-slov
Вклад авторов: авторы внесли равный вклад в проведение исследования и написание статьи.
Медицинские технологии с использованием систем искусственного интеллекта (ИИ) занимают прочное место в реальной клинической практике в качестве основных поставщиков важной информации для принятия врачебных решений при диагностике и лечении, в формате ассистирующих и вспомогательных инструментов в процессе оказания медицинской помощи. Для получения валидных доказательств качества, эффективности и безопасности разработчики программного обеспечения с использованием ИИ (ПО с ИИ) проводят клинические исследования этих систем в соответствии с действующими нормативными требованиями [1], руководствуясь рекомендациями признанных экспертов в сфере клинических исследований [2]. Перед этическими комитетами стоит задача качественно провести этическую экспертизу планируемых исследований, учитывая специфику технологий ИИ, применяемых в медицине, и риски, связанные с их применением.
Ключевые слова: этическая экспертиза, медицинские системы искусственного интеллекта, оценка рисков, этические постулаты