
Статья размещена в открытом доступе и распространяется на условиях лицензии Creative Commons Attribution (CC BY).
ОРИГИНАЛЬНОЕ ИССЛЕДОВАНИЕ
Этика применения LLM–моделей в медицине и науке
1 Ярославский государственный медицинский университет, Ярославль, Россия
2 Национальный научно-исследовательский институт общественного здоровья имени Н. А. Семашко, Москва, Россия
Для корреспонденции: Ландыш Фаритовна Габидуллина
ул. Революционная, д. 5, г. Ярославль, 150000, Россия; ur.xednay@01hsudnal
Вклад авторов: Л. Ф. Габидуллина — анализ литературы, планирование исследования, написание текста, редактирование; М. Ю. Котловский— сбор, анализ, интерпретация данных.
Быстрое внедрение больших языковых моделей (LLM) в здравоохранение порождает острые этические дилеммы и практические риски. Центральная проблема связана с доверием медицинских специалистов, пациентов и разработчиков к этим системам, а также с потенциальным нарушением основополагающих принципов медицинской этики. Данное изложение анализирует ключевые вызовы, включая критическую важность доверия (зависящую от качества данных LLM), нарушение информированного согласия и автономии пациента из-за отсутствия прозрачности и чрезмерной опоры на ИИ. Особое внимание уделяется рискам защиты конфиденциальных медицинских данных, что подтверждается инцидентами несанкционированной передачи информации при использовании общедоступных LLM. Необходимость разработки прозрачных, безопасных и этически регулируемых решений для LLM в медицине становится первостепенной задачей.
Ключевые слова: этические дилеммы, большие языковые модели (LLM)