Министерство здравоохранения Российской Федерации опубликовало отраслевой Кодекс этики применения искусственного интеллекта (ИИ) в сфере охраны здоровья. Документ разработан для регулирования этических аспектов на всех этапах жизненного цикла систем ИИ — от проектирования и обучения до внедрения и вывода из эксплуатации.

Кодекс содержит набор принципов и рекомендаций, обязательных для участников взаимодействия с ИИ: разработчиков, производителей, медицинских организаций, операторов данных и других субъектов. Он распространяется на ИИ-системы, используемые исключительно при оказании медицинской помощи — для профилактики, диагностики, лечения и реабилитации.
— «прозрачность» и объяснимость решений ИИ (проблема «чёрного ящика»);
— отсутствие четкой процедуры вывода ИИ из эксплуатации при критических сбоях;
— сложности с определением ответственности за итоговое решение, принятое системой;
— вопросы конфиденциальности данных и кибербезопасности;
— возможные проявления дискриминации и неравного доступа к ИИ-технологиям.
ИИ-системы должны подлежать контролю со стороны медицинских специалистов.
— Прозрачность и объяснимость:
Алгоритмы ИИ обязаны быть понятными и открытыми для анализа.
— Конфиденциальность и безопасность:
Защита персональных данных и исключение ущерба для пациентов.
— Справедливость и равенство:
Исключение дискриминации и обеспечение равного доступа.
— Профессиональная ответственность:
Соблюдение высоких научных и этических стандартов при разработке и внедрении ИИ.
— Информирование:
Пациенты и медработники должны получать достоверную информацию о возможностях и рисках.
— Этическая экспертиза и контроль:
Обязательное проведение оценки этичности и обеспечение подотчетности систем ИИ.
Особое внимание уделено ключевым этическим рискам:
— недостаток доказательств эффективности и безопасности ИИ-систем;— «прозрачность» и объяснимость решений ИИ (проблема «чёрного ящика»);
— отсутствие четкой процедуры вывода ИИ из эксплуатации при критических сбоях;
— сложности с определением ответственности за итоговое решение, принятое системой;
— вопросы конфиденциальности данных и кибербезопасности;
— возможные проявления дискриминации и неравного доступа к ИИ-технологиям.
Для минимизации этих рисков в Кодексе закреплены основные этические принципы:
— Ограниченная автономность:ИИ-системы должны подлежать контролю со стороны медицинских специалистов.
— Прозрачность и объяснимость:
Алгоритмы ИИ обязаны быть понятными и открытыми для анализа.
— Конфиденциальность и безопасность:
Защита персональных данных и исключение ущерба для пациентов.
— Справедливость и равенство:
Исключение дискриминации и обеспечение равного доступа.
— Профессиональная ответственность:
Соблюдение высоких научных и этических стандартов при разработке и внедрении ИИ.
— Информирование:
Пациенты и медработники должны получать достоверную информацию о возможностях и рисках.
— Этическая экспертиза и контроль:
Обязательное проведение оценки этичности и обеспечение подотчетности систем ИИ.
Принятие Кодекса направлено на формирование прозрачной, безопасной и этически устойчивой среды для использования ИИ в здравоохранении. В дальнейшем его положения могут быть детализированы в рамках отдельных медицинских организаций или профессиональных сообществ.
Подписывайтесь на наш Telegram-канал и узнавайте все актуальные новости первыми!

Похожие новости

Искусственный интеллект трансформирует медицину: Россия делится опытом и готовится к новому этапу развития
Россия активно внедряет искусственный интеллект в здравоохранение, превращая его в драйвер роста отрасли и разрабатывая при этом этические и нормативные стандарты для безопасного использования технологий.
29.04.2025

Суды по ЕГИСЗ: март 2025 года стал поворотным моментом в практике контроля
С марта 2025 года суды начали массово штрафовать медицинские организации за нарушения требований ЕГИСЗ — в материале рассказываем, какие ошибки приводят к штрафам и как этого избежать.
22.04.2025

Хотите получить такой же результат, как у наших клиентов?
Получите бесплатную консультацию нашего специалиста