08.06.2024
Член Набсовета НБМЗ стал одним из авторов методических рекомендаций по этической экспертизе клинических испытаний систем искусственного интеллекта

Не так давно опубликована ещё одна методичка, которую целесообразно учитывать при создании, тестировании и валидации систем искусственного интеллекта (СИИ) для медицины и здравоохранения. Среди авторов – член Набсовета Ассоциации НБМЗ Александр Гусев.
Методичка предоставляет необходимые знания об особенности СИИ с точки зрения биоэтики. В ней приведен четкий алгоритм проведения экспертизы программы клинических испытаний системы искусственного интеллекта для здравоохранения (см. визуализацию на иллюстрации).
Что важно, в публикации отражены проблемные моменты оценки клинической эффективности и безопасности СИИ. На ряде примеров утверждается, что «при эксплуатации СИИ в реальных условиях существует более высокий риск ошибки при интерпретации данных, чем это было бы возможно без использования технологий ИИ». Так, исходя из опыта Московского эксперимента по применению технологий компьютерного зрения в рамках радиологической службы города, отмечено, что ИИ-системы склонны демонстрировать достаточно высокую вероятность деградации показателей чувствительности и специфичности во время их эксплуатации в реальной клинической практике.
В недавней публикации поднята проблема того, что после массового внедрения СППВР в Москве пациенты жалуются на неверные диагнозы искусственного интеллекта в поликлиниках. Терапевты не пытаются интерпретировать результаты исследований и анализов, а просто соглашаются с диагнозом виртуального помощника. В ряде случаев это приводит к постановке неверных диагнозов, разбираться с которыми приходится в платных медучреждениях.
Авторы методички по поводу подобных случаев замечают: «кроме действительно положительного эффекта применения ИИ в практике, есть вероятность дать неправильную подсказку врачу, что в свою очередь может привести к возникновению врачебных ошибок при диагностике и лечении, а значит –причинении вреда здоровью пациента. В настоящее время ответственность за такой вред будет нести тот медицинский работник, который использовал ИИ-систему. По мнению некоторых представителей профессионального сообщества, это является несправедливым. Идет обсуждение предложения о вовлечении разработчиков ИИ-систем в несение ответственности за ошибки в работе их продуктов».
Источник: Этическая экспертиза клинических испытаний систем искусственного интеллекта : Методические рекомендации № 03-24 / А. В. Гусев, О. С. Кобякова, Ю. В. Ковширина, О. Ю. Реброва. – Москва: ФГБУ «ЦНИИОИЗ» Минздрава России, 2024. – 32 с. – ISBN 978-5-94116-182-9. – https://doi.org/10.21045/978-5-94116-182-9-2024

Другие новости

29.05.2025
Искусственный интеллект как драйвер экономического роста: ключевые дискуссии на полях ПМЭФ-2025
Второй Национальный форум «Прикладной искусственный интеллект: решения для взрывного роста экономического развития. Будущее сегодня» состоится 17 июня 2025...

06.02.2025
Дистанционные методы, искусственный интеллект и большие данные – драйверы здравоохранения
Х Телемедфорум пройдёт 13 и 14 марта 2025 года в Москве. Программа форума охватывает ключевые вопросы новой шестилетки...