Член Набсовета НБМЗ стал одним из авторов методических рекомендаций по этической экспертизе клинических испытаний систем искусственного интеллекта

Не так давно опубликована ещё одна методичка, которую целесообразно учитывать при создании, тестировании и валидации систем искусственного интеллекта (СИИ) для медицины и здравоохранения. Среди авторов – член Набсовета Ассоциации НБМЗ Александр Гусев.
Методичка предоставляет необходимые знания об особенности СИИ с точки зрения биоэтики. В ней приведен четкий алгоритм проведения экспертизы программы клинических испытаний системы искусственного интеллекта для здравоохранения (см. визуализацию на иллюстрации).
Что важно, в публикации отражены проблемные моменты оценки клинической эффективности и безопасности СИИ. На ряде примеров утверждается, что «при эксплуатации СИИ в реальных условиях существует более высокий риск ошибки при интерпретации данных, чем это было бы возможно без использования технологий ИИ». Так, исходя из опыта Московского эксперимента по применению технологий компьютерного зрения в рамках радиологической службы города, отмечено, что ИИ-системы склонны демонстрировать достаточно высокую вероятность деградации показателей чувствительности и специфичности во время их эксплуатации в реальной клинической практике.
В недавней публикации поднята проблема того, что после массового внедрения СППВР в Москве пациенты жалуются на неверные диагнозы искусственного интеллекта в поликлиниках. Терапевты не пытаются интерпретировать результаты исследований и анализов, а просто соглашаются с диагнозом виртуального помощника. В ряде случаев это приводит к постановке неверных диагнозов, разбираться с которыми приходится в платных медучреждениях.
Авторы методички по поводу подобных случаев замечают: «кроме действительно положительного эффекта применения ИИ в практике, есть вероятность дать неправильную подсказку врачу, что в свою очередь может привести к возникновению врачебных ошибок при диагностике и лечении, а значит –причинении вреда здоровью пациента. В настоящее время ответственность за такой вред будет нести тот медицинский работник, который использовал ИИ-систему. По мнению некоторых представителей профессионального сообщества, это является несправедливым. Идет обсуждение предложения о вовлечении разработчиков ИИ-систем в несение ответственности за ошибки в работе их продуктов».

Источник:  Этическая экспертиза клинических испытаний систем искусственного интеллекта : Методические рекомендации № 03-24 / А. В. Гусев, О. С. Кобякова, Ю. В. Ковширина, О. Ю. Реброва. – Москва: ФГБУ «ЦНИИОИЗ» Минздрава России, 2024. – 32 с. – ISBN 978-5-94116-182-9. – https://doi.org/10.21045/978-5-94116-182-9-2024