08.06.2024

Член Набсовета НБМЗ стал одним из авторов методических рекомендаций по этической экспертизе клинических испытаний систем искусственного интеллекта

Член Набсовета НБМЗ стал одним из авторов методических рекомендаций по этической экспертизе клинических испытаний систем искусственного интеллекта
Не так давно опубликована ещё одна методичка, которую целесообразно учитывать при создании, тестировании и валидации систем искусственного интеллекта (СИИ) для медицины и здравоохранения. Среди авторов – член Набсовета Ассоциации НБМЗ Александр Гусев. Методичка предоставляет необходимые знания об особенности СИИ с точки зрения биоэтики. В ней приведен четкий алгоритм проведения экспертизы программы клинических испытаний системы искусственного интеллекта для здравоохранения (см. визуализацию на иллюстрации). Что важно, в публикации отражены проблемные моменты оценки клинической эффективности и безопасности СИИ. На ряде примеров утверждается, что «при эксплуатации СИИ в реальных условиях существует более высокий риск ошибки при интерпретации данных, чем это было бы возможно без использования технологий ИИ». Так, исходя из опыта Московского эксперимента по применению технологий компьютерного зрения в рамках радиологической службы города, отмечено, что ИИ-системы склонны демонстрировать достаточно высокую вероятность деградации показателей чувствительности и специфичности во время их эксплуатации в реальной клинической практике. В недавней публикации поднята проблема того, что после массового внедрения СППВР в Москве пациенты жалуются на неверные диагнозы искусственного интеллекта в поликлиниках. Терапевты не пытаются интерпретировать результаты исследований и анализов, а просто соглашаются с диагнозом виртуального помощника. В ряде случаев это приводит к постановке неверных диагнозов, разбираться с которыми приходится в платных медучреждениях. Авторы методички по поводу подобных случаев замечают: «кроме действительно положительного эффекта применения ИИ в практике, есть вероятность дать неправильную подсказку врачу, что в свою очередь может привести к возникновению врачебных ошибок при диагностике и лечении, а значит –причинении вреда здоровью пациента. В настоящее время ответственность за такой вред будет нести тот медицинский работник, который использовал ИИ-систему. По мнению некоторых представителей профессионального сообщества, это является несправедливым. Идет обсуждение предложения о вовлечении разработчиков ИИ-систем в несение ответственности за ошибки в работе их продуктов». Источник: Этическая экспертиза клинических испытаний систем искусственного интеллекта : Методические рекомендации № 03-24 / А. В. Гусев, О. С. Кобякова, Ю. В. Ковширина, О. Ю. Реброва. – Москва: ФГБУ «ЦНИИОИЗ» Минздрава России, 2024. – 32 с. – ISBN 978-5-94116-182-9. – https://doi.org/10.21045/978-5-94116-182-9-2024

Другие новости