Искусственный интеллект в здравоохранении: поиск этического пути к цифровой трансформации

29 ноября прошла всероссийская научно-практическая конференция «Этические проблемы применения искусственного интеллекта в здравоохранении». В рамках мероприятия спикеры обсудили как ИИ поможет решить ряд важнейших задач в здравоохранении и какие может нести за собой этические сложности.
В своем вступительном слове Ольга Кобякова, д.м.н., профессор, директор ЦНИИОИЗ сказала, что поддерживает развитие искусственного интеллекта. Она отметила, что «сегодня важно думать, спорить и обсуждать все те риски, которые возникают с активным распространением технологий ИИ. Независимо от того, к какому «лагерю» принадлежит каждый из нас, нам предстоит выработать нормативное урегулирование этого вопроса, обеспечить безопасность наших пациентов, а также улучшить качество медицинской помощи. Мы живем во времена, когда биоэтика переживает второе рождение и мы задаем себе вопросы, о которых еще 50 лет назад не могли и подумать».
Указом Президента РФ от 10.10.2019 г. №490 «О развитии искусственного интеллекта в РФ» были сформированы базовые принципы развития ИИ в России:
ИИ-продукты должны быть безопасными;
ИИ-продукты должны быть понятными с точки зрения принятия решений;
Россия должна иметь технологический суверенитет;
Целостность инновационного цикла;
Поддержка конкуренции.
Ключевой целью стандартов стало определение методологических основ технических и клинических испытаний систем ИИ. Россия одной из первых в мире сформулировала пять рисков и угроз, которые сопровождают внедрение «цифры» в жизнь:
дискриминация;
потеря приватности;
потеря контроля над ИИ;
причинение вреда человеку ошибками алгоритма;
применение в неприемлемых целях.
Александр Гусев, член Набсовета Ассоциации НБМЗ, директор по развитию проекта Webiomed, главный специалист, эксперт в области применения искусственного интеллекта ЦНИИОИЗ рассказал о том, что проблема доверия к технологиям в наши дни действительно существует и выделил два ключевых направления обеспечения доверия: доверие с точки зрения безопасности и доверие с точки зрения доказательств эффективности.
Существуют 3 «кита» доверия к разработчику программных продуктов на основе ИИ-технологий:
Доверие к производителю. Независимая сертификация разработчика на наличие системы менеджмента качества.
Доверие к методикам. Развитие опыта и экспертизы в части оценки безопасности и клинической эффективности СИИ на независимых наборах данных.
Доверие к эксплуатации. Постоянный автоматический контроль качества работы ИИ-моделей на основе эталонных дата-сетов.

Александр Панов, партнер практики Здравоохранение и технологии BGP LITIGATION, преподаватель НИУ ВШЭ, основатель и председатель академического совета магистерской программы «Правовое регулирование в фармацевтике и биотехнологиях» НИУ ВШЭ, член экспертного совета комитета по здравоохранению Совета Федераций рассказал об ответственности, которая может замедлять внедрение инноваций, искусственного интеллекта, аналитических систем и т.д.
«Важно выработать общую схему распределения ответственности. От производителя и вплоть до медицинского работника. То как мы построим модель ответственности – это очень важный момент и по сути он предопределит судьбу будущих решений и доверия медицинского сообщества к этим решениям. Чем больше правовой определенности в этой области, тем больше у нас шансов быстрее внедрить все необходимые решения».
По итогам конференции спикеры пришли к выводу о необходимости создания единых этических норм использования технологий искусственного интеллекта, а также четкой модели распределения ответственности в сфере распространения цифровых технологий в медицине.