Искусственный интеллект в медицине – юридические особенности

Внедрение ИИ в сферу здравоохранения происходит быстрей, чем совершенствуется законодательство, связанное с этим процессом, что приводит к различным проблемам правоприменения. В частности, при ошибках ИИ, при защите персональных данных и во взаимоотношениях между медицинским персоналом и искусственным интеллектом.
Где внедряют искусственный интеллект в медицине?
В медицине ИИ используют:
Для обработки и анализа данных.
Постановки диагноза на основе полученной информации.
Прогноза лечения.
Формирования рекомендаций врачам.
Административной работы (запись на прием, классификация, чат-боты для взаимодействия с пациентами и пр.).
ИИ позволяет снять нагрузку на медперсонал и ускорить множество процессов. Так, скорость диагностики с использованием искусственного интеллекта возрастает на 50 %. Особо существенных результатов удается добиться в областях, где важен визуальный анализ: обработка и сравнение результатов КТ, МРТ, рентгена.
ИИ активно используют при разработке новых лекарственных препаратов благодаря быстроте анализа химических соединений и биоданных.
Проблемы применения ИИ в медицине
"В РФ отсутствует нормативная база, которая бы регулировала полностью порядок применения искусственного интеллекта и робототехники. Пока за основу в этой сфере берут ФЗ РФ № 323 (от 21.11.2011), где изложены задачи и структура внедряемой в здравоохранение единой информационной системы. Но отсутствуют нормативные акты, которые бы регламентировали вопросы использования ИИ при оказании медпомощи, где бы цифровые технологии рассматривались в комплексе", — отмечают медицинские юристы из компании ЮАП https://pravo.legal/.
Защита данных

Применение искусственного интеллекта направлено больше на поддержку решений лечащих врачей путем диагностики. Это связано с обработкой и хранением больших объемов информации, включая личные данные. В результате повышается риск утечки конфиденциальных сведений из-за возможности несанкционированного доступа к ним. Проблему можно решить путем обезличивания данных, но даже они считаются персональными.
В соответствии с ФЗ РФ № 152 (от 27.07.2006), обрабатывать обезличенную персональную информацию можно без согласия лица, которому она принадлежит с целью анализа статистических данных. Но на сведения о здоровье пациентов эта норма не распространяется. Правда, имеется исключение. В сфере медицины такие данные может обрабатывать профессиональный врач для постановки медицинского диагноза. Естественно, этот врач обязан сохранять врачебную тайну и не имеет права разглашать полученные данные. Но в законах ничего не сказано о том, как можно для этих целей привлекать ИИ без правовых последствий.
Искусственный интеллект необходимо обучить. В связи с этим опять возникает проблема сохранения персональных данных. Разработать эффективную для здравоохранения модель ИИ можно только, используя реальные истории болезней, результаты обследований. Это порождает пока нерешенные вопросы правового и этического характера.

Проблема стадии разработок
Еще одна крупная проблема – отсутствие четких правовых границ для разработчиков ИИ. Эта сфера претерпевает быстрые изменения, благодаря чему уже существует множество систем диагностики и пр. Но для разработчиков не сформулированы четкие правила.
Нужны стандарты, которые могли бы охватить многообразие предложенных ИИ-систем, разделить их по степени риска, А также отсечь алгоритмы обучения искусственного интеллекта, выполненные с применением непроверенных, ненаучных данных.
Отношения с медработниками
С широким применением ИИ связана проблема отношений с медперсоналом. Зачастую медработники сопротивляются внедрению искусственного интеллекта, элементов робототехники, т.к. опасаются, что их услуги окажутся из-за этого невостребованными.
Поэтому нужны четкие нормативы, в которых бы закреплялся приоритет человека-врача так, чтобы ИИ помогал в постановке диагноза, но последнее слово оставалось бы за специалистом.
Возможная ответственность
Сложной с правовой точки остается проблема ответственности за неправильно назначенное лечение, неправильные диагнозы, поставленные с применением искусственного интеллекта. Если причинен вред, не понятно, кто должен нести ответственность: разработчик ИИ-системы, ее изготовитель или использовавший врач.
Все возможные варианты необходимо закрепить законодательно. Причем, должна быть предусмотрена уголовная, административная и гражданско-правовая ответственность с внесением изменений в кодексы РФ. Но принятие новых законов затруднено тем, что алгоритмы ИИ, которые он использует, не всегда понятны человеку. Сложно определить меры ответственности, если не ясен путь решения задачи.

Сертификация и лицензирование
Оформление разрешительных документов для ИИ-систем требует особых подходов. Это связано с возможностью искусственного интеллекта обучаться уже после внедрения. Т.е. стандартная процедура для этого не подходит. Каждую систему нужно оценивать отдельно и не единожды даже после лицензирования или сертификации.
Для этого требуются российские стандарты. А они, в свою очередь, должны создаваться с учетом международных стандартов.
Автор: Мария Зыкина