logo
1 °C

Искусственный интеллект в медицине – юридические особенности

Искусственный интеллект в медицине – юридические особенности
16.03.2022 в 12:08Источник фото: Нейросесть ChatGPT

Внедрение ИИ в сферу здравоохранения происходит быстрей, чем совершенствуется законодательство, связанное с этим процессом, что приводит к различным проблемам правоприменения. В частности, при ошибках ИИ, при защите персональных данных и во взаимоотношениях между медицинским персоналом и искусственным интеллектом.

Где внедряют искусственный интеллект в медицине?

В медицине ИИ используют:

  • Для обработки и анализа данных.

  • Постановки диагноза на основе полученной информации.

  • Прогноза лечения.

  • Формирования рекомендаций врачам.

  • Административной работы (запись на прием, классификация, чат-боты для взаимодействия с пациентами и пр.).

ИИ позволяет снять нагрузку на медперсонал и ускорить множество процессов. Так, скорость диагностики с использованием искусственного интеллекта возрастает на 50 %. Особо существенных результатов удается добиться в областях, где важен визуальный анализ: обработка и сравнение результатов КТ, МРТ, рентгена.

ИИ активно используют при разработке новых лекарственных препаратов благодаря быстроте анализа химических соединений и биоданных.

Проблемы применения ИИ в медицине

"В РФ отсутствует нормативная база, которая бы регулировала полностью порядок применения искусственного интеллекта и робототехники. Пока за основу в этой сфере берут ФЗ РФ № 323 (от 21.11.2011), где изложены задачи и структура внедряемой в здравоохранение единой информационной системы. Но отсутствуют нормативные акты, которые бы регламентировали вопросы использования ИИ при оказании медпомощи, где бы цифровые технологии рассматривались в комплексе", — отмечают медицинские юристы из компании ЮАП https://pravo.legal/.

Защита данных

Источник фото: Нейросесть ChatGPT

Применение искусственного интеллекта направлено больше на поддержку решений лечащих врачей путем диагностики. Это связано с обработкой и хранением больших объемов информации, включая личные данные. В результате повышается риск утечки конфиденциальных сведений из-за возможности несанкционированного доступа к ним. Проблему можно решить путем обезличивания данных, но даже они считаются персональными.

В соответствии с ФЗ РФ № 152 (от 27.07.2006), обрабатывать обезличенную персональную информацию можно без согласия лица, которому она принадлежит с целью анализа статистических данных. Но на сведения о здоровье пациентов эта норма не распространяется. Правда, имеется исключение. В сфере медицины такие данные может обрабатывать профессиональный врач для постановки медицинского диагноза. Естественно, этот врач обязан сохранять врачебную тайну и не имеет права разглашать полученные данные. Но в законах ничего не сказано о том, как можно для этих целей привлекать ИИ без правовых последствий.

Искусственный интеллект необходимо обучить. В связи с этим опять возникает проблема сохранения персональных данных. Разработать эффективную для здравоохранения модель ИИ можно только, используя реальные истории болезней, результаты обследований. Это порождает пока нерешенные вопросы правового и этического характера.

Источник фото: Нейросесть ChatGPT

Проблема стадии разработок

Еще одна крупная проблема – отсутствие четких правовых границ для разработчиков ИИ. Эта сфера претерпевает быстрые изменения, благодаря чему уже существует множество систем диагностики и пр. Но для разработчиков не сформулированы четкие правила.

Нужны стандарты, которые могли бы охватить многообразие предложенных ИИ-систем, разделить их по степени риска, А также отсечь алгоритмы обучения искусственного интеллекта, выполненные с применением непроверенных, ненаучных данных.

Отношения с медработниками

С широким применением ИИ связана проблема отношений с медперсоналом. Зачастую медработники сопротивляются внедрению искусственного интеллекта, элементов робототехники, т.к. опасаются, что их услуги окажутся из-за этого невостребованными.

Поэтому нужны четкие нормативы, в которых бы закреплялся приоритет человека-врача так, чтобы ИИ помогал в постановке диагноза, но последнее слово оставалось бы за специалистом.

Возможная ответственность

Сложной с правовой точки остается проблема ответственности за неправильно назначенное лечение, неправильные диагнозы, поставленные с применением искусственного интеллекта. Если причинен вред, не понятно, кто должен нести ответственность: разработчик ИИ-системы, ее изготовитель или использовавший врач.

Все возможные варианты необходимо закрепить законодательно. Причем, должна быть предусмотрена уголовная, административная и гражданско-правовая ответственность с внесением изменений в кодексы РФ. Но принятие новых законов затруднено тем, что алгоритмы ИИ, которые он использует, не всегда понятны человеку. Сложно определить меры ответственности, если не ясен путь решения задачи.

Источник фото: Нейросесть ChatGPT

Сертификация и лицензирование

Оформление разрешительных документов для ИИ-систем требует особых подходов. Это связано с возможностью искусственного интеллекта обучаться уже после внедрения. Т.е. стандартная процедура для этого не подходит. Каждую систему нужно оценивать отдельно и не единожды даже после лицензирования или сертификации.

Для этого требуются российские стандарты. А они, в свою очередь, должны создаваться с учетом международных стандартов.

Автор: Мария Зыкина