ВОЗ разработала этические принципы использования ИИ в сфере здравоохранения
Всемирная организация здравоохранения подготовила руководящий документ, в котором излагаются 6 ключевых принципов этичного использования искусственного интеллекта в сфере медицины. Разработкой этого документа занималось 20 экспертов, которые потратили на это 2 года. Данное руководство стало первым консенсусным отчетом по этике использования ИИ в медицинских учреждениях.
В документе подчеркиваются перспективы ИИ в области здравоохранения и его потенциал для помощи врачам в лечении пациентов, особенно в районах с ограниченными ресурсами. Но он также подчеркивает, что подобные технологии не являются быстрым решением проблем здравоохранения, особенно в странах с низким и средним уровнем доходов, и что правительства и регулирующие органы должны тщательно изучить, где и как ИИ используется в здравоохранении.
Отметим, в последние несколько лет системы искусственного интеллекта начали все чаще применяться в медицине и соответствующих исследования:
- ИИ-алгоритм компании IBM способен прогнозировать рак молочной железы за год до его появления с точностью 87%;
- ИИ превзошел квалифицированных докторов в распознавании рака кожи;
- Google Health и Mayo Clinic используют ИИ для дальнейших исследований в области лечения рака;
- Microsoft разработала систему ИИ, которая упрощает диагностику рака шейки матки;
- Система ИИ Google DeepMind доказала свою эффективность в диагностике рака молочной железы.
ВОЗ надеется, что 6 разработанных принципов могут стать основой подхода правительств, разработчиков и регулирующих органов к технологии ИИ. Пока что технологии искусственного интеллекта в здравоохранении все еще новы, и многие правительства, регулирующие органы и медицинские учреждения пока не знают, как их оценивать и управлять ими. В публикации ВОЗ говорится, что вдумчивый и взвешенный подход поможет избежать потенциального вреда.
ВОЗ предлагает следующие 6 шесть этических принципов в своем руководстве:
Защита автономии: люди должны иметь надзор и последнее слово за всеми решениями, касающимися здоровья. Решения не должны приниматься исключительно машинами, а врачи должны иметь возможность отменять их в любое время. ИИ не должен использоваться для оказания помощи кому-либо без их согласия, а данные пациентов должны быть защищены.
Обеспечение безопасности человека: разработчики должны постоянно отслеживать любые инструменты искусственного интеллекта, чтобы убедиться, что они работают должным образом и не причиняют вреда.
Обеспечение прозрачности: разработчики должны публиковать информацию об архитектуре инструментов искусственного интеллекта. Системы ИИ критикуют за то, что они представляют собой «черные ящики», а исследователям и врачам слишком сложно понять, как они принимают решения. ВОЗ хочет видеть достаточную прозрачность, чтобы системы ИИ могли быть полностью поняты и доступны для проверки пользователям и регулирующим органам.
Стимулирование ответственности: когда что-то идет не так с технологией ИИ, например, если решение, принятое инструментом, приводит к причинению вреда пациенту, должны быть механизмы, определяющие, кто несет ответственность (например, производители и клинические пользователи).
Обеспечение справедливости: инструменты быть доступны на нескольких языках и обучены работе с различными наборами данных. В последние несколько лет тщательное изучение общих алгоритмов в здравоохранении показало, что некоторые из них имеют расовую предвзятость.
Продвижение устойчивых систем ИИ: разработчики должны иметь возможность регулярно обновлять свои инструменты, а учреждения должны иметь возможность корректировать работу, если инструмент кажется неэффективным. Учреждения или компании также должны внедрять только те инструменты, которые можно отремонтировать, даже в системах здравоохранения с ограниченными ресурсами.