Группа исследователей из Центра искусственного интеллекта НИУ ВШЭ разработала индекс для определения уровня этичности систем искусственного интеллекта в медицине. Инструмент предназначен для минимизации потенциальных рисков, обеспечения безопасной разработки и внедрения ИИ-технологий в медицинскую практику.
Стремительный рост использования ИИ-технологий в различных сферах жизни, в том числе медицине, сопровождается появлением новых рисков, связанных не только с информационной безопасностью, экономическими или социальными вопросами, но и с этическими проблемами. Действующие стандарты и имеющаяся на данный момент регуляторика недостаточно учитывают именно этические аспекты, поэтому возникла необходимость в создании специализированного инструмента для соответствующей оценки ИИ-систем.
Команда проекта «Этическая экспертиза в сфере ИИ» Центра ИИ НИУ ВШЭ провела комплексную работу, состоящую из двух этапов: теоретического и практического. Сначала исследователи на основе анализа большого количества как отечественных, так и международных документов выделили и дали определение ключевых принципов профессиональной медицинской этики. Это автономия, благодеяние, справедливость, ненанесение вреда и забота. После этого было проведено качественное полевое исследование среди врачей и разработчиков ИИ, позволившее конкретизировать эти принципы и дополнить их новыми принципами, используя методику глубинного полуструктурированного интервью.
В результате исследования был создан чат-бот «Индекс этичности систем искусственного интеллекта в медицине», который в режиме 24/7 позволяет проводить процедуру самооценки и получать мгновенную обратную связь от разработчиков индекса. Методика оценки представляет собой тест с вопросами закрытого типа, призванными оценить уровень осведомленности как разработчиков медицинского ИИ, так и самих эксплуатантов ИИ-системы о возможных этических рисках, связанных с разработкой, внедрением и использованием ИИ-систем в медицинских целях.
Новая методика уже апробирована и получила признание ряда ведущих IT-компаний, таких как MeDiCase и Globus IT, специализирующихся на разработке ИИ-решений для медицины. Кроме того, ее одобрила Комиссия по реализации Кодекса этики в сфере искусственного интеллекта и Московское городское научное общество терапевтов.
«Разработка данного индекса стала важным шагом на пути обеспечения этичного использования ИИ в медицине. Мы надеемся, что наша разработка будет небесполезной для медицинского сообщества, обеспокоенного, как показывают наши исследования, возможными негативными именно этическими последствиями широкого внедрения ИИ в медицинскую практику», — подчеркивает руководитель проекта, профессор, заместитель директора Центра трансфера и управления социально-экономической информацией НИУ ВШЭ Анастасия Углева.
Ожидается, что индекс будет востребован этическими комиссиями, судебно-медицинским экспертным сообществом и другими организациями, ответственными за оценку и сертификацию ИИ. Он также будет способствовать переходу от принципа единоличной ответственности медицинского работника к модели распределенной ответственности всех участников процесса. Внедрение этого индекса поможет сделать использование ИИ более безопасным и соответствующим высоким этическим стандартам.
Методические рекомендации «Индекс этичности систем искусственного интеллекта в медицине» зарегистрированы в НИУ ВШЭ в качестве результата интеллектуальной деятельности.