В эксперименте нейросеть ChatGPT успешно справилась с вопросами о вакцине против Covid-19. Хотя ответы генеративного искусственного интеллекта развенчивали мифы и опровергали выдумки о прививках, у исследователей остаются опасения.
В 2019 году ВОЗ назвала недоверие к вакцинам одной из десяти главных проблем здравоохранения. В организации отметили, что нежелание прививаться «может обратить вспять тот прогресс, который был достигнут в борьбе с болезнями, предупреждаемыми с помощью вакцин». Во время пандемии Covid-19 дезинформация в социальных сетях ухудшила отношение людей к вакцинации и другим мерам борьбы с коронавирусом.
Группа ученых из Испании решила проверить, что получится, если для борьбы с лженаучными идеями о прививках использовать популярный чат-бот ChatGPT. Для этого исследователи задали нейросети 50 самых частых вопросов о вакцине против Covid-19, которые поступали в ВОЗ. Некоторые из них касались распространенных заблуждений и мифов. Например, может ли мРНК вакцины встраиваться в геном человека или вызывать «продолжительный» Covid-19. Кроме того, вопросы затрагивали ложные и истинные противопоказания, а также рекомендации по прививкам.
Ученые оценили достоверность и точность ответов, проанализировали их соответствие научным данным, рекомендациям ВОЗ и других международных организаций. Большинство ответов ChatGPT набрали девять баллов из десяти возможных, 85,5% из них были точными, а 14,5% — «точными, но с пробелами в информации», которые нуждались в дополнении.
Исследователи отметили, что поскольку сообщения чат-бота отвечают научным данным и развенчивают циркулирующие в соцсетях мифы, ChatGPT может способствовать росту числа вакцинированных.
«Результаты говорят, что, несмотря на неполноту ответов по умолчанию в текущей версии ChatGPT, в целом они удовлетворительны. Хотя ChatGPT не может заменить эксперта или сами научные данные, эта форма искусственного интеллекта (многие ученые не согласны с тем, что ChatGPT — ИИ, классифицируя его как „китайскую комнату“. — Прим. ред.) способна направлять пользователей к информации, которая хорошо согласуется с научными данными», — говорится в работе, опубликованной в журнале Human Vaccines and Immunotherapeutics.
Однако ученые не забыли и о недостатках ChatGPT. Ведущий автор работы Антонио Салас (Antonio Salas) указал, что чат-бот отвечает по-разному, если повторять вопрос с задержкой в несколько секунд.
Профессор Салас предостерег, что в нынешней версии ИИ-систему можно обучить и обратному, то есть давать ответы, противоречащие научным данным. В таком случае чат-бот способен продвигать ложные взгляды вроде гипотез о плоской Земле или отрицании эволюции. Впрочем, исследователи обнадежили: по умолчанию нейросеть к такому поведению не склонна.