• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
16.09.2025, 11:56
Александр Березин
8
5,3 тыс

Исследователи из OpenAI показали неустранимость галлюцинаций нейросетей

❋ 4.9

Периодически нейросети в своих ответах галлюцинируют, предлагая пользующимися их услугами людям выпить яд под видом лекарства и так далее. Новая научная работа показала, что эта проблема связана с самой природой нейросети. Хотя ее вероятность можно понизить, устранить полностью невозможно.

Руководство OpenAI делает ставку на массовое использование нейросетей для замены человеческого труда, в частности. в программировании. Работа исследователей из той же компании показывает, что у таких подходов есть очень существенные и неустранимые проблемы / © Open AI

От способности нейросетей работать надежно зависит не просто чат обычных пользователей с ними, но и выживание ряда людей. Кто-то погибает из-за некорректных советов больших языковых моделей типа ChatGPT, кто-то может умереть из-за галлюцинации нейросети, управляющей автопилотом — тот, например, может принять обочину за дорогу и в итоге увести машину прямо в дерево (речь идет о гипотетическом случае). Учитывая, что такой автопилот стоит как подержанное авто, ясно, что подобные записи существенно снижают привлекательность автопилота для разумных потребителей.

Авторы новой работы, которую они выложили на сервер препринтов Корнеллского университета, решили выяснить, возможно ли в принципе решить проблему подобных галлюцинаций и сколько это будет стоить. Оказалось, что причины возникновения галлюцинаций разнообразны и полное их подавление поэтому нереалистично.

Во-первых, ошибки неизбежно содержатся в обучающей выборке текстов (или, в случае нейросетей для вождения, видеозаписей того, как водят реальные люди). Выборка может быть свободной от ошибок, только если она очень мала, а на такой нельзя построить работоспособную нейросеть в принципе.

Во-вторых, даже существуй некая большая выборка с нулевым количеством ошибок, это не решило бы проблему. В случае языковых моделей сам метод генерации их выдачи провоцирует галлюцинации. Они «предсказывают» каждое следующее слово в предложении, основываясь на вероятностях. В предложениях много слов, а вероятность ошибок нарастает с каждым последующим.

Вдобавок добавление каждого слова дает определенные оттенки смысла, а с ними растет и вероятность ошибки. Если бы нейросети задавали вопросы, требуя лишь ответа «да»/»нет«, вероятность неверного ответа была, как показали исследователи, как минимум вдвое ниже. Именно бинарная классификация удается им лучше всего.

Только у одной нейросети среди пользователей уже почти каждый десятый землянин. Нет сомнений, что в конечном счете ими станет большинство. Это порождает серьезную угрозу использования галлюцинаторной информации больших языковых моделей миллионами людей / © Open AI

В-третьих, крайне трудно устранимым источником галлюцинаций оказались системы тестирования нейросетей. Любая из них может достигнуть нулевой частоты галлюцинаций, если ее жестко «наказывать» за неправильные ответы, снижая баллы. Чтобы повысить их, нейросеть быстро начнет писать «Я не знаю» в ответ на любой вопрос, который не содержался в ее обучающей выборке. Но в таком случае она будет отвечать «Я не знаю» в очень большом числе случаев (десятки процентов). С точки зрения стандартного потребителя переход от нейросети, уверенно рассуждающей на нужную ему тему, к той, что в каждом четвертом случае станет генерировать «Я не знаю», будет снижением качества продукта.

Естественно, создатели языковых моделей стараются избежать такого, и их системы оценки выдачи нейросети «штрафуют» ее низкими баллами за частые ответы «Я не знаю». Это и становится третьим источником галлюцинаций: нейросети выгоднее сказать что угодно, потому что она может или угадать случайно, или оценивающие ее люди либо программы не смогут понять ее ошибку. Такое поведение часто демонстрируют студенты, пытающиеся прорваться через экзамен по сложному предмету «на шару».

Исследователи предположили, что можно частично обойти эту проблему — скажем, побуждая языковую модель задавать уточняющие вопросы в тех случаях, когда она не уверена в ответе. Метод рабочий, но чрезвычайно быстро повышающий вычислительные усилия, нужные на один ответ. Такое может быть оправдано в сложных отраслях с высокой ценой ошибки, но в условно-бесплатном чат-боте окупить его будет непросто.

Все это означает, что на практике нейросети без галлюцинаций предельно маловероятны и в будущем. Соответственно, нужно строить их использование с учетом практической неустранимости галлюцинаций, не полагаться на их ответы в тех случаях, когда цена ошибки может быть слишком высока. Это ставит под вопрос эффективность нейросетей и в области автопилота. Но окончательно разрешить сомнения по этому поводу может только практика ближайших лет.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
29 апреля, 11:03
Татьяна Зайцева

Ученые смогли установить, что обломки затонувшего корабля, обнаруженные на морском дне возле испанского города Кадис, принадлежали генуэзскому торговому судну. Его потопили в 1587 году, во время налета на город английской эскадры под командованием Фрэнсиса Дрейка.

29 апреля, 14:23
Игорь Байдов

Ученые, похоже, приблизились к разгадке происхождения пшеницы мягкой — той самой, из которой делают большую часть хлеба и другие мучные изделия. Согласно авторам нового исследования, она, предположительно, появилась 8000 лет назад на территории современной Грузии и Армении.

29 апреля, 15:33
Игорь Байдов

Клешни и жало скорпионов имеют участки, усиленные металлами. Авторы нового исследования выяснили, что в этих структурах содержатся строго определенные элементы — это напрямую связано с тем, как разные виды охотятся и защищаются.

23 апреля, 18:34
Александр Березин

В последнее время пуски с российских северных космодромов осуществляют без предварительного уведомления, чего не было в прошлом. Вероятно, дело в недавно упомянутых главой «Роскосмоса» атаках на Плесецк во время пуска. Сегодняшний запуск обеспечил вывод на орбиту космических аппаратов военного назначения.

24 апреля, 09:58
Максим Абдулаев

Палеонтологи описали новый вид хищного клопа из мелового периода, передние лапы которого эволюционировали в клешни-пинцеты. Подобная анатомическая трансформация стала лишь четвертым задокументированным случаем за всю историю насекомых. Ископаемый вид получил название в честь корейской поп-группы Stray Kids из-за характерного положения застывших в смоле конечностей.

29 апреля, 13:04
Александр Березин

Релиз довольно неожиданно перенес время образования протонов и нейтронов в более раннее прошлое Вселенной. К сожалению, из его текста осталось неясным научное обоснование таких фундаментальных изменений в космологии. Также он резко передвинул в прошлое и момент возникновения реликтового излучения.

23 апреля, 18:34
Александр Березин

В последнее время пуски с российских северных космодромов осуществляют без предварительного уведомления, чего не было в прошлом. Вероятно, дело в недавно упомянутых главой «Роскосмоса» атаках на Плесецк во время пуска. Сегодняшний запуск обеспечил вывод на орбиту космических аппаратов военного назначения.

5 апреля, 15:48
Александр Березин

Четыре человека, летящие к Луне, столкнулись с целым рядом мелких неприятностей — от низкой температуры в начале работы до поломки мочевыводящей системы туалета на вторые сутки и необходимости взамен пользоваться пакетами. К счастью, пока самые крупные сложности удалось компенсировать. Но все они вместе могут сдвинуть ситуацию к решению, о котором Naked Science уже говорил в нашем видеоподкасте о миссии: не исключено, что при высадке астронавтов на Луне их корабль состыкуют со Starship не на окололунной, а уже на околоземной орбите.

10 апреля, 10:51
Татьяна Зайцева

Когда международная экспедиционная группа, исследующая море Уэдделла в Антарктиде на борту ледокола «Поларштерн», попыталась укрыться от шторма, ученые и экипаж судна удивились внезапному появлению острова, не обозначенного ни на одной морской карте.

[miniorange_social_login]

Комментарии

8 Комментариев
-
0
+
Да что доказывать когда в базе технологии нейронок это и так заложено, это всего лишь вероятнтстные машины, Т9 на стероидах, авторы вы когда подобное публикуете хотябы элементарную логику включали а не выдавали корпоративный пиар за сенсацию.
Dron N
16.09.2025
-
4
+
Суть оригинальной работы была в демистификации галлюцинаций и демонстрации того, что текущий подход к требованию обязательного ответа приводит к увеличению галлюцинаций. Авторы описывают способы их уменьшения путём изменения бенчмарков, чтобы поощрялись ответы "я не знаю" когда модель не уверена, предлагают вводить пороги уверенности. Данная же статья ничего этого не отметила и в целом сильно манипулятивна и спекулятивна, основным выводом сделала якобы невозможность устранения галлюцинаций. Много других неточностей. Про уточняющие вопросы и рост вычислительной сложности в статье в таком виде ничего нет - похоже на галлюцинацию. Также в статье ничего нет про автопилоты. У них, насколько я знаю, множество дополнительных систем контроля и те методы поощрения неуверенности как раз в какой-то степени там и имплементированы. > "крайне трудно устранимым источником галлюцинаций оказались системы тестирования нейросетей. Любая из них может достигнуть нулевой частоты галлюцинаций, если ее жестко «наказывать» за неправильные ответы, снижая баллы. Чтобы повысить их, нейросеть быстро начнет писать «Я не знаю» в ответ на любой вопрос, который не содержался в ее обучающей выборке. Но в таком случае она будет отвечать «Я не знаю» в очень большом числе случаев (десятки процентов). С точки зрения стандартного потребителя переход от нейросети, уверенно рассуждающей на нужную ему тему, к той, что в каждом четвертом случае станет генерировать «Я не знаю», будет снижением качества продукта." В статье этого нет, нет приведенных процентов. Похоже на галлюцинацию. Как раз существующие тесты жёстко наказывают ошибки, не поощряют неуверенность и авторы описывают способы улучшения тестов. В общем, много драматизации про яды и автопилотов, видно что восприятие автора искажает факты и пересказ научных работ. Вместо того, чтобы отметить в целом бОльшую безопасность автопилотов по сравнению с людьми (кроме случаев плохого освещения), запугивает читателей ужасным ИИ.
    Dron, любой читатель может прочитать статью по ссылке и заметить, что вы неправы. Например, что неизбежность галлюцинаций отмечена авторами работы по ссылке легко убедится любой, владеющий английским хотя бы на уровне шестиклассника. "Также в статье ничего нет про автопилоты." В работе -- нет. В новостной статье выше -- конечно есть, контекст же мы должны дать. "У них, насколько я знаю, множество дополнительных систем контроля и те методы поощрения неуверенности как раз в какой-то степени там и имплементированы." Да-да. И торможения перед пустым месте на трассе оттуда же. Но галлюцинации почему-то не удалось ликвидировать и там. Даже введя торможения перед пустым местом, создающим риск въезжания в машину того, кто едет сзади за ней.
    +
      ещё комментарии
      Dron N
      16.09.2025
      -
      1
      +
      Александр, основной вывод их работы в неизбежности галлюцинаций или может в способе их формализовать и предложенных способах их преодоления? Может вы исказили суть их работы всё-таки, придумав несуществующие там выводы?
        Dron, "основной вывод их работы в неизбежности галлюцинаций или может в способе их формализовать и предложенных способах их преодоления? " В разделе "Выводы" в работе нет формально нет ни того, ни другого: "This paper demystifies hallucinations in modern language models, from their origin during pretraining to their persistence through post-training. In pretraining, we show that generative errors parallel misclassifications in supervised learning, which are not mysterious, and naturally arise due to the minimization of cross-entropy loss..." и т.д. Там есть предположение, что предложенный ими подход может в будущем открыть дорогу к подавлению галлюцинаций. Но не к их полному исчезновению. Если просто пересказать куски из статьи не дав контекст, итоговая новость будет бесполезна, потому что читатель ее не поймет. Хотите этого? Читайте только ссылку на работу из моих новостей. Остальные читатели ознакомятся с контекстом.
          Dron N
          16.09.2025
          -
          1
          +
          Александр, потому что учёные не мыслят настолько категорично без серьёзных к тому оснований. Будет исследование, будут результаты. Было бы крайне неосмотрительно заявлять, что их подход всё решит, но и утверждать что их статья "показала неустранимость галлюцинаций" - искажение фактов. Они вполне ясно выразились "это может устранить препятствия к подавлению галлюцинаций и открыть дверь для будущей работы над нюансированными языковыми моделями, например, с более богатой прагматической компетенцией". Я хочу чтоб не перевирался посыл исходных статей из-за предвзятости, только и всего.
      Paidamart
      16.09.2025
      -
      1
      +
      Александр, автопилоты не являются языковыми моделями и поэтому явление галлюцинаций присущих именно LLM им не присущи. Поэтому приписывать в эту статью про галлюцинации больших языковых моделей - автопилоты неправильно. У них есть свои ошибки но это не галлюцинации а не верно интерпретированные показатели с камер. Проще говоря этот пример с автопилотами вообще не про ЛЛМ модели потому что автопилоты устроены по другому и намного сложнее.
    Dron, ни одна нейросеть не способна повторить автора NS 😁 Автор берет оригинальную статью лишь за основу а все остальное его собственные умозаключения. Таков путь.
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Комментарий на проверке

Что-то в вашем комментарии показалось подозрительным, поэтому перед публикацией он пройдет модерацию.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Закрыть
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно