• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
16 сентября, 11:56
Александр Березин
8
5,1 тыс

Исследователи из OpenAI показали неустранимость галлюцинаций нейросетей

❋ 4.9

Периодически нейросети в своих ответах галлюцинируют, предлагая пользующимися их услугами людям выпить яд под видом лекарства и так далее. Новая научная работа показала, что эта проблема связана с самой природой нейросети. Хотя ее вероятность можно понизить, устранить полностью невозможно.

Руководство OpenAI делает ставку на массовое использование нейросетей для замены человеческого труда, в частности. в программировании. Работа исследователей из той же компании показывает, что у таких подходов есть очень существенные и неустранимые проблемы / © Open AI

От способности нейросетей работать надежно зависит не просто чат обычных пользователей с ними, но и выживание ряда людей. Кто-то погибает из-за некорректных советов больших языковых моделей типа ChatGPT, кто-то может умереть из-за галлюцинации нейросети, управляющей автопилотом — тот, например, может принять обочину за дорогу и в итоге увести машину прямо в дерево (речь идет о гипотетическом случае). Учитывая, что такой автопилот стоит как подержанное авто, ясно, что подобные записи существенно снижают привлекательность автопилота для разумных потребителей.

Авторы новой работы, которую они выложили на сервер препринтов Корнеллского университета, решили выяснить, возможно ли в принципе решить проблему подобных галлюцинаций и сколько это будет стоить. Оказалось, что причины возникновения галлюцинаций разнообразны и полное их подавление поэтому нереалистично.

Во-первых, ошибки неизбежно содержатся в обучающей выборке текстов (или, в случае нейросетей для вождения, видеозаписей того, как водят реальные люди). Выборка может быть свободной от ошибок, только если она очень мала, а на такой нельзя построить работоспособную нейросеть в принципе.

Во-вторых, даже существуй некая большая выборка с нулевым количеством ошибок, это не решило бы проблему. В случае языковых моделей сам метод генерации их выдачи провоцирует галлюцинации. Они «предсказывают» каждое следующее слово в предложении, основываясь на вероятностях. В предложениях много слов, а вероятность ошибок нарастает с каждым последующим.

Вдобавок добавление каждого слова дает определенные оттенки смысла, а с ними растет и вероятность ошибки. Если бы нейросети задавали вопросы, требуя лишь ответа «да»/»нет«, вероятность неверного ответа была, как показали исследователи, как минимум вдвое ниже. Именно бинарная классификация удается им лучше всего.

Только у одной нейросети среди пользователей уже почти каждый десятый землянин. Нет сомнений, что в конечном счете ими станет большинство. Это порождает серьезную угрозу использования галлюцинаторной информации больших языковых моделей миллионами людей / © Open AI

В-третьих, крайне трудно устранимым источником галлюцинаций оказались системы тестирования нейросетей. Любая из них может достигнуть нулевой частоты галлюцинаций, если ее жестко «наказывать» за неправильные ответы, снижая баллы. Чтобы повысить их, нейросеть быстро начнет писать «Я не знаю» в ответ на любой вопрос, который не содержался в ее обучающей выборке. Но в таком случае она будет отвечать «Я не знаю» в очень большом числе случаев (десятки процентов). С точки зрения стандартного потребителя переход от нейросети, уверенно рассуждающей на нужную ему тему, к той, что в каждом четвертом случае станет генерировать «Я не знаю», будет снижением качества продукта.

Естественно, создатели языковых моделей стараются избежать такого, и их системы оценки выдачи нейросети «штрафуют» ее низкими баллами за частые ответы «Я не знаю». Это и становится третьим источником галлюцинаций: нейросети выгоднее сказать что угодно, потому что она может или угадать случайно, или оценивающие ее люди либо программы не смогут понять ее ошибку. Такое поведение часто демонстрируют студенты, пытающиеся прорваться через экзамен по сложному предмету «на шару».

Исследователи предположили, что можно частично обойти эту проблему — скажем, побуждая языковую модель задавать уточняющие вопросы в тех случаях, когда она не уверена в ответе. Метод рабочий, но чрезвычайно быстро повышающий вычислительные усилия, нужные на один ответ. Такое может быть оправдано в сложных отраслях с высокой ценой ошибки, но в условно-бесплатном чат-боте окупить его будет непросто.

Все это означает, что на практике нейросети без галлюцинаций предельно маловероятны и в будущем. Соответственно, нужно строить их использование с учетом практической неустранимости галлюцинаций, не полагаться на их ответы в тех случаях, когда цена ошибки может быть слишком высока. Это ставит под вопрос эффективность нейросетей и в области автопилота. Но окончательно разрешить сомнения по этому поводу может только практика ближайших лет.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
30 октября, 16:53
ФизТех

Ученые из МФТИ разработали и предложили новую систему единиц для электродинамики, способную примирить два главенствующих, но исторически несовместимых подхода. Эта компромиссная система, названная авторами физико-технической (ФТ), сохраняет практическое удобство Международной системы единиц (СИ), используемой инженерами по всему миру, и в то же время отражает теоретическую стройность и симметрию гауссовой системы (СГС), предпочитаемой физиками-теоретиками.

31 октября, 08:53
Любовь С.

Ученые из коллаборации LIGO, VIRGO и KAGRA впервые зафиксировали гравитационно-волновые события, указывающие на существование черных дыр второго поколения — «потомков» предыдущих слияний. Открытие позволит понять, как именно во Вселенной рождаются сверхмассивные черные дыры.  

29 октября, 08:31
Адель Романова

По расчетам ученых, для высокоразвитой внеземной цивилизации самым разумным было бы обосноваться у самого центра Млечного Пути, на близкой орбите вокруг сверхмассивной черной дыры: там эффект замедления времени позволяет облететь и исследовать Галактику в кратчайшие сроки.

25 октября, 10:40
Любовь С.

Проанализировав данные наблюдений, полученных с помощью наземных обсерваторий за последние два десятилетия, астрономы обнаружили потенциально обитаемый мир — суперземлю Gliese 251 c (GJ 251 с). Планета обращается вокруг красного карлика на расстоянии около 18 световых лет от Земли и считается одним из самых перспективных кандидатов для поисков жизни.

27 октября, 11:44
Илья Гриднев

Исследователи объяснили, как цивилизация майя добивалась высокой точности в предсказании солнечных затмений на протяжении столетий. Для коррекции накапливающихся астрономических неточностей они использовали сложную систему пересекающихся календарных таблиц.

29 октября, 16:24
Юлия Трепалина

В последние годы содержание кошек дома без возможности свободного выгула все чаще преподносят как идеальную модель, которая ограждает дикую фауну от нападений и обеспечивает благополучие самих питомцев. Подобные утверждения в разных частях мира звучат от некоторых защитников природы и представителей властей. Однако группа ветеринаров из Австралии и Дании недавно раскритиковала такой подход. Ученые не спорят с тем, что кошки влияют на уязвимые экосистемы и что ограничение их свободы — действенная мера по смягчению этого эффекта. Тем не менее исследователи настаивают, что жизнь в изоляции для питомцев совсем не благо. Заявляющие обратное как минимум ошибаются, а в худшем случае намеренно вводят общественность в заблуждение.

25 октября, 10:40
Любовь С.

Проанализировав данные наблюдений, полученных с помощью наземных обсерваторий за последние два десятилетия, астрономы обнаружили потенциально обитаемый мир — суперземлю Gliese 251 c (GJ 251 с). Планета обращается вокруг красного карлика на расстоянии около 18 световых лет от Земли и считается одним из самых перспективных кандидатов для поисков жизни.

24 октября, 14:02
РТУ МИРЭА

В современном доме, насыщенном разнообразной техникой, удлинители стали незаменимым атрибутом, позволяющим обеспечить электропитанием все необходимые устройства. Однако мало кто задумывается, что привычное использование этого аксессуара может нести серьезную угрозу безопасности. По статистике, значительная часть бытовых пожаров происходит из-за неправильной эксплуатации электропроводки и вспомогательных устройств. Какие приборы категорически нельзя подключать через удлинители и почему это может привести к трагическим последствиям, рассказывает профессор кафедры наноэлектроники РТУ МИРЭА, доктор физико-математических наук Алексей Юрасов.

13 октября, 11:10
Илья Гриднев

Согласно новой гипотезе, сознание возникает не только из-за активности нейронов, но и благодаря физическим процессам — электромагнитным полям от движения жидкости в мозге. Эта модель, как и ее предшественники, пока носит теоретический характер, но предлагает нестандартный взгляд на проблему синхронизации работы разных отделов мозга.

[miniorange_social_login]

Комментарии

8 Комментариев
-
0
+
Да что доказывать когда в базе технологии нейронок это и так заложено, это всего лишь вероятнтстные машины, Т9 на стероидах, авторы вы когда подобное публикуете хотябы элементарную логику включали а не выдавали корпоративный пиар за сенсацию.
Dron N
16.09.2025
-
4
+
Суть оригинальной работы была в демистификации галлюцинаций и демонстрации того, что текущий подход к требованию обязательного ответа приводит к увеличению галлюцинаций. Авторы описывают способы их уменьшения путём изменения бенчмарков, чтобы поощрялись ответы "я не знаю" когда модель не уверена, предлагают вводить пороги уверенности. Данная же статья ничего этого не отметила и в целом сильно манипулятивна и спекулятивна, основным выводом сделала якобы невозможность устранения галлюцинаций. Много других неточностей. Про уточняющие вопросы и рост вычислительной сложности в статье в таком виде ничего нет - похоже на галлюцинацию. Также в статье ничего нет про автопилоты. У них, насколько я знаю, множество дополнительных систем контроля и те методы поощрения неуверенности как раз в какой-то степени там и имплементированы. > "крайне трудно устранимым источником галлюцинаций оказались системы тестирования нейросетей. Любая из них может достигнуть нулевой частоты галлюцинаций, если ее жестко «наказывать» за неправильные ответы, снижая баллы. Чтобы повысить их, нейросеть быстро начнет писать «Я не знаю» в ответ на любой вопрос, который не содержался в ее обучающей выборке. Но в таком случае она будет отвечать «Я не знаю» в очень большом числе случаев (десятки процентов). С точки зрения стандартного потребителя переход от нейросети, уверенно рассуждающей на нужную ему тему, к той, что в каждом четвертом случае станет генерировать «Я не знаю», будет снижением качества продукта." В статье этого нет, нет приведенных процентов. Похоже на галлюцинацию. Как раз существующие тесты жёстко наказывают ошибки, не поощряют неуверенность и авторы описывают способы улучшения тестов. В общем, много драматизации про яды и автопилотов, видно что восприятие автора искажает факты и пересказ научных работ. Вместо того, чтобы отметить в целом бОльшую безопасность автопилотов по сравнению с людьми (кроме случаев плохого освещения), запугивает читателей ужасным ИИ.
    Dron, любой читатель может прочитать статью по ссылке и заметить, что вы неправы. Например, что неизбежность галлюцинаций отмечена авторами работы по ссылке легко убедится любой, владеющий английским хотя бы на уровне шестиклассника. "Также в статье ничего нет про автопилоты." В работе -- нет. В новостной статье выше -- конечно есть, контекст же мы должны дать. "У них, насколько я знаю, множество дополнительных систем контроля и те методы поощрения неуверенности как раз в какой-то степени там и имплементированы." Да-да. И торможения перед пустым месте на трассе оттуда же. Но галлюцинации почему-то не удалось ликвидировать и там. Даже введя торможения перед пустым местом, создающим риск въезжания в машину того, кто едет сзади за ней.
    +
      ещё комментарии
      Dron N
      16.09.2025
      -
      1
      +
      Александр, основной вывод их работы в неизбежности галлюцинаций или может в способе их формализовать и предложенных способах их преодоления? Может вы исказили суть их работы всё-таки, придумав несуществующие там выводы?
        Dron, "основной вывод их работы в неизбежности галлюцинаций или может в способе их формализовать и предложенных способах их преодоления? " В разделе "Выводы" в работе нет формально нет ни того, ни другого: "This paper demystifies hallucinations in modern language models, from their origin during pretraining to their persistence through post-training. In pretraining, we show that generative errors parallel misclassifications in supervised learning, which are not mysterious, and naturally arise due to the minimization of cross-entropy loss..." и т.д. Там есть предположение, что предложенный ими подход может в будущем открыть дорогу к подавлению галлюцинаций. Но не к их полному исчезновению. Если просто пересказать куски из статьи не дав контекст, итоговая новость будет бесполезна, потому что читатель ее не поймет. Хотите этого? Читайте только ссылку на работу из моих новостей. Остальные читатели ознакомятся с контекстом.
          Dron N
          16.09.2025
          -
          1
          +
          Александр, потому что учёные не мыслят настолько категорично без серьёзных к тому оснований. Будет исследование, будут результаты. Было бы крайне неосмотрительно заявлять, что их подход всё решит, но и утверждать что их статья "показала неустранимость галлюцинаций" - искажение фактов. Они вполне ясно выразились "это может устранить препятствия к подавлению галлюцинаций и открыть дверь для будущей работы над нюансированными языковыми моделями, например, с более богатой прагматической компетенцией". Я хочу чтоб не перевирался посыл исходных статей из-за предвзятости, только и всего.
      Paidamart
      16.09.2025
      -
      1
      +
      Александр, автопилоты не являются языковыми моделями и поэтому явление галлюцинаций присущих именно LLM им не присущи. Поэтому приписывать в эту статью про галлюцинации больших языковых моделей - автопилоты неправильно. У них есть свои ошибки но это не галлюцинации а не верно интерпретированные показатели с камер. Проще говоря этот пример с автопилотами вообще не про ЛЛМ модели потому что автопилоты устроены по другому и намного сложнее.
    Dron, ни одна нейросеть не способна повторить автора NS 😁 Автор берет оригинальную статью лишь за основу а все остальное его собственные умозаключения. Таков путь.
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Закрыть
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно