• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
16 сентября, 11:56
Александр Березин
8
1 412

Исследователи из OpenAI показали неустранимость галлюцинаций нейросетей

❋ 4.9

Периодически нейросети в своих ответах галлюцинируют, предлагая пользующимися их услугами людям выпить яд под видом лекарства и так далее. Новая научная работа показала, что эта проблема связана с самой природой нейросети. Хотя ее вероятность можно понизить, устранить полностью невозможно.

Руководство OpenAI делает ставку на массовое использование нейросетей для замены человеческого труда, в частности. в программировании. Работа исследователей из той же компании показывает, что у таких подходов есть очень существенные и неустранимые проблемы / © Open AI

От способности нейросетей работать надежно зависит не просто чат обычных пользователей с ними, но и выживание ряда людей. Кто-то погибает из-за некорректных советов больших языковых моделей типа ChatGPT, кто-то может умереть из-за галлюцинации нейросети, управляющей автопилотом — тот, например, может принять обочину за дорогу и в итоге увести машину прямо в дерево (речь идет о гипотетическом случае). Учитывая, что такой автопилот стоит как подержанное авто, ясно, что подобные записи существенно снижают привлекательность автопилота для разумных потребителей.

Авторы новой работы, которую они выложили на сервер препринтов Корнеллского университета, решили выяснить, возможно ли в принципе решить проблему подобных галлюцинаций и сколько это будет стоить. Оказалось, что причины возникновения галлюцинаций разнообразны и полное их подавление поэтому нереалистично.

Во-первых, ошибки неизбежно содержатся в обучающей выборке текстов (или, в случае нейросетей для вождения, видеозаписей того, как водят реальные люди). Выборка может быть свободной от ошибок, только если она очень мала, а на такой нельзя построить работоспособную нейросеть в принципе.

Во-вторых, даже существуй некая большая выборка с нулевым количеством ошибок, это не решило бы проблему. В случае языковых моделей сам метод генерации их выдачи провоцирует галлюцинации. Они «предсказывают» каждое следующее слово в предложении, основываясь на вероятностях. В предложениях много слов, а вероятность ошибок нарастает с каждым последующим.

Вдобавок добавление каждого слова дает определенные оттенки смысла, а с ними растет и вероятность ошибки. Если бы нейросети задавали вопросы, требуя лишь ответа «да»/»нет«, вероятность неверного ответа была, как показали исследователи, как минимум вдвое ниже. Именно бинарная классификация удается им лучше всего.

Только у одной нейросети среди пользователей уже почти каждый десятый землянин. Нет сомнений, что в конечном счете ими станет большинство. Это порождает серьезную угрозу использования галлюцинаторной информации больших языковых моделей миллионами людей / © Open AI

В-третьих, крайне трудно устранимым источником галлюцинаций оказались системы тестирования нейросетей. Любая из них может достигнуть нулевой частоты галлюцинаций, если ее жестко «наказывать» за неправильные ответы, снижая баллы. Чтобы повысить их, нейросеть быстро начнет писать «Я не знаю» в ответ на любой вопрос, который не содержался в ее обучающей выборке. Но в таком случае она будет отвечать «Я не знаю» в очень большом числе случаев (десятки процентов). С точки зрения стандартного потребителя переход от нейросети, уверенно рассуждающей на нужную ему тему, к той, что в каждом четвертом случае станет генерировать «Я не знаю», будет снижением качества продукта.

Естественно, создатели языковых моделей стараются избежать такого, и их системы оценки выдачи нейросети «штрафуют» ее низкими баллами за частые ответы «Я не знаю». Это и становится третьим источником галлюцинаций: нейросети выгоднее сказать что угодно, потому что она может или угадать случайно, или оценивающие ее люди либо программы не смогут понять ее ошибку. Такое поведение часто демонстрируют студенты, пытающиеся прорваться через экзамен по сложному предмету «на шару».

Исследователи предположили, что можно частично обойти эту проблему — скажем, побуждая языковую модель задавать уточняющие вопросы в тех случаях, когда она не уверена в ответе. Метод рабочий, но чрезвычайно быстро повышающий вычислительные усилия, нужные на один ответ. Такое может быть оправдано в сложных отраслях с высокой ценой ошибки, но в условно-бесплатном чат-боте окупить его будет непросто.

Все это означает, что на практике нейросети без галлюцинаций предельно маловероятны и в будущем. Соответственно, нужно строить их использование с учетом практической неустранимости галлюцинаций, не полагаться на их ответы в тех случаях, когда цена ошибки может быть слишком высока. Это ставит под вопрос эффективность нейросетей и в области автопилота. Но окончательно разрешить сомнения по этому поводу может только практика ближайших лет.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
16 сентября, 13:21
Адель Романова

Во время недавних наблюдений карликовой планеты Квавар что-то неожиданно почти полностью закрыло ее собой. Астрономы уверены, что это не ее спутник Вейвот и не одно из двух известных колец этого маленького мира на краю Солнечной системы.

15 сентября, 10:36
Игорь Байдов

Самая большая планета в Солнечной системе, всегда поражавшая воображение своими колоссальными размерами, немного сдала позиции. Новые высокоточные измерения орбитального зонда NASA показали, что Юпитер не такой большой и круглый, как считали астрономы последние 40 лет.

15 сентября, 11:30
РНФ

Ученые обнаружили, что общепринятые константы, с помощью которых химики предсказывают свойства молекул, содержали ошибки. Исправленные значения констант теперь объясняют ранее непонятные химические аномалии и позволяют предсказывать свойства новых материалов для квантовых технологий, датчиков и умных покрытий.

12 сентября, 14:03
ТюмГУ

Исследования самодержавия могут пролить свет на феномен, исконно свойственный российской государственности, а значит, переосмыслить исторический путь России и выработку новых направлений развития, к такому выводу пришел ученый ТюмГУ.

16 сентября, 13:21
Адель Романова

Во время недавних наблюдений карликовой планеты Квавар что-то неожиданно почти полностью закрыло ее собой. Астрономы уверены, что это не ее спутник Вейвот и не одно из двух известных колец этого маленького мира на краю Солнечной системы.

15 сентября, 10:36
Игорь Байдов

Самая большая планета в Солнечной системе, всегда поражавшая воображение своими колоссальными размерами, немного сдала позиции. Новые высокоточные измерения орбитального зонда NASA показали, что Юпитер не такой большой и круглый, как считали астрономы последние 40 лет.

12 сентября, 14:03
ТюмГУ

Исследования самодержавия могут пролить свет на феномен, исконно свойственный российской государственности, а значит, переосмыслить исторический путь России и выработку новых направлений развития, к такому выводу пришел ученый ТюмГУ.

9 сентября, 11:03
Адель Романова

Третий известный межзвездный объект 3I/ATLAS летит примерно вдвое быстрее обоих своих предшественников. По расчетам, его вряд ли могло выбросить из родной планетной системы с подобной скоростью, и так разогнаться по пути он тоже не мог.

11 сентября, 12:04
ПНИПУ

Все больше покупателей начинают отказываться от привычки делать покупки на маркетплейсах, а число новых продавцов на площадках практически не увеличилось. Аналитика показывает, что за первый квартал 2025 года — прирост селлеров составил всего 0,45% по сравнению с аналогичным периодом прошлого года. В то же время, маркетплейсы активно расширяют сеть пунктов выдачи, особенно в регионах, где физическое присутствие всех брендов невозможно. Ученые Пермского Политеха рассказали, почему люди стали реже совершать покупки на маркетплейсах.

[miniorange_social_login]

Комментарии

8 Комментариев
Виталий П
2 часа назад
-
0
+
Да что доказывать когда в базе технологии нейронок это и так заложено, это всего лишь вероятнтстные машины, Т9 на стероидах, авторы вы когда подобное публикуете хотябы элементарную логику включали а не выдавали корпоративный пиар за сенсацию.
Dron N
9 часов назад
-
2
+
Суть оригинальной работы была в демистификации галлюцинаций и демонстрации того, что текущий подход к требованию обязательного ответа приводит к увеличению галлюцинаций. Авторы описывают способы их уменьшения путём изменения бенчмарков, чтобы поощрялись ответы "я не знаю" когда модель не уверена, предлагают вводить пороги уверенности. Данная же статья ничего этого не отметила и в целом сильно манипулятивна и спекулятивна, основным выводом сделала якобы невозможность устранения галлюцинаций. Много других неточностей. Про уточняющие вопросы и рост вычислительной сложности в статье в таком виде ничего нет - похоже на галлюцинацию. Также в статье ничего нет про автопилоты. У них, насколько я знаю, множество дополнительных систем контроля и те методы поощрения неуверенности как раз в какой-то степени там и имплементированы. > "крайне трудно устранимым источником галлюцинаций оказались системы тестирования нейросетей. Любая из них может достигнуть нулевой частоты галлюцинаций, если ее жестко «наказывать» за неправильные ответы, снижая баллы. Чтобы повысить их, нейросеть быстро начнет писать «Я не знаю» в ответ на любой вопрос, который не содержался в ее обучающей выборке. Но в таком случае она будет отвечать «Я не знаю» в очень большом числе случаев (десятки процентов). С точки зрения стандартного потребителя переход от нейросети, уверенно рассуждающей на нужную ему тему, к той, что в каждом четвертом случае станет генерировать «Я не знаю», будет снижением качества продукта." В статье этого нет, нет приведенных процентов. Похоже на галлюцинацию. Как раз существующие тесты жёстко наказывают ошибки, не поощряют неуверенность и авторы описывают способы улучшения тестов. В общем, много драматизации про яды и автопилотов, видно что восприятие автора искажает факты и пересказ научных работ. Вместо того, чтобы отметить в целом бОльшую безопасность автопилотов по сравнению с людьми (кроме случаев плохого освещения), запугивает читателей ужасным ИИ.
    Александр Березин
    8 часов назад
    -
    0
    +
    Dron, любой читатель может прочитать статью по ссылке и заметить, что вы неправы. Например, что неизбежность галлюцинаций отмечена авторами работы по ссылке легко убедится любой, владеющий английским хотя бы на уровне шестиклассника. "Также в статье ничего нет про автопилоты." В работе -- нет. В новостной статье выше -- конечно есть, контекст же мы должны дать. "У них, насколько я знаю, множество дополнительных систем контроля и те методы поощрения неуверенности как раз в какой-то степени там и имплементированы." Да-да. И торможения перед пустым месте на трассе оттуда же. Но галлюцинации почему-то не удалось ликвидировать и там. Даже введя торможения перед пустым местом, создающим риск въезжания в машину того, кто едет сзади за ней.
    +
      ещё комментарии
      Dron N
      4 часа назад
      -
      0
      +
      Александр, основной вывод их работы в неизбежности галлюцинаций или может в способе их формализовать и предложенных способах их преодоления? Может вы исказили суть их работы всё-таки, придумав несуществующие там выводы?
        -
        0
        +
        Dron, "основной вывод их работы в неизбежности галлюцинаций или может в способе их формализовать и предложенных способах их преодоления? " В разделе "Выводы" в работе нет формально нет ни того, ни другого: "This paper demystifies hallucinations in modern language models, from their origin during pretraining to their persistence through post-training. In pretraining, we show that generative errors parallel misclassifications in supervised learning, which are not mysterious, and naturally arise due to the minimization of cross-entropy loss..." и т.д. Там есть предположение, что предложенный ими подход может в будущем открыть дорогу к подавлению галлюцинаций. Но не к их полному исчезновению. Если просто пересказать куски из статьи не дав контекст, итоговая новость будет бесполезна, потому что читатель ее не поймет. Хотите этого? Читайте только ссылку на работу из моих новостей. Остальные читатели ознакомятся с контекстом.
          Dron N
          2 часа назад
          -
          0
          +
          Александр, потому что учёные не мыслят настолько категорично без серьёзных к тому оснований. Будет исследование, будут результаты. Было бы крайне неосмотрительно заявлять, что их подход всё решит, но и утверждать что их статья "показала неустранимость галлюцинаций" - искажение фактов. Они вполне ясно выразились "это может устранить препятствия к подавлению галлюцинаций и открыть дверь для будущей работы над нюансированными языковыми моделями, например, с более богатой прагматической компетенцией". Я хочу чтоб не перевирался посыл исходных статей из-за предвзятости, только и всего.
      Paidamart
      3 часа назад
      -
      0
      +
      Александр, автопилоты не являются языковыми моделями и поэтому явление галлюцинаций присущих именно LLM им не присущи. Поэтому приписывать в эту статью про галлюцинации больших языковых моделей - автопилоты неправильно. У них есть свои ошибки но это не галлюцинации а не верно интерпретированные показатели с камер. Проще говоря этот пример с автопилотами вообще не про ЛЛМ модели потому что автопилоты устроены по другому и намного сложнее.
    Иван Колупаев
    6 часов назад
    -
    0
    +
    Dron, ни одна нейросеть не способна повторить автора NS 😁 Автор берет оригинальную статью лишь за основу а все остальное его собственные умозаключения. Таков путь.
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Закрыть
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно