Хотите получать важные новости науки?
Подписаться
  • Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
19 июня
ЮФУ
4
44 681

Ученые выяснили, почему ИИ не победит в «Что? Где? Когда?» среднестатистического россиянина

4.7

В ЮФУ придумали новый остроумный способ тестировать ИИ на способность работать в реальных ситуациях использования русского языка. Исследователи искусственного интеллекта из МИИ ИМ ЮФУ предлагают использовать интеллектуальные языковые игры, как пример — заставлять ИИ отвечать на вопросы из архива телевикторины «Что? Где? Когда?» и «Своей игры». Инициативу прокомментировал опытный игрок.

Павильон «Охотничий домик» (ротонда середины XVIII века) в Нескучном саду, где проходят съемки игры «Что? Где? Когда?» / © A.Savin, ru.wikipedia.org

В наше время параллельно развиваются самые разные технологии искусственного интеллекта, но в широком употреблении под ИИ люди почти всегда подразумевают именно большие языковые модели (LLM – Large Language Model), такие как DeepSeek или ChatGPT, из-за шумихи вокруг них.

Ответственный исполнитель проекта «Фронтирная лаборатория рентгеноспектральной нанометрологии» Центра наукоемкого приборостроения ЮФУ Богдан Проценко и его коллеги, как и многие исследователи, на практике делают ставку не на языковые-модели гиганты, а на модели ИИ поменьше, обученные на заведомо более качественных данных, как в случае линейки моделей LLaMa3.

«Ее разработчики получили существенный прирост качества моделей, главным образом «почистив данные» для обучения предыдущих версий, без радикальных изменений в архитектуре нейросети. Между сложностью архитектуры ИИ и качеством данных для его обучения всякий ML-инженер и аналитик данных почти всегда выберет последнее, потому что в мире не бесконечное количество качественного контента, и лучше, если нейросеть может научиться на миллионе умных текстов, чтобы не пришлось ей скармливать миллиард глупых», — поделился Богдан Проценко.

Создатели ИИ часто исходят из позиции, что логическое мышление и способность рассуждать («ризонинг») нейросетей не страдает от того, на каком языке ИИ «подумает», главное, чтобы он умел грамотно формулировать ответ на языке пользователя. Доказать обратное нетрудно: можем спросить у большой языковой модели, например, на языке хинди, какие предметы и темы проходят десятиклассники по школьной программе. И он вам ответит на грамотном литературном хинди, но только расскажет так, как проходят в десятом классе в американских школах, а не в индийских.

«Русского, например, в данных для предтренировки всех зарубежных моделей ощутимо меньше английского, потому модель пишет и мыслит «умнее» и грамотнее, если ее спросить на английском и попросить на нем же ответить. Бенчмарки, «линейки», которыми измеряют качество моделей и их работы на разных языках – как правило, просто перевод с одного из языков, обычно английского, на другие. Такой расклад не отражает качества работы модели в реальной языковой ситуации», — объяснил Богдан Проценко.

Как же объективно оценить, какая модель ИИ действительно «умнее»? Для этого отлично подходят различного рода интеллектуальные игры: они являются весьма непростыми для LLM, и при этом за многие годы накоплен огромный и крайне качественный — отточенный поколениями игроков, а не сгенерированный ИИ — архив подобных вопросов, во многих из которых предостаточно и культурной, и тонкой языковой специфики языка.

«Мышление и языки близки. Как победы ИИ над человеком в шахматы и го были яркими ключевыми моментами развития ИИ в конце прошлого века, так «Что? Где? Когда?» и «Своя игра» — вызовы сегодняшнего дня. Способность успешно отвечать на вопросы, написанные умными телезрителями для еще более умных знатоков, появляется только в самых больших и умных LLM, причем моделям с большим количеством русского языка в предтренировочной выборке обычно проще», — подчеркнул Богдан Проценко.

В качестве примера ученые протестировали старшую модель из семейства LLaMa-3, демонстрирующую хорошее владение русским языком, но даже она ошиблась в вопросах, требующих знания специфических для русскоязычной культуры фактов. Например, вопросы о композиторе Владимире Шаинском, о Царь-пушке в Кремле, о спортивных объектах, построенных вокруг Москвы к Олимпиаде-80, тривиальные для русскоязычных людей, для LLM на 405 миллиардов параметров, владеющей десятками естественных языков и языков программирования, разбирающейся в куче вопросов, от квантовой механики до медицины, оказываются не под силу.

Необычный способ тестировать ИИ интеллектуальными играми прокомментировал научный журналист, популяризатор науки и лектор Алексей Паевский — участник «Своей игры» и автор вопросов для «Что? Где? Когда?».

«Решать вопросы «Своей игры» искусственному интеллекту определенно будет легче, поскольку они обычно направлены на эрудицию и личные знания игрока, а вот вопросы «Что? Где? Когда?» скорее на способность команды знатоков мыслить и догадываться. Для ответа на средний вопрос «ЧГК» русскому человеку обычно не нужны никакие специальные знания свыше школьной программы и общей культуры, другое дело, что зачастую вопросы «завернуты» так, что лишь единицы поймут о чем речь. Если сообщество авторов вопросов «ЧГК» узнает, что ИИ научился на их вопросы отвечать с легкостью, это их замотивирует закручивать новые вопросы так, что у ИИ не будет шансов, а для знатоков при этом сложность останется прежней», — поделился Алексей Паевский.

Четырехкратный чемпион мира по «Что? Где? Когда?» Михаил Левандовский добавил, что главная сложность игры в ее изменчивости. На заре «Что? Где? Когда?» ключом к победе было умение распознавать «явления» — абстрактные образы и социальные закономерности. Это для современных ИИ-систем по-прежнему остаются серьезным вызовом.

«Впрочем, тогда же возник и другой тип вопросов — перефразировки известных цитат, названий или сюжетов из ограниченного круга классических произведений. С ними, я уверен, искусственный интеллект справлялся бы мгновенно. Сейчас основной тренд — языковые игры: каламбуры, двойные смыслы, игра слов, сложные ментальные конструкции. Здесь ИИ демонстрирует результаты с переменным успехом. Пока что он порой ошибается, но скоро сможет соревноваться с человеком на равных», — рассказал Михаил Левандовский.

Другой глобальный результат исследователей ЮФУ заключается в том, что они протестировали несколько методов генерации ответов, включая цепочку рассуждений и подход с «внутренним критиком», который оценивает предложенные гипотезы – такая своего рода имитация команды знатоков ЧГК и того, как «раскручивают» вопросы в спортивном ЧГК. Например, модель сначала должна предложить несколько вариантов, а затем самой себе объяснить, почему каждый из них неверен, а тот вариант, на который она сможет придумать меньше критики, она и предлагает как верный.

«Такие подходы, с критикой, показывают прирост точности по сравнению с методами без «критика». Однако избыточная критика иногда подавляет креативность модели — как и у людей, — и она вообще больше не может генерировать новые гипотезы», — поделился Богдан Проценко.

Это может означать что этап инструктирования LLM, (instruction tuning), когда модели учат быть «покорными» и отвечать по существу, можно делать с учетом этой специфики, тем самым делая модели еще умнее в сценариях саморефлексии и самокритики.

«В терминологии «ЧГК» есть термин «щелчок». Ответ, который «щелкает», не только подходит под условия вопроса и под все подсказки в вопросе, но и красиво ложится на общекультурный контекст. Это не элемент озарения, это способ проверить свой ответ, со всеми ли зацепками вопроса он бьется, выдерживает ли он внутреннюю критику. Прекрасно, если можно настроить алгоритм ИИ по схожему принципу, при этом, конечно, не нужно обманываться, будто бы ИИ обладает умом, он обладает способностью подбирать решение к задачам, аналогичным той, на которой он тренировался», — прокомментировал Алексей Паевский.

По словам затока, когда автомобиль стал быстрее человека, легкая атлетика не исчезла как спорт — так и интеллектуальные игры не исчезнут, если ИИ однажды начнет играть в них лучше человека. Смысл «Что? Где? Когда?» в демонстрации возможностей командной работы, того, насколько одни шесть человек могут проявить себя лучше, чем другие шесть человек в рамках специально придуманных для этого вопросов.

ИИ глобально уступает человеку не в умении отвечать на вопросы, у которых уже есть заведомо правильный ответ, а в способности к творчеству и созидательной деятельности, к таким результатам мышления, как озарение и открытие. Но пока большие языковые модели не обучатся на русских базах данных, они будут проигрывать нам даже в викторинах.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Южный федеральный университет образован в рамках национального проекта "Образование" распоряжением Правительства Российской Федерации от 23 ноября 2006 года N1616-р (pdf) и приказом Министерства образования и науки Российской Федерации от 4 декабря 2006 года N1447 путем присоединения к Ростовскому государственному университету трех вузов: Таганрогского государственного радиотехнического университета, Ростовского государственного педагогического университета, Ростовской государственной академии архитектуры и искусств.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
3 часа назад
Александр Березин

Нарастающий в последние десятки лет пластиковый кризис многие годы пытались решить наращиванием вторичной переработки пластика. Ученые выяснили, что такие переработанные полимеры негативно повлияли на развитие подопытных животных.

4 часа назад
Игорь Байдов

Паукообразные существа, обитающие на дне океана, куда практически не проникает солнечный свет, выработали уникальную стратегию выживания. Вместо охоты или поиска падали они научились сотрудничать с бактериями, которые обеспечивают морских пауков необходимой для жизни энергией. Ничего ранее у морских членистоногих ученые не наблюдали.

Вчера, 16:10
Александр Березин

Исследователи из Новой Зеландии посчитали угрозу для озонового слоя при достижении землянами хотя бы пары тысяч ракетных запусков в год. По их расчетам, он должен начать существенно деградировать. Интересно, что Илон Маск планирует несколько тысяч запусков ежегодно, то есть даже больше. Несмотря на это, некоторые проблемы в работе делают ее выводы далеко не бесспорными.

20 июня
Александр Березин

Выбросы углекислого газа, которые возникнут при сжигании доказанных запасов ископаемого топлива всего 200 компаний, будут настолько велики, что для их компенсации нужны новые леса в десятки миллионов квадратных километров. По крайней мере, так считают авторы новой научной работы. Однако исследование их предшественников ставит эти выводы под серьезное сомнение.

18 июня
ТПУ

Ученые ТПУ совместно с коллегами из Новосибирска разработали модель, которая позволяет определить оптимальные условия для обеспечения максимального срока службы аккумуляторной батареи электробуса. Она учитывает степень заряженности батареи, температурные режимы, количество пассажиров и скорость движения транспорта. Модель доказала свою эффективность во время экспериментов на реальных городских и пригородных маршрутах.

Вчера, 16:10
Александр Березин

Исследователи из Новой Зеландии посчитали угрозу для озонового слоя при достижении землянами хотя бы пары тысяч ракетных запусков в год. По их расчетам, он должен начать существенно деградировать. Интересно, что Илон Маск планирует несколько тысяч запусков ежегодно, то есть даже больше. Несмотря на это, некоторые проблемы в работе делают ее выводы далеко не бесспорными.

17 июня
Адель Романенкова

Радиотелескопы уловили очень короткий сигнал, и по его характеристикам стало ясно, что он не может быть естественного происхождения. Астрономы пришли к выводу, что источник находился в околоземном пространстве — там, где уже более полувека летает «мертвый» аппарат NASA.

5 июня
Александр Березин

Вид антилоп, с ледникового периода привыкший к массовым миграциям, пытается вернуться в свой исторический ареал, когда-то достигавший Днепра. Однако их нетипичные для травоядных привычки вызывают сильнейшее отторжение у сельских жителей, предлагающих массово уничтожать их с воздуха. С экологической точки зрения возвращение этих животных весьма желательно, но как примирить их с фермерами — неясно.

19 июня
ЮФУ

В ЮФУ придумали новый остроумный способ тестировать ИИ на способность работать в реальных ситуациях использования русского языка. Исследователи искусственного интеллекта из МИИ ИМ ЮФУ предлагают использовать интеллектуальные языковые игры, как пример — заставлять ИИ отвечать на вопросы из архива телевикторины «Что? Где? Когда?» и «Своей игры». Инициативу прокомментировал опытный игрок.

[miniorange_social_login]

Комментарии

4 Комментария
Сергей Гумановский
3 часа назад
-
0
+
Проводил лично тестирование модели o3 на вопросах ЧГК и Своей игры, она справилась не хуже лучших игроков в моëм тесте. Даже против целой команды знатоков порой показывала конкурентный результат, не превзошла, конечно, целую команду, но очень близкий результат показала одна. Это же легко проверить, игры и вопросы гуглятся, ответы команд известны. Предвосхищаю возражения, что это всё было в обучающей выборке, но иногда она отвечала неправильно, и зачастую её ответ нравился больше, чем правильный. К тому же всегда можно провести тестирование на свежеидущем выпуске, в таком случае исключаем возможность гугления/вспоминания ответа
владимир шмелев
2 дня назад
-
1
+
А еще в духовности ИИ никогда не сравнится с русским человеком!
Александр Петров
3 дня назад
-
-1
+
Херня рекламная, попытка раскрутки неизвестного бота, замаскированное под интересную тему. Шлак!
Dron N
4 дня назад
-
0
+
Тест не самый лучший, так как достаточно подсунуть все эти вопросы и ответы в обучающую выборку и тест бесполезен. Правда, у большинства остальных тестов та же проблема. "Если сообщество авторов вопросов «ЧГК» узнает, что ИИ научился на их вопросы отвечать с легкостью, это их замотивирует закручивать новые вопросы так, что у ИИ не будет шансов, а для знатоков при этом сложность останется прежней". Сомнительный вывод про "не будет шансов" и "прежнюю сложность для знатоков". Да, у нейросетей пока есть ряд задач, преимущественно связанных с визуализацией, взаимным расположением объектов, в которых она ещё плохо ориентируется. Всё-таки, ей на вход всё поступает в виде текста и у неё там внутри нет пространственного воображения в человеческом смысле. Но может и появиться, есть наработки в этом направлении, когда модель генерирует себе картинки сразу пока размышляет. Также нейросеть легко запутать задачами с подковырками, где идёт много лишней информации и она может путаться в каких-то очевидных для людей вещей, например, что на экране ноутбука, расположенном в километре от смотрящего, невозможно ничего прочитать невооружённым взглядом. Эту деталь она может опустить и сделать ложные выводы. Человек же создаст ситуацию в голове и сразу увидит несуразность. Но и тут есть продвижения. В тесте Simple Bench собраны такие задачи и топовые модели уже там выдают около 60 % (человек - 83.7 % в среднем, ясно что есть и 100 %-ные результаты). Кстати, упомянутая в исследовании Llama 3, на которую якобы делают ставку специалисты, в этом тесте показала всего лишь 23 %. Зачем на неё делают тогда ставку - непонятно. Ну, open source, ладно. В общем эти все вопросы на эрудированность будут легко решаться с ростом модели, а вот с рассуждениями нужны другие подходы.
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Закрыть
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно