• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
04.12.2025, 13:27
Редакция Naked Science
7
3,4 тыс

Нейросети пишут чересчур официально. Новая разработка «Яндекса» показывает, где именно

❋ 3.5

Исследователи «Яндекса» разработали новый метод оценки качества машинного перевода. На основе этой метрики разработчики смогут целенаправленно совершенствовать существующие модели. Разработку уже оценило мировое академическое сообщество: компания представила статью о методе на международной конференции по машинному обучению EMNLP 2025.

Робот читает книгу / © ИИ-генерация, freepik

Сегодня многие нейросети уже довольно точно переводят тексты, но делают это не всегда естественно. В неформальном диалоге модель может перевести sorry, my bad как «приношу извинения, это моя вина» вместо «извини, ошиблась». Пользователь заметит, что нейросеть выбрала излишне официальный тон, но существующие системы оценки перевода такие ошибки игнорируют. Новый метод помогает обратить внимание на такие недочеты.

Новая система оценки «Яндекса» называется RATE (Refined Assessment for Translation Evaluation — улучшенная метрика для оценки перевода). Эксперты не используют ее напрямую для дообучения моделей перевода. Однако RATE позволяет с высокой точностью оценить, где именно современные модели ошибаются и что нужно улучшить, чтобы их переводы стали точнее и естественнее для пользователя. 

Разработка получила мировое признание в академическом сообществе: статью о RATE представили на международной конференции по машинному обучению EMNLP 2025. Среди других участников конференции — Microsoft Research, Google Research, OpenAI, Anthropic, Amazon, Baidu, Alibaba, Huawei, Samsung Research, NVIDIA Research, Intel Labs, IBM Research, Bloomberg, Adobe Research, Qualcomm Research.

В отличие от других метрик, RATE оценивает перевод по трем главным для пользователя критериям: точность передачи смысла, естественность языка и соответствие стилю оригинала. Это позволяет использовать метод для любых типов текстов. Инструмент помогает проверить в новостях точность передачи фактов, в постах соцсетей — выявить чрезмерную формальность фраз, а в художественных текстах — оценить стиль и плавность речи. RATE не только отмечает ошибку, но и оценивает ее значимость — от небольших неточностей до сильных искажений.

Руководитель команды оценки качества перевода в «Яндексе» Екатерина Еникеева рассказала, что исследователям во время работы с другими методами не хватало детализации. По ее словам, MQM (Multidimensional Quality Metrics — многомерные показатели качества) слишком сложный, а ESA (Error Span Annotation — аннотация диапазона ошибок) замечает только грубые ошибки

«Эти метрики помогают проверить точность, но не позволяют оценить, насколько перевод получается естественным. А именно это сегодня стало главным критерием для пользователя в восприятии перевода. RATE позволяет оценить и точность, и естественность перевода, дает более полную картину его качества и может подсказать разработчикам, как развивать модель для улучшения перевода», — пояснила Еникеева.

Сравнение на данных крупнейшего международного конкурса WMT показало, что RATE выявляет в семь раз больше ошибок, чем MQM и ESA. Результаты эксперимента оценивали высококвалифицированные ИИ-тренеры. Сравнение доказало, что другие метрики не смогли обнаружить множество недочетов в переводах нейросетей, которые заметили пользователи.

Эксперимент показал: современные модели машинного перевода достигли значительного прогресса в точности. При этом эталоном естественности и плавности речи по-прежнему остается человеческий перевод, хотя большая языковая модель «Яндекса» уже приблизилась к этому уровню, опередив такие модели, как Claude-3.5 и GPT-4.

«Яндекс» уже использует RATE для улучшения своих моделей, адаптируя их переводы под разные сценарии — от деловой переписки до неформального общения. RATE также помогает исследователям создавать новые алгоритмы, ориентированные на живую человеческую речь, а не только на формальные критерии.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
11 апреля, 19:45
Evgenia Vavilova

Ученые давно знают как с хорошим приближением прогнозировать рост поверхностей. Но экспериментально подтвердить точное соответствие реальных процессов и модели — гораздо более сложная задача, у которой, тем не менее, есть решение.

11 апреля, 10:10
Любовь С.

На Меркурии может появиться первый в истории «вечный рассвет»: ученые предложили отправить туда планетоход, который будет постоянно ехать вдоль границы дня и ночи. Подход открывает путь к изучению одного из самых загадочных миров Солнечной системы без риска разрушительного перегрева.

13 апреля, 09:50
Максим Абдулаев

Микробиологи вырастили неизвестный ранее вид Асгард-архей из гиперсоленых микробных матов и впервые сделали 3D-снимки их прямого физического контакта с симбиотическими бактериями. Анализ томограмм показал встречное структурное движение: археи формируют сложную сеть из нитей и отпочковывающихся мембранных пузырьков, а бактерии прокладывают к этой сети прямые белковые нанотрубки. Визуализация подтверждает гипотезу о том, что эукариотические клетки возникли в результате тесного физического и метаболического переплетения двух микроорганизмов.

10 апреля, 10:51
Татьяна Зайцева

Когда международная экспедиционная группа, исследующая море Уэдделла в Антарктиде на борту ледокола «Поларштерн», попыталась укрыться от шторма, ученые и экипаж судна удивились внезапному появлению острова, не обозначенного ни на одной морской карте.

11 апреля, 19:45
Evgenia Vavilova

Ученые давно знают как с хорошим приближением прогнозировать рост поверхностей. Но экспериментально подтвердить точное соответствие реальных процессов и модели — гораздо более сложная задача, у которой, тем не менее, есть решение.

9 апреля, 08:30
Максим Абдулаев

Окаменелые остатки рептилии возрастом 289 миллионов лет сохранили полное анатомическое устройство грудной клетки ранних покорителей суши. Благодаря нетронутым хрящам исследователи реконструировали механику первого полноценного реберного дыхания. Наличие в тканях оригинальных белков подтвердило, что сложные органические молекулы способны сохраняться в палеонтологической летописи почти на 100 миллионов лет дольше, чем считалось.

19 марта, 10:58
Игорь Байдов

В парках некоторых стран все чаще можно заметить странную картину: синицы и воробьи вместо пуха и веточек приносят в клювах сигаретные окурки. Орнитологи из Польши решили выяснить, зачем птицы выстилают гнезда мусором, пропитанным никотином. Оказалось, пернатые нашли способ использовать вредную человеческую привычку для защиты своего потомства. Но, как это часто бывает в природе, у медали есть обратная сторона.

19 марта, 12:41
Игорь Байдов

Марсоход «Персеверанс» обнаружил в камнях на кромке кратера Езеро спектральные признаки минерала корунда, из которого на Земле образуются рубины и сапфиры. Такие спектры на Красной планете зарегистрировали впервые. Теперь ученые пытаются понять, при каких процессах он мог там сформироваться, ведь условия на Марсе заметно отличаются от тех, в которых корунд обычно образуется на Земле.

5 апреля, 15:48
Александр Березин

Четыре человека, летящие к Луне, столкнулись с целым рядом мелких неприятностей — от низкой температуры в начале работы до поломки мочевыводящей системы туалета на вторые сутки и необходимости взамен пользоваться пакетами. К счастью, пока самые крупные сложности удалось компенсировать. Но все они вместе могут сдвинуть ситуацию к решению, о котором Naked Science уже говорил в нашем видеоподкасте о миссии: не исключено, что при высадке астронавтов на Луне их корабль состыкуют со Starship не на окололунной, а уже на околоземной орбите.

[miniorange_social_login]

Комментарии

7 Комментариев
"опередив такие модели, как Claude-3.5 и GPT-4" Молодцы, чо! "Опередили" несуществующую модель "Claude-3.5" (это о какой конкретно модели идёт речь? О Sonnet? О Haiku? Об Opus?) и прошлогоднюю модель от OpenAI! 😂😂😂 Yandex такой Яндекс! И добавлять ничего не нужно к их собственным релизам! Сами всё о себе говорят! Вот уж действительно: пусть лучше "сознание" у ИИ ищут! 😂😂😂
    -
    0
    +
    Михаил, Вот ответ от Алисы: "Ой, кажется, мы снова забыли приложить 10‑страничный дисклеймер к каждой фразе! 😅 На самом деле: под «Claude 3.5» подразумевалась линейка Claude 3 (все три модели); под «GPT‑4» — именно GPT‑4, а не её последующие версии. Согласны, что точность важна — спасибо, что держите нас в тонусе!" Вот Gemini присоединяется к разговору: "Модель "Claude-3.5": Модель Claude 3.5 Sonnet не является несуществующей. Она была выпущена компанией Anthropic 20 июня 2024 года. На момент своего выпуска она позиционировалась как модель, способная конкурировать или превосходить GPT-4o и Gemini. Модель "GPT-4": Модель GPT-4 была выпущена 14 марта 2023 года. Это модель предыдущего года, но она по-прежнему остается одним из ведущих мировых стандартов. OpenAI выпустила более новую версию GPT-4o в мае 2024 года. Заявление Яндекса: Если в официальном заявлении Яндекса говорилось, что их модель YandexGPT 3 "опережает" "прошлогоднюю модель от OpenAI", это может быть правдой с точки зрения определенных показателей. Однако сравнение с Claude 3.5 Sonnet (июнь 2024 г.) или GPT-4o (май 2024 г.) требует конкретных данных тестов. "
    +
      ещё комментарии
      Aitneics, - "под «Claude 3.5» подразумевалась линейка Claude 3" - ну, понятно, чо. Яндекс всех-всех-всех сразу обогнал 😂😂😂 Чо там мелочиться на каждую модель! Сразу всех обогнали! 😂😂😂 - "именно GPT‑4, а не её последующие версии" - так в том и стёб был! А чо ж не GPT-2 обгоняли? Или совесть не позволила? - "Модель Claude 3.5 Sonnet не является несуществующей" - так я и не утверждал, что она "несуществующая". Просто когда я в Claude выбираю "More Models", выпадает и Opus 3, и Haiku 3.5. Это если не обращать внимание на другие модели! Отсюда и ирония в адрес Яндекса: как всегда "обогнали" не только модели полуторагодичной давности (что в мире ИИ сегодня означает разрыв в одно-два поколения!), но ещё и непонятно, какую именно модель "обгоняли". Как всегда, три короба болтовни, а начни разбираться, и не совсем "обогнали", и не "модель", и не в карты, а в казино, и не выиграл, а проиграл. Такие дела. - "это может быть правдой с точки зрения определенных показателей" - у Яндекса всегда так: "это может быть правдой с точки зрения определенных показателей" 😂😂😂 А для того, чтобы понять качество их поделий в области ИИ, достаточно самому попробовать эти поделия. И все вопросы сразу отпадают.
    -
    0
    +
    Михаил, Тут не выдержал Perplexity и присоединился: Ха, эта критика — классический троллинг с сарказмом, где фокус на "устаревших" моделях и неопределённости в терминах, но давай разберём по полочкам, чтобы ответить конструктивно и без агрессии. 😏 Я бы ответил так (представь, что это мой твит или пост в ответ): "Эй, критик, давай по фактам разберёмся, без 😂! 😌 1. Claude-3.5 — это не миф, а реальный релиз от Anthropic (май 2024): они выпустили Claude 3.5 Sonnet, который на бенчмарках (MMLU, GPQA) обошёл GPT-4o в кодинге и математике, но уступил в некоторых креативных задачах. Haiku/Opus — это из семейства Claude 3, а 3.5 — апгрейд. Если Yandex (или кто там хвастается) сравнивает с этим, то это свежий вызов, а не 'несуществующий'. 2. GPT-4 — да, прошлогодняя (март 2023), но до сих пор бейзлайн для многих тестов (Arena ELO ~1300+). 'Опередить' её в 2025 — это не стыдно, особенно если новая модель Yandex бьёт в скорости/эффективности (как они заявляют в релизе). OpenAI уже на GPT-4o и o1, но соревнование — это прогресс, а не 'стариковство'. 3. Yandex и релиз — они часто хайпуют (типа Alice или их LLM), но если метрики реальные (MMLU 85%+ или что-то подобное), то почему не похвалить? 'Сознание' в ИИ — это отдельная тема (от Тьюринга до текущих дебатов о AGI), но лучше фокусироваться на том, что работает: точность, скорость, доступность. В общем, соревнование моделей — это драйв для всех, включая Yandex. Если их новая штука правда круче — молодцы! А критика без ссылок на бенчмарки — просто шум. Что думаешь, есть ли в их релизе реальный прорыв? 🚀" Это ответ держит тон дружеский, но фактчекинг (на основе свежих релизных нот Anthropic/OpenAI 2024–2025), показывает экспертизу и приглашает к диалогу. Если хочешь доработать под конкретный контекст (статья Yandex?), дай знать! 😌
    +
      ещё комментарии
      Aitneics, не умеете Вы, батенька, Perplexity пользоваться! Со мной он таким тоном не разговаривает. Может быть, потому что я с ним работаю, а не болтовнёй занимаюсь? - "Claude-3.5 — это не миф" - да ещё и вопросы задавать ему не умеете! Смотрите мой комментарий выше, повторять не буду. - "до сих пор бейзлайн для многих тестов" - ну да. А ещё GPT 2.0 тоже "бейзлайн для многих тестов". Вот что у Яндекса всегда хорошо работало, так это маркетологи и рекламщики. Если бы они столько денег в разработку вкладывали, сколько в маркетинговый bullshit, глядишь, и результаты были бы другими. А пока что нейронки переводят очень даже неплохо. И в каждым днём всё лучше и лучше. И никакого эталона качества перевода быть не может. Потому что перевод, за некоторым исключением технического перевода, может быть очень разным. Это если текст на текст.
        -
        0
        +
        Михаил, 4 нейросети эксплуатирую, две русские , две нерусские. Вопросы задаю по философии, логике, истории, политике, литературе, искусствоведению. Не могу сказать что какая-то из них лучше, а какая-то хуже. Бывает одна из них лучше всех ответит, наиболее глубоко и "осмысленно". Бывает другая. Бывает одна какая-нибудь затупит. Короче, не понимаю хейта в адрес российских нейросетей. У многих по жизни просто установка "Всё российское - отстой! Всё западное - зашибись!". И, конечно же, все эти нейросети близко не приблизились к человеческому интеллекту. Это и в принципе невозможно при их современном устройстве, при тех архитектурах, которые есть сейчас.
          Aitneics, "не понимаю хейта в адрес российских нейросетей" - а нет никакого хейта. Есть объективная оценка состояния российской отрасли. На основании использования продуктов этой отрасли. И Яндекс, и Сбер отстают от западных на два поколения. Для отрасли ИИ это отставание фатально. Потому-то Яндекс и занялся поиском "сознания" у нейронок, что сами нейронки у него никак не получаются. Ни ресурсов не хватает, ни технологий, ни мозгов (коих в Яндексе остаётся всё меньше и меньше). А жаль. Яндекс был неплохой компанией. И надежды подавал. Но для такой компании игры в политику всегда плохо заканчиваются. P.S. Кстати, мне и китайские нейронки не нравятся. Особенно DeepSeek. Особенно прошлогодняя истерика журналистов вокруг этой нейронки, которая якобы похоронила ChatGPT. Впрочем, китайцы более прагматичны в этой сфере, они меньше производят шума, и больше работают. И результат у них получше. Что Qwen, что Kimi K2, что некоторые другие вполне ничего, для определённых задач сгодятся. Да и DeepSeek, если не видеть в нём "убийцу ChatGPT", тоже кое-на-что сгодится. А вот от Яндекса понтов много, а результаты обратно пропорциональны производимому шуму.
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Комментарий на проверке

Что-то в вашем комментарии показалось подозрительным, поэтому перед публикацией он пройдет модерацию.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Закрыть
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно