Уведомления
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.
#нейросети
Коллектив исследователей из МФТИ и Института проблем передачи информации им. А. А. Харкевича (ИППИ РАН) разработал математическую модель, описывающую, как системы искусственного интеллекта влияют на собственное будущее, обучаясь на данных, которые сами же и породили. Ученые создали теоретический каркас, объясняющий природу «цифровых эхо-камер» и механизм, из-за которого умные алгоритмы со временем могут терять адекватность или усиливать социальные предрассудки.
Исследователи «Яндекса» разработали новый метод оценки качества машинного перевода. На основе этой метрики разработчики смогут целенаправленно совершенствовать существующие модели. Разработку уже оценило мировое академическое сообщество: компания представила статью о методе на международной конференции по машинному обучению EMNLP 2025.
Исследователи Центра искусственного интеллекта НИУ ВШЭ разработали новый метод оценки надежности моделей машинного обучения. Они показали, что подход работает в восемь раз быстрее, чем полный перебор моделей, и существенно снижает объем ручной проверки. Метод можно использовать в задачах физики элементарных частиц с нейросетями различной архитектуры.
Команда исследователей из SberAI, НИУ ВШЭ, Института искусственного интеллекта AIRI и МФТИ представила LIBRA — первый в своем роде масштабный бенчмарк для оценки способности больших языковых моделей (LLM) работать с длинными текстами на русском языке. Эта разработка решает критическую проблему в области развития искусственного интеллекта, предоставляя российскому научному сообществу универсальный и прозрачный инструмент для измерения и сравнения производительности нейросетей в одной из самых сложных и востребованных задач.
Ученые из НИУ ВШЭ выяснили, что современные ИИ-модели, включая ChatGPT и Claude, в играх на стратегическое мышление вроде «конкурса красоты» Кейнса переоценивают уровень рациональности своих оппонентов, будь то студенты-первокурсники или опытные ученые. Модели стараются предсказать поведение людей, но в итоге играют «слишком умно» и проигрывают, потому что приписывают людям больше логики, чем те демонстрируют на деле.
«Галлюцинацией» называют ситуации, когда большая языковая модель утверждает нечто как факт, хотя информация ложна или не имеет оснований. Причина проста: стандартные методы обучения поощряют догадки, а не признание неопределенности. Представьте экзамен с вариантами ответов: угадав, вы с большей вероятностью получите балл, чем оставив вопрос пустым. С ИИ происходит то же самое.
Мы часто слышим: загар вреден для здоровья, от него лучше воздержаться. Но все не так однозначно. Ультрафиолет действительно способен причинить коже серьезный вред, одновременно он жизненно необходим нашему организму. Есть ли способ получить все преимущества от ультрафиолета, но обойти его недостатки?
Исследователи из Института искусственного интеллекта Московского государственного университета и «Яндекса» создали LORuGEC — первый открытый набор данных с примерами ошибок по сложным правилам русского языка. Они также разработали метод, помогающий обучить ИИ исправлять грамматические, пунктуационные и орфографические ошибки при генерации текстов. «Яндекс» рассказал о разработках на полях Конгресса молодых ученых.
Команда исследователей из МИСиС и МФТИ с коллегами разработала новый метод, который значительно повышает надежность нейронных сетей, обучая их эффективно распознавать объекты и ситуации, с которыми они не сталкивались в процессе обучения. Предложенный подход, названный Identity Curvature Laplace Approximation (ICLA), позволяет искусственному интеллекту более точно оценивать собственную неуверенность, что является критически важным шагом для создания безопасных систем в таких областях, как беспилотный транспорт, медицинская диагностика и финансовый мониторинг.
Исследователь Андрей Терников из НИУ ВШЭ в Санкт-Петербурге предложил пошаговую схему безопасного внедрения больших языковых моделей в университетах. Она учитывает типичные причины сбоев и помогает выстроить работу так, чтобы снизить риски. Такой подход позволяет вузам заранее выявлять уязвимости и безопасно запускать искусственный интеллект в обучении.
Технологии искусственного интеллекта подарили миру не только умных помощников и реалистичных роботов, но и новую, почти неотличимую от реальности форму мошенничества — дипфейки. Поддельные видео- и аудиозаписи, где знакомый человек с экрана умоляет о срочной финансовой помощи, становятся инструментом массового обмана. Чтобы понять, как защитить себя и своих близких от этой угрозы, мы обратились к Василию Шутову, преподавателю кафедры КБ-1 «Защита информации» РТУ МИРЭА.
Коллектив ученых из МФТИ, НИИСИ и Университета Иннополис разработал и детально сравнил между собой ряд высокоэффективных модификаций численного метода, основанного на гибридном подходе с использованием так называемых Химерных сеток. Этот подход позволяет значительно повысить точность и одновременно снизить ресурсоемкость компьютерного моделирования упругих волн в средах со сложной геометрией. Разработка имеет огромное значение для таких критически важных областей, как сейсмическая разведка полезных ископаемых и ультразвуковая дефектоскопия материалов, например, железнодорожных рельсов.
Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.
Понятно
Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.
Понятно
Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.
Понятно
Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.
Понятно
Последние комментарии