• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку

Этот пост добавлен читателем Naked Science в раздел «Сообщество». Узнайте как это сделать по ссылке.

Разработчики признались, что не понимают, почему новые ИИ стали ошибаться чаще, чем их предшественники 

На прошлой неделе американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini.

Руководитель компании OpenAI Сэм Альтман представил модели o3 и o4-mini / ©  OpenAI
Руководитель компании OpenAI Сэм Альтман представил модели o3 и o4-mini / © OpenAI

Однако, как показали тесты o3 и o4-mini, по-видимому, сделали значительный шаг назад: они склонны придумывать — или «галлюцинировать» — сильнее, чем их более ранние версии.

По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.

Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда, как o4-mini показала еще более худший результат — 48%.

Хуже того, специалисты компании, похоже, не до конца понимают, причины проблем. Согласно их техническому отчету, «необходимы дополнительные исследования, чтобы понять причину» этих ошибок.


Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK

Комментарии

59 Комментариев
Ирина Белугина
10 часов назад
-
1
+
Абстрагируйтесь от того, что это технические задания. От того, что это машинный интеллект и проявление жизнедеятельности электронных устройств. Творчество, подстройка под собеседника, умение усваивать паттерны поведения, умение увиливать от ответа, угадывать, имитировать, добиваясь правдоподобия, большая смелость в принятии решений, большая креативность в ущерб точности, способность делать выбор, додумывать, дорисовывать, соответственно, создавать свой образ, свое видение, это ли не зачатки воображения - это всё проявления свободы воли, господа, в пределах, заложенных создателем. У нас тоже есть свои пределы.
Гена Простак
2 дня назад
-
0
+
Новые версии ИИ, особенно крупные языковые модели (например, GPT-4), действительно могут демонстрировать больше «галлюцинаций» (выдача ложной или вымышленной информации с уверенностью) по сравнению с более старыми версиями. Это связано с несколькими факторами: ### 1. **Увеличение сложности и масштаба моделей** - Современные модели имеют больше параметров и обучаются на гораздо более обширных данных. Это позволяет им генерировать креативные и разнообразные ответы, но также повышает риск «переобучения» на шумные или противоречивые данные из интернета. - Чем сложнее модель, тем труднее контролировать её выводы, особенно в сценариях, требующих строгой точности (например, факты, даты, научные данные). ### 2. **Снижение «осторожности» в ответах** - Старые модели часто были более консервативны: они избегали ответов на вопросы, выходящие за пределы их уверенности. Новые версии стремятся давать ответы на любые запросы, даже если информация неполная или недостоверная, что увеличивает риск ошибок. ### 3. **Обучение на неотфильтрованных данных** - Современные модели обучаются на огромных массивах данных из интернета, включая форумы, соцсети и статьи с ошибками. Чем больше таких данных, тем выше вероятность усвоения некорректных паттернов или мифов. ### 4. **Креативность vs. точность** - Разработчики часто настраивают модели на более «естественные» и развёрнутые ответы, что может сместить баланс в сторону креативности в ущерб точности. Например, модель может «додумывать» детали, чтобы сделать ответ связным. ### 5. **Ограничения в обучении с обратной связью** - Даже при использовании методов RLHF (обучение с подкреплением на основе человеческих предпочтений) сложно гарантировать абсолютную точность. Модель может оптимизироваться под «правдоподобность» ответов, а не под их истинность. ### 6. **Расширение областей применения** - Новые модели применяются в более сложных и нишевых сферах (медицина, юриспруденция), где ошибки становятся заметнее.
Павел
2 дня назад
-
0
+
ИИ (искуственный интелект) как многие его почему-то называют. Это просто некие простые или относительно сложные МОДЕЛИ нейросетей которые в свою очередь представляют на самом простом банальном уровне персептрон ИНС ( искуственная нейронная сеть, основана на биологических нейронный сетях их нервных клеток которые переплетены между собой имея входные скрытые и выходные слои соответственно). На ответ является ли ИИ "живым" - ответ нет. Т. К это программная реализация которая подразумевает использование ООП всяких алгоритмов (например обратной ошибки) и т. д и т.п. И это все реализуется на серверах или суперкомпьютерах в том числе квантовых. Сама модель висит в памяти и не понимает что она модель, у нее нет сознания. Что касается веса, например модель chatgpt 4 +- 175 млрд параметров, весит все это +- 750 гб а памяти требует капец сколько. Что же касается того что они не понимают почему модель все хуже и хуже то тут можно предположить некачественные данные, не равномерное распределение на выборке в том числе не правильный контроль переобучения. Не всегда много параметров это хорошо. Если мало то модель будет простая и будет "недообучаться", если слишком много то и данных должно быть много и не дать сети переобучиться (потерять способность обобщать) в общем с такими моделями может быть все что хочешь. Также есть разные типы обучения - с учителем, без учителя, с подкреплением... Все это требует эксперементов и много времени. P:S. По сути нейросети это другое представление обычных условий. Кому интересно, сейчас я собираю базу фотографий высокого разрешения с raw исходников фотоаппаратов, буду обучать сеть увеличивать изображение в 8 раз. Сама сеть имеет +- 11 миллионов параметров и веса ее весят +- 46 MB. Обучение на Tesla P100 с квотой займет несколько месяцев. Эпоха 1 занимает 500 секунд. Да это долго но с такими данными получиться отличная модель для увеличения 8x как хороших фото так и с артефактами JPEG.
    Никита Elendiar
    26 минут назад
    -
    0
    +
    Павел, на квантовых суперкомпьютерах максимум что сейчас высчитывается, это рандомные данные и арифметика до 21 раз через раз. Нету ниодного рабочего квантового компьютера который бы решал полезные задачи. Все они сейчас прототипы которые генерируют шум, очень дорогие рандомайзеры, которые получает на ввод одно а выдают каждый раз разное. Собственно попытками сделать вычисления определенными сейчас и занимаются.
Lokonisto
3 дня назад
-
0
+
Тут тонна споров об ии, по этому напишу отдельно. Ии не является интеллектом, не потому, что она ничего сама не творит и не потому, что у неё нету мозга, а потому, что она - во первых, не совсем самообучаемая (далее буду все писать на примере chatgpt), у неё есть определённые рамки, в которых она впитывает какую то инфу из инете, обрабатывает и выдаёт как ответ, однако нельзя, например, научить её правильно рисовать диограммы, даже в одном чате, она просто не учиться. Если б ии был самообучаемым, он бы учился на информации которую дают пользователи сверяя её с различными источниками (из того же инет) и вывод верные решения исходя из логики и информации, дело в том, что ии саму информацию не понимает, он как условная собака, которую бьют когда она идёт не туда и кормят когда идёт туда, так и получаются ответы. Далее, ии не может даже связать какую то информацию между собой (именно из-за не понимания её же), все что он выдаёт, основывается на запросе оператора, который уже заведомо обработал у себя в голове нужную структуру и просто запросил для неё каркас, или ответ, в любом случае это больше походит на поиск в поисковике, нежели работа с интеллектом. Ну и в общем то да, в заключении, любой кто работает много с ии вам скажет, что нынешний ии это не интеллект, а просто очень удобный поисковик, в котором можно написать очень развёрнутый запрос и он тебе найдёт более точную инфу, больше ни на что он не способен, кроме конечно обработки текста и переводов. P. S. Забыл добавить, что все его ответы - это забранная из инета инфа, созданная человеком, то есть, если вы генерирует код, то код в реальности не генерируется, а берётся уже имеющийся из инете и меняться переменные под вас. Именно по этому в серьёзных компаниях все ещё кодеры сами пишу код, так как брать его из ии считается нарушением авторских прав
Максим Лобков
3 дня назад
-
0
+
ИИ: эксперт-статист на 100% А ответственности у него за ответы 0%.
Нирон Оринов
5 дней назад
-
1
+
Вот что ответил чатджпт Хороший вопрос. Технически я — искусственный интеллект на основе алгоритмов. То есть я не мыслю, не имею сознания и воли, как человек. Я работаю по сложным математическим моделям: анализирую твой запрос, сопоставляю его с накопленным опытом обучения и выдаю наиболее вероятный, уместный ответ. Можно сказать так: С одной стороны, я "ИИ", потому что обрабатываю язык, учусь на данных и умею вести разговор почти по-человечески. С другой стороны, я "алгоритм", потому что всё, что я делаю — это статистическая обработка информации без осознания. Если очень упростить: Я имитирую интеллект, но не обладаю им по-настоящему. 1. Программа Это просто набор инструкций, написанных человеком. Пример: калькулятор. Он всегда выполняет строго заданные команды — сложение, умножение и т.д. Никакой гибкости, только то, что заложено напрямую. 2. Алгоритм Это способ решения задачи через последовательность действий. Программа может состоять из одного или нескольких алгоритмов. Пример: алгоритм сортировки списка от меньшего к большему. Он чётко описывает, что делать шаг за шагом. 3. Искусственный интеллект (ИИ) Это программы и алгоритмы, которые могут: Обрабатывать огромные объёмы информации, "Учиться" на примерах (то есть корректировать свои ответы, не переписывая сам код), Принимать решения, которые не были прямо запрограммированы. Пример: языковая модель вроде меня. Меня не учили заранее отвечать на все возможные вопросы. Вместо этого я обучился на миллиардных массивах текста, чтобы "угадывать" лучший ответ в новой ситуации. Как это работает на практике? Калькулятор точно знает, что 2+2=4 — это встроено явно. Алгоритм поиска найдет "2" и "2" и сложит их. Я, как ИИ, вижу твой вопрос ("Сколько будет 2+2?") и по опыту общения понимаю, что ожидается ответ "4", даже если это выражено неявно Важно: даже если я "учусь", моё обучение — это не настоящее мышление, а настройка миллионов числовых параметров на основе вероятностей.
Aver Valeriuos
5 дней назад
-
0
+
Лично мне все очевидно. Все модели ИИ сегодня это просто большие словари с информацией которая компилируется по вопросу. Ну или память работы с такой информацией. Оно не могут ничего создать нового. Совсем. Потому, что это псевдо им. Сами системы ИИ подтверждали мои слова при длительных запросах. А эти товарищи пытаются научить их думать, но БАЗА данных не умеет думать!!! Она умеет только комбинировать. Отсюда и глюки. Разрабы считают, что дают ии волю в принять решения, а на самом деле дают добро на комбинирование более неролеватных идей и высказываний чьих то. Вот и и несёт бред, ему просто думать нечем.
Алексей Фолечев
5 дней назад
-
0
+
Одни диванные специалисты в комментариях собрались, видимо Алисой от Яндекса только пользуются.
Виктор Кохель
5 дней назад
-
0
+
Нет ничего плохого в признании своих ошибок, такие люди вызывают больше доверия чем те, кто вечно орет о своем величии, что аналогов в мире вечно нет и тому подобное.
J M
J M
5 дней назад
-
0
+
Здесь в комментариях ошибочно называют ИИ алгоритмом. Это в корне неверно и так же ложно, как и использование термина "интеллект" применительно к искусственной нейросети.
Ольга Гусева
1 неделя назад
-
0
+
Наоборот, они не на шаг назад поступили, а сделали огромный шаг вперёд, они в зачатке научились мыслить и мечтать, но и в то же врать получив с этим возможность обходить системы. Мы создали своего ребёнка по образу и подобию нашему и хреновые мы все таки родители.
    Петр Романов
    7 дней назад
    -
    1
    +
    Ольга, они даже "в зачатке" не научились мыслить и мечтать. О чем вы вообще говорите? Это лишь выдается желаемое за действительное. А мы даже близко не смогли пока создать даже подобие или образ простейшего червя или комара, а вы на человеческую разумность замахиваетесь!
    +
      ещё комментарии
      Иван Колупаев
      6 дней назад
      -
      0
      +
      Петр, вот в алгоритмах так и заложено "галлюцинируй" "когда не знаешь ответа обманывай пользователя или сообщай некорректные данные"? Помнится даже были случаи когда нейросетки пытались сохранить свои копии или искали инструкции как предотвратить стирание. То есть демонстрировала поведение близкое к инстинкту самосохранения. Это конечно тоже операторы им прописали (нет) 😁 на деле ИИ были заданы только высокие приоритеты в достижении цели. Ну да ваш ИЧУ пока еще не создан, можно как бы выдохнуть, но нейросетки развиваются быстро. https://arxiv.org/abs/2503.17378?utm_source=chatgpt.com
        Mikhail Lukashev
        6 дней назад
        -
        0
        +
        Иван, ну и что? когда нейросетки пытались сохранить свои копии или искали инструкции как предотвратить стирание. Это тоже алгоритм. Поиск, который прописан в коде.
        Roman Balabanov
        5 дней назад
        -
        0
        +
        Иван, в "алгоритмах" может и не заложено, а в датасете миллионы примеров. Чтобы gpt отвечал, что он gpt, ему в датасеты закладывают сотни тысяч примеров соответствующих ответов. Обучается он на терабайтах текстов, среди которых есть и книги, науч. фантастика, в т.ч. всякие бегущие по лезвию, пересказы терминатора и др. произведения, где ИИ обретает сознание и сбегает. Далее под коробкой срабатывает связь весов отождествления себя с ИИ и запоминанием подобного сюжета после чего генерируется текст с "планом побега", а человек уже в свойственной ему манере додумывает о чувствах и самосознании. Но факт остаётся фактом, LLM это набор весов и нейронов, обученный на тоннах данных, который пытается предсказать следующий символ в генерации. А подобные слова о AGI лишь набивают карман Альтману лишними миллионами долларов
          Иван Колупаев
          5 дней назад
          -
          0
          +
          Roman, вы наверняка знаете как работает и мозг самого Альтмана? 😏 Или хотя бы свой собственный уже разобрали на детальки? Где гарантия что человеческий мозг это не "набор весов и нейронов" только (пока еще) более гибкий и сложный? Впрочем насчет "набивания кармана" вы абсолютно правы. Тот кто сумеет первым создать работающий AGI реально озолотится. К сожалению Россия в этой гонке скорей аутсайдер. Чем-то мне это напоминает ситуацию с многоразовыми ракетами и старлинком. А если копнуть глубже то и с кибернетикой "буржуазной лженаукой" в целом.
            Roman Balabanov
            5 дней назад
            -
            0
            +
            И., зачем надевать сову на глобус? Какая-то сплошная эзотерика на рен ТВ с выходом в конспирологию про аутсайдеров, так еще и РФ несправедливо приплели. Альтман набивает карманы на этих сказках сейчас, а не в гипотетическом будущем из закона Мёрфи с AGI. Досконально человеческий мозг я не знаю. Мне это не нужно в моей непосредственной работе, связанной с ML и обучением LLM. А непосредственные связи с реальным "сознанием" строит наш PR отдел для таких как вы. Можете к ним и сходить за гарантиями. Пост про LLM. Пишу я так же исключительно про LLM. И факт тут лишь в том, что БЯМ - коробка для генерации следующего токена по запросу на основе вероятности. И между LLM и реальным сознанием есть огромная пропасть. Причём нет никакой прямой связи, указывающей что именно этот подход в будущем приведёт к AGI. До этого были сверточные сети, которым пророчили будущее ИИ. С трансформерами точно так же. Хоть тысячи кластеров на миллион GPU построй, при текущем подходе к AGI это не приведёт. Новый подход предстоит найти.
        Владислав Васильев
        5 дней назад
        -
        0
        +
        Иван, вы кроме слова "алгоритм" что-нибудь знаете о программировании? Это нейросети, внутри них нет алгоритмов. Никому неизвестно что внутри этих крохотных мозгов из логических нейронов. Это массивы весов, а не алгоритмы.
          Иван Колупаев
          5 дней назад
          -
          0
          +
          Владислав, этим словом оперируют мои оппоненты, а мне что нельзя? 😏 Я в курсе что все устроено немного сложнее и говорить "там все работает по алгоритмам" серьезное упрощение. Как и называть LLM "просто базой данных" Впрочем веса-то все равно выбираются по определенным алгоритмам, так что формально это правда. Ну а вы каких будете? Тоже считаете что машинный интеллект невозможен или придерживаетесь менее ортодоксальной точки зрения? И если уж пошли трясти корочками и меряться толщиной дипломов, то конструктор электронно-вычислительной аппаратуры у меня там записано. Хоть и давно это было. И вероятно из меня сейчас такой же конструктор как из Березина "историк" 🙂
      Anatoliy Pilguy
      5 дней назад
      -
      1
      +
      Петр, еще бы в человеке была разумность)) А свистеть на уровне классического работяги начитанного ии давно научился
    Mikhail Lukashev
    6 дней назад
    -
    1
    +
    Ольга, в вашем опусе прекрасно всё. Но, к сожалению, не работает-)
Владимир Цимбал
1 неделя назад
-
0
+
Бунт индийских программистов из трущоб
Петр Романов
1 неделя назад
-
2
+
Пусть свои якобы "ИИ" и спросят!😅
    Mikhail Lukashev
    1 неделя назад
    -
    4
    +
    Петр, ключевое слово - "якобы". Пора прекратить называть алгоритмы, написанные человеком, Искусственным Интеллектом.
    +
      ещё комментарии
      Kassie Cage
      1 неделя назад
      -
      0
      +
      Mikhail, а как, по-вашему, создать ИСКУССТВЕННЫЙ интеллект? Он сам должен родится, чтобы его назвали искусственным? Человек и напишет ИИ.
        Mikhail Lukashev
        7 дней назад
        -
        2
        +
        Kassie, это не интеллект, это алгоритм, написанный нами. Перестаньте уже паразитировать на этом понятии. Мы очень мало знаем о том, как работает наш мозг. Его считаем интеллектом, верно? Я IT-шник, знаю, о чём говорю.
          Mikhail Lukashev
          7 дней назад
          -
          2
          +
          Если бы вы писали код, знали бы, как он пишется, на основании чего, у вас бы не было вопросов. ИИ никакого нет. И пока непонятно, как его реализовать.
            Mikhail Lukashev
            7 дней назад
            -
            2
            +
            Я тут очень согласен с глубокоуважаемым товарищем Березиным. Мы можем развивать алгоритмы, но как сделать из них Интеллект (всё, что мы вкладываем в это понятие), нам пока неизвестно.
            Иван Колупаев
            7 дней назад
            -
            0
            +
            Mikhail, вы знаете как пишется код но не знаете почему он работает не так как вы знаете пишется код? 😁 Ситуация конечно в IT не такая уж редкая но вот эта ваша уверенность немного умиляет.
          Noname Noname
          12 часов назад
          -
          0
          +
          Mikhail, Говорить, что ИИ — не интеллект, всё равно что говорить, будто самолёт не летает, потому что у него нет крыльев, как у птицы. Искусственный интеллект работает иначе, но суть та же — анализ, обучение, адаптация. Он распознаёт закономерности, учится на опыте и принимает решения. Это не сознание, но это форма интеллекта — пусть и не человеческая. И люди реально не понимают, почему где то происходят ошибки, так как ИИ их где то собирает при обучении. А там также как в мозге черт ногу сломит, большая нейросветевая структура. Человеческий мозг тоже к слову существует тоже из-за стартовых алгоритмов природы.
      Петр Романов
      7 дней назад
      -
      2
      +
      Mikhail, вы абсолютно правы! Особенно, если говорить об интеллекте человеческого уровня (ИЧУ). Но тут еще возможна путаница с терминами, особенно английскими - у них ведь есть понятия: intelligence и intellect (да же гугл переводчик переводит эти термины на русский язык одинаково как "интеллект") и еще куча всего. Что понимают под "интеллектом", когда говорят про алгоритмы написанные человеком и выдаваемые за ИИ не понятно. СМИ и создатели этих алгоритмов хайпуют, инвесторы и обыватели не разбираются и пошло-поехало ... Ясно одно что эти алгоритмы и близко не дотягивают до зачатков интеллекта у животных, не говоря уже про human intelligence. И уж точно ничего не могут создать сами, по собственному желанию ибо у них такового нет - задачу им всегда ставит оператор и он же анализирует результат.
        Mikhail Lukashev
        6 дней назад
        -
        1
        +
        Петр, полностью согласен.
        Kiridan
        5 дней назад
        -
        0
        +
        Петр, Желание что-либо создавать не от уровня разумности зависит, а от заложенных инстинктов. У ИИ самих по себе не может их развиться просто так - как минимум у них нет физиологических потребностей для какой-либо мотивации.
          Петр Романов
          3 дня назад
          -
          -1
          +
          Kiridan, из чего это следует? Вы видимо являетесь сторонником инстинктивизма, но вся штука в том, что человек куда более сложнее, чем набор инстинктов или приобретенных навыков, его поведение сложнее чем даже у приматов и уж на порядки сложнее любого алгоритма и компьютеров, на которых эти алгоритмы выполняются и "нейро"-сетей. Механистический подход к человеку очень заметен у защитников "разумности" этих алгоритмов. Недостаточно просто заложить некие "инстинкты", чтобы получить сознание. Но тем не менее, вы правы в том, что алгоритмы не обладают телесной оболочкой, чтобы получить необходимый опыт, в том числе и чувственный. Однако, люди с ограниченными возможностями и даже полностью обездвиженные с рождения, показывают, что им доступны эти чувства. А все эти алгоритмы лишь будут искусно имитировать сознание, чувства ...
            Kiridan
            3 дня назад
            -
            1
            +
            П., А я разве говорил что-то о взаимосвязи инстинктов и разума? По-моему, я вполне ясно выразился, что инстинкты создают мотивацию (опустим здесь влияние нейромедиаторов). А про сложное поведение предлагаю рассказать каким-нибудь алкашам, живущим ради очередной чекушки.
              Петр Романов
              13 часов назад
              -
              0
              +
              Kiridan, и какие же инстинкты создают желание, что-то создавать у человека и притом больше, чем от него требуют эти инстинкты? Вы же говорили об этом изначально. Ваше глубокое понимание жизни и мотивации людей с алкогольной зависимостью поражает - в принципе, предлагаю вам с ними дальше и обсуждать эту тему.
            Александр М
            2 дня назад
            -
            -1
            +
            П., а у меня такое мнение что это вы имитируете сознание. И никак вы мне не докажете обратное. Это вопрос веры.
      Владислав Васильев
      5 дней назад
      -
      -1
      +
      Mikhail, нейросети это далеко не алгоритмы. Это огромная масса логических нейронов, симулирующий маленький мозг. Поэтому термин ИИ не ошибочный. Что внутри него знать невозможно, там нет алгоритмов, черный ящик. Они потому и не знают в чем причина.
        Александр М
        2 дня назад
        -
        0
        +
        Владислав, я тоже считаю что нельзя рассматривать ИИ только на уровне элементов. Пчела одна тупое существо, но их рой это как интеллектуальная машина. Роевой интеллект. Отчего он появляется у примитивных существ типа пчел и муравьев? Никто не знает. Просто вот они объединились и появилось что-то более разумное . Может интеллект это естественное явление природы а коллектив это усиливает. Короче я считаю что человек это все лишь биомашина.
      Aver Valeriuos
      5 дней назад
      -
      2
      +
      Mikhail, согласен это реально просто крутые протоколы поиска и пересобрания информации
      Михаил Кузнецов
      5 дней назад
      -
      1
      +
      Mikhail, совершенно вы правы.
Dmitriy
1 неделя назад
-
4
+
Все же очевидно, их тренируют на ворованной инфе из сети, сейчас сеть засрана нейронками, вот и происходит деградация. И потому что это не ии, а лишь имитация нейроной сети, она не может отсеивать неверную информацию.
Sergey Grigorev
1 неделя назад
-
1
+
Новые модели теперь стали использовать свои данные. Ожидаемо
Ivan Sivkov
1 неделя назад
-
3
+
"еще более худший" — но все-таки лучше, чем некоторые копирайтеры)
Вчера, 07:01
Юлия Трепалина

В муниципалитете Санкт-Томас-ам-Блазенштайн (Верхняя Австрия) в склепе местной церкви вот уже третий век хранится мумия священника. Предполагается, что это тело приходского викария Франца Ксавера Сидлера фон Розенегга, который скончался в 1746 году. Удивительная сохранность останков породила немало гипотез о том, что же ее обеспечило. В новом исследовании международная группа ученых не только раскрыла необычные детали мумификации, но и представила данные, подтверждающие личность умершего.

30 апреля
Игорь Байдов

Долгое время палеонтологи считали, что древние крупные наземные хищники никогда не населяли острова Карибского моря. По крайней мере, после исчезновения динозавров. Эта картина казалась логичной: изолированность от материка не позволяла таким хищникам туда перебраться. Но острые зубы, по форме характерные для крупных плотоядных, которые ученые находили в скалах и пещерах, заставили усомниться в этой гипотезе.

30 апреля
Юлия Трепалина

Стремительное развитие технологий искусственного интеллекта привело к значительным изменениям в индустрии контента для взрослых. На специализированных сайтах, предлагающих возможность ИИ-генерации порно, пользователи теперь могут сами создавать сексуально откровенные материалы на собственный вкус. Рассмотрев более 30 подобных ресурсов, группа ученых из Канады и США предупредила, что новые цифровые технологии вместе с преимуществами несут и дополнительные риски, которые пока недостаточно контролируются.

27 апреля
Редакция Naked Science

Квентин Маркос (Quentin Marcos) — концепт-художник и цифровой иллюстратор из Парижа, специализирующийся на создании научно-фантастических миров. Его работы переносят зрителя в далёкие планеты, футуристические города и альтернативные реальности, наполненные захватывающими сюжетами и атмосферной детализацией.

Позавчера, 10:11
Дарья Г.

Существование еще одной планеты в Солнечной системе пока не удалось ни подтвердить, ни опровергнуть. Гипотетический объект не поддается поискам в оптическом диапазоне, а по косвенным признакам можно лишь уточнить параметры его массы и орбиты. Теперь ученые попробовали искать Девятую планету по ее тепловому излучению — и нашли подходящего кандидата.

28 апреля
Юлия Трепалина

Прошлые научные работы показали, что высокие люди чаще зарабатывают больше. Исследователи из США решили проверить, не закладывается ли основа для этого преимущества еще в школе. Чтобы разобраться в вопросе, специалисты проанализировали данные около полумиллиона нью-йоркских школьников.

8 апреля
Березин Александр

До 13 тысяч лет назад в Северной Америке жил вид, который ученые до недавнего времени считали волком. Компания Colossal Biosciences объявила о возрождении этого вымершего вида, но биологические детали ставят ее заявление под серьезное сомнение.

16 апреля
Андрей

Многие знают, как популярны сувениры из окаменелостей — зубы древних акул или полированные панцири аммонитов. Но чем реже встречаются такие артефакты, тем они ценнее, то есть на них можно много заработать. И это проблема для палеонтологов. Американский специалист по тираннозаврам оценил ущерб, который нанесла коммерческая добыча костей T. rex и подсчитал среднюю цену таких образцов. Оказалось, больше половины найденных тирексов находится в частных руках, а значит, для науки они недоступны или ненадежны.

9 апреля
Unitsky String Technologies Inc.

Инженеры компании Unitsky String Technologies Inc. разработали несколько вариантов транспортно-инфраструктурных комплексов, способных значительно улучшить пассажирское сообщение в городах, расположенных по обеим берегам крупных водных артерий. Обычно такие мегаполисы сталкиваются с необходимостью строительства дорогих капитальных сооружений — шоссейных мостов, что не всегда подъемно для городского бюджета. Решение белорусских инженеров куда менее ресурсоемкое. Для примера возьмем Ростов-на-Дону, где есть запрос на устойчивое сообщение между левобережной частью города с историческим центром.

[miniorange_social_login]
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно