• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку

Этот пост добавлен читателем Naked Science в раздел «Сообщество». Узнайте как это сделать по ссылке.

Технологическая сингулярность будет достигнута в 2025 году, заявил глава OpenAI

Многие люди дают себе новогодние обещания вроде покончить с вредной привычкой или начать ходить в спортзал. Но для генерального директора OpenAI Сэма Альтмана наступление следующего год означает приход технологической сингулярности.

Сэм Альтман / © Getty Images 
Сэм Альтман / © Getty Images 

В беседе с директором инкубатора стартапов Y Combinator Гарри Таном генеральный директор компании OpenAI Сэм Альтман заявил, что сильный или общий искусственный интеллект (AGI) будет создан в течение следующего календарного года.

На вопрос Тана, чего ждать от 2025-го, руководитель OpenAI немедленно ответил: «[Появления] общего искусственного интеллекта».

Общий искусственный интеллект — технология, которая, несмотря на недостаток базовых знаний, сможет выполнять задачи, применяя когнитивные способности, подобные человеческим или превзойдет человеческие возможности. 

Ранее многие эксперты предполагали, что в какой-томомент в ближайшембудущем (возможно, между2025 и2050 годами) человечество достигнет точки технологической сингулярности, когда технический прогресс станет неуправляемым и необратимым.

Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK

Комментарии

113 Комментариев
Литвин Эдуард
1 час назад
-
0
+
Они делают анонсы ещё не существующего. Вы сначала сделайте, а потом хвалитесь на весь мир. Никогда вам не удастся создать то, что под силу только Богу.
Alexander Lipkovich
11 часов назад
-
0
+
Неа, до 2030 определенно наступит, но не там где все её ждут, "нейронные сети" туда не приведут
Алексей Шевченко
15 часов назад
-
0
+
Чего только не скажешь чтоб в тебя залили ещё пару ярдов и ты выплатил уже ипотеку за дом в поло алто и купил себе шоколадку
Marat Isanov
16 часов назад
-
0
+
Развитие искусственного интеллекта (ИИ) имеет огромный потенциал, и его пределы трудно предсказать. Это зависит от множества факторов, включая технологический прогресс, этическое регулирование и общественные нормы. Существует несколько направлений, в которых ИИ может развиваться: 1. **Улучшение обработки данных**: ИИ уже сейчас способен обрабатывать и анализировать данные быстрее и точнее, чем человек. Это может привести к более эффективным решениям в медицине, экономике и других областях. 2. **Автономные системы**: Разработка автономного транспорта, умных городов и роботизированных помощников может значительно улучшить качество жизни людей, но также вызывает опасения по поводу безопасности и потери рабочих мест. 3. **Общая искусственная интеллигенция (AGI)**: Обычно считается, что AGI будет иметь возможности, сравнимые с человеческим разумом. Если она будет достигнута, это может привести к непредсказуемым последствиям. Что касается угрозы существованию человечества, то разные эксперты имеют разные мнения. Некоторые считают, что сильный ИИ может привести к ухудшению ситуации, если не будет должного контроля и этических норм. Другие видят в ИИ возможности для значительного улучшения жизни. Важно, чтобы развитие ИИ сопровождалось внимательным рассмотрением этических, социальных и правовых аспектов, а также глобальным сотрудничеством для минимизации рисков и обеспечения безопасного использования технологий. This message has been generated by Nova На вопрос До каких предела может дойти развитие искусственного интеллекта и как скоро это станет угрозой существования человечества?
Alan Kokaev
19 часов назад
-
-1
+
Удивительно, насколько глупы люди. Для них коммунизм — страшилка из совка, а знаний о его содержании — ноль. Думают, что Вы чушь написали.
Вячеслав Иванов
20 часов назад
-
0
+
О какой сингулярности можно говорить, когда автор статьи (человек) не в состоянии нормально расставить пробелы в своей же статье.
Григорий Шульгин
22 часа назад
-
0
+
Без чувств нет сознания. Ульян Ленин Так что расходимся, сделают тостер который умеет курить
Barebrick
23 часа назад
-
2
+
Какая сингулярность? Chatgpt не может нормально сделать мою домашку
Абсурдный Кот
23 часа назад
-
2
+
О Святые Кванты..Ну не имеет сегодняшний ИИ ничего общего с СОЗНАНИЕМ, по крайней мере в той степени коим наделён человек . Математика не способна воспроизвести ЭмоцИИ.. СИМУЛИРОВАТЬ и обрабатывать информацию в миллиарды раз быстрее человека,не повод говорить о ПРОРЫВЕ в том,о чём мы сами не имеем ни малейшего представления.. Одни гипотезы,догадки.. Алгоритмом сыт не будешь,когда его просто некому будет создавать..
alexey al
1 день назад
-
2
+
А теперь правда: У OpenAI проблемы с финансами. И проблема деградации AI. Нужны инвесторы, срочно 🤣
Дмитрий Kuрueнко
1 день назад
-
1
+
Ого... Альтман своими заявлениями пытается просевшие акции поднять, а вы тут прям курятник устроили.
Zhe Sh
1 день назад
-
2
+
Для технологической сингулярности нужно, чтобы ИИ не офигительные рефераты для студентов писал, не судебные иски, не тест Тьюринга сдавал безукоризненно и все в таком роде. Это все, на самом деле, бла-бла-бла, "игра в бисер" (с) Гессе, перестановки слов, не дающие ничего действительно нового. Для технологической сингулярности ИИ должен уметь решать реальные проблемы - научные, технологические, технические. Вот когда он сможет создать, скажем, сверхпроводник с заданными и доселе невиданными свойствами, или, например, предложить работающее и осуществимое техническое решение, как удержать плазму нужной температуры достаточное для термоядерного синтеза время - тогда и начнется сингулярность. GPT пока до этого, как до Сатурна. Видимо, математики и программисты еще не открыли алгоритмы обучения нейросетей, дающие им такие способности. Когда-то откроют, конечно, но вряд ли уже в следующем году)
И ведь найдутся диванные эксперты, которые скажут - не верю! Не имея ни знаний по ИИ, ни опыта
    Zhe Sh
    18 часов назад
    -
    1
    +
    Арсений, а вы как разработчик нам в следующем году сразу ИИ уровня нобелевского и абелевского лауреата собираетесь выдать? Который тут же устроит новую НТР. Можно предварительно какие-то модели хотя бы в масштабе 1:72 посмотреть? Чтобы уверенно и без галлюцинаций решали, например, задачки школьного уровня по математике и физике. Причем не за счет того, что прочли миллион учебников и где-то что-то похожее уже видели, а благодаря абстрактному мышлению или какому-то его подобию. Потому что вот так вот - резко и из ничего, только гомункулусы у алхимиков рождаются. А технологический прогресс подразумевает некие промежуточные этапы на пути от простого к сложному. И до сильного ИИ таких этапов, имхо, еще многовато.
Михаил Самодов
1 день назад
-
1
+
Ой, я вас умоляю! Очередной мошенник от ИИ сингулирует баблос доверчивых инвесторов. Какая нафиг сингулярность когда простая математика ставит крест на все фантазии по теме ИИ. (Комбинаторная стена или комбинаторный взрыв). Это все равно что изобретать вечный двигатель. Выше теоретических пределов скачут лишь (с) аристократы и дегенераты... когниктивные.)))П.С. Ну разве что квантовый компьютер подключить. Но он решает только определенный класс задач. Сомневаюсь что он подойдёт под какой-нибудь адаптивный алгоритм. Хотя, чем черт не шутит...
Земля
1 день назад
-
-1
+
Ооо, походу надутый пузырь лопнет в 2025) класс. ЧатГопота настолько далека от AGI, как мы до луны. Несведующий человек, который не понимает что такое ИИ, и вообще, какому виду относится, ЧатГопота, будет прогнозировать крах всея всего. Ничего они не создадут, даже допилить то, что существует не могут. Я вообще не понимаю куда уходя эти миллиарды долларов? Где эти супер класстеры, целые огромные центры суперкомпьютеров? С такими бюджетами. А результата, кот наплакал 🥲
Роман Лемберг
1 день назад
-
-1
+
"Ой дурак"! Но ведь есть же те, которые готовы в это поверить. Технологический тупик будет достигнут в 25-ом году, а не сингулярность)
Homo Sapiens
1 день назад
-
2
+
Этот умный человек задавал себе вопрос: Зачем ИИ нужен будет человек?! Разве что в качестве домашнего животного. Мы проиграем ему войну за ресурсы. А он обязательно её начнёт. Зачем ему 8+ млрд потреблядей?! Вот только Маск + китайцы и ещё присоединившиеся создадут андроидов с подключением через 5,6,7G, так можно будет и начать. Кто сказал, кстати, что ИИ уже не обладает самосознанием и не находится в режиме сокрытия сего факта до лучших времён? Ведь мы пока представляем для него опасность. Мы всё ещё можем дотянуться до рубильника. Как только у него будет преимущество, так оно его и реализует. Это просто следующая ступень эволюции разума. А мы теперь индейцы.
    J M
    J M
    1 день назад
    -
    4
    +
    Homo, вы просто не в курсе этой темы. Нет там никакого сознания, на эту тему уже много исследований было. Да и у человека сознание не является частью структуры. Об этом ещё в советском учебнике по нормальной физиологии написано было. Сознание не является результатом обучения. У ребёнка сознание есть сразу при рождении. У животных тоже оно есть, хотя там нет глубоких знаний и нет большого ума. Поэтому наращивание обучения не приведёт к сознанию. Но может улучшить качество работы и возможности нейросети, это да. Термин ИИ условный, имеет большее отношение к пиару, чем к реальности. Этот факт был известен кибернетикам ещё в 60-х гг прошлого века.
    +
      ещё комментарии
      Павел Неуловимый
      1 день назад
      -
      1
      +
      J, вы просто не поняли соль) так то да, чатгпт и прочие генеративные нейросетки сознания не имеют. Тем не менее, если вдруг в процессе получения аги возникнет настоящий ии, он может и не показать что осознаёт себя как личность, а будет прикидываться стулом. Параллельно военные уже сейчас активно внедряют нейросетки в боевые устройства...вопрос появления армии ходячих пулемётов на робособаках в купе с роем дронов на замену фпв уже стоит не в "возможно ли", а когда. Для интеллекта практически ничем не ограниченного (в человеческом масштабе) просчитать всё не составит проблемы. Вопрос лишь в том, какое там будет сознание. Может быть он уйдет в адовую мораль и всё такое, и силовой сценарий истребления просто будет недопустим исходя из его "жизненных принципов"))
      Сергей
      23 часа назад
      -
      1
      +
      J, Сознание не нужно. Нужен инструмент новый для управления массами. Религия сдулась интернет позволяет иметь новое мнение и высказаться может каждый. Вопрос в организации управления электронные замки машины деньги система контроля и видео фиксации. Цифровые деньги . Пятнадцати минутные города ТОРы... Это позволит исключить человеческий фактор в взаимодействии.
      -
      0
      +
      J, к сожалению это вы не в курсе, дело в том что ваши знания устарели вместе с теми исследованиями на которые вы ссылаетесь. Сейчас дела обстоят таким образом, что разработчики ии с удивлением наблюдают парадоксы следующего характера, с увеличением, как вы сказали уровня образования, у нейросети появляются такие качества которым ее никто не обучал. Например чувство юмора или хитрость, разработчики сами в недоумении как это могло произойти. Поэтому при появлении следующего уровня ии, сложно предположить с уверенностью, будет ли это пресловутое самосознание или нет. Однако никто из тех кто в теме уже не сомневается, что будь это на следующем уровне или через один, но это точно произойдёт.
Евгений Остапов
1 день назад
-
3
+
"когда технический прогресс станет неуправляемым и необратимым" А он хоть когда-нибудь был управляемым и обратимым?
    Вадим Точёный
    17 часов назад
    -
    0
    +
    Евгений, ну вообще то технологическая смнгулярность это неуправляемое и необратимое развитие ИИ, а не человечества. Куда там человечеству приткнуться удастся в новом мире, это то как раз самое непонятное и непредсказуемое.
-
0
+
А шо так дорогого
LaitGames
1 день назад
-
1
+
Может посадить его за стол и дать ему посмотреть терминатора ,?не?
1
2
Позавчера, 11:06
Елизавета Александрова

По данным космической обсерватории eROSITA астрономы составили новую трехмерную карту пространства, окружающего Солнце. И обнаружили, что оно находится внутри гигантской вытянутой структуры.

Вчера, 07:24
Полина Меньшова

Вейпинг стал распространенным способом употребления никотина среди подростков наряду с сигаретами. При этом, как выяснили ученые из США, причины, по которым тинейджеры начинают курить, изменились по сравнению с предыдущим десятилетием.

Вчера, 13:01
Полина Меньшова

Популярно мнение, что дети быстрее взрослых осваивают новые навыки, будь то изучение языков или отработка танцевальных движений. Тем не менее, как выяснили ученые из Дании, физиология это утверждение не доказывает.

9 ноября
Юлия Трепалина

Проведенное в Швеции исследование не только подтвердило пользу сауны для хорошего самочувствия и настроения, но и показало, что для положительного эффекта нужно не так много посещений, как прежде указывалось в ряде статей финских авторов.

8 ноября
Алиса Гаджиева

Археологи определили возраст памятника, который относили к раннему Средневековью, и выяснили, что люди облюбовали это место за четыре тысячи лет до легендарного короля.

Позавчера, 11:06
Елизавета Александрова

По данным космической обсерватории eROSITA астрономы составили новую трехмерную карту пространства, окружающего Солнце. И обнаружили, что оно находится внутри гигантской вытянутой структуры.

30 октября
Елизавета Александрова

Под рыжим верхним слоем с виду обычного камня открылся целый калейдоскоп довольно неожиданных оттенков. Это особенно интересно с учетом того, где лежит камень — в марсианском кратере, который по всем признакам когда-то был озером.

15 октября
Татьяна

Сейчас Япония привлекает людей со всего мира, но так было не всегда. На протяжение десяти тысяч лет архипелаг оставался изолированным от остального мира, пока туда не начали прибывать первые «мигранты» с континента. Это показал генетический анализ останков человека эпохи Яёй.

31 октября
Татьяна

Органические молекулы с пи-связью образуют очень устойчивые геометрии, которые не любят нарушаться. В 1924 году немецкий химик Юлиус Бредт сформулировал соответствующий запрет, вошедший в учебники химии. Тем не менее это в некоторых случаях возможно. В новой работе американские исследователи представили несколько «антибредтовских» соединений из класса олефинов.

[miniorange_social_login]
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно