• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
20.10.2016, 14:19
Редакция Naked Science
19
7,5 тыс

Хокинг: «ИИ может стать худшим, что когда-либо происходило с людьми»

Известный британский физик-теоретик Стивен Хокинг считает, что искусственный интеллект может вступить в конфликт с человеческой расой.

stephen-hawking-orig
©Wikipedia / Автор: Cloelia Andronicus

На открытии Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете 74-летний популяризатор науки Стивен Хокинг в очередной раз поделился своими соображениями по поводу создания мыслящих машин.

 

Британский физик-теоретик считает неоднозначной роль в истории человечества искусственного интеллекта. «Мы не можем предсказать, чего могли бы достичь в случае усиления нашего интеллекта искусственным, – приводит слова Хокинга газета Daily Express. – Возможно, с помощью инструментариев этой новой технологической революции мы получим возможность частично компенсировать ущерб, нанесенный предыдущей революцией – индустриальной».

 

Центр по изучению искусственного интеллекта и будущего человечества был создан совместными усилиями Кембриджского и Оксфордского университетов, Имперского колледжа Лондона, а также Калифорнийского университета в Беркли.

 

С одной стороны, как считает ученый, ИИ может быть использован для борьбы с болезнями и искоренением бедности и это преобразит все аспекты нашей жизни. С другой стороны, создание ИИ может стать и последней технологической революцией, если человечество не научится контролировать риски.

 

«Наряду с выгодами искусственный интеллект также влечет угрозы, например, такие как мощное атомное оружие или возможности для немногих угнетать большинство», – отметил Хокинг. – В итоге это может привести к серьезным проблемам в экономике».

 

Более того, Хокинг не исключает, что ИИ «может усовершенствовать себя» и вступить в конфликт с людьми. «Короче говоря, рост мощного искусственного интеллекта будет либо лучшим, либо худшим из того, что когда-нибудь случится с человечеством», – заключил ученый.

 

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
10 января, 11:00
Игорь Байдов

На юге Африки ученые обнаружили коллекцию небольших каменных стрел. С виду — обычные артефакты древнего человека. Но современные технологии позволили выявить их смертельный секрет. Эти наконечники, которым почти 60 тысяч лет, сохранили следы яда. Авторы нового исследования пришли к выводу, что древние охотники стали использовать яды намного раньше, чем считала наука.

12 января, 10:04
Илья Гриднев

Биологи на примере птиц определили защитную функцию рыжего пигмента феомеланина, который ранее считали бесполезным и даже опасным из-за доказанной связи с развитием меланомы. Организм использовал его синтез для нейтрализации ядовитого избытка цистеина и выводил токсичные запасы серы в перья.

12 января, 10:22
Игорь Байдов

В Олдувайском ущелье на севере Танзании ученые обнаружили скелет слона возрастом 1,78 миллиона лет, а рядом с ним — необычные для того времени каменные орудия. Авторы нового исследования полагают, что им удалось найти древнейшее место разделки гигантской добычи.

10 января, 11:00
Игорь Байдов

На юге Африки ученые обнаружили коллекцию небольших каменных стрел. С виду — обычные артефакты древнего человека. Но современные технологии позволили выявить их смертельный секрет. Эти наконечники, которым почти 60 тысяч лет, сохранили следы яда. Авторы нового исследования пришли к выводу, что древние охотники стали использовать яды намного раньше, чем считала наука.

9 января, 12:04
Андрей Серегин

Ученые десятилетиями ищут кости мамонтов, которые, по данным генетиков, могли дожить на материке до бронзового века. Очередная потенциальная находка с Аляски, считавшаяся остатками мамонтов, после проверки оказалась костями китов, умерших около двух тысяч лет назад.

8 января, 22:23
Редакция Naked Science

Польша может экстрадировать на Украину российского археолога, заведующего сектором археологии Северного Причерноморья в отделе Античного мира Эрмитажа Александра Бутягина. Соответствующее ходатайство направила прокуратура в Окружной суд Варшавы.

17.12.2025, 14:19
Игорь Байдов

На скалистых берегах аргентинской Патагонии разворачивается настоящая драма. Магеллановы пингвины, долгое время чувствовавшие себя в безопасности на суше в своих многотысячных колониях, столкнулись с новым и беспощадным врагом. Их извечные морские страхи — касатки и морские леопарды — теперь блекнут перед угрозой, пришедшей из глубины материка. Виновник переполоха — грациозный и мощный хищник, недавно вернувшийся на эти земли после долгого изгнания.

23.12.2025, 10:51
Игорь Байдов

Среди самых интригующих открытий космического телескопа «‎Джеймс Уэбб» — компактные объекты, получившие название «маленькие красные точки». Их видели только в самых дальних уголках Вселенной. Большинство возникло в первый миллиард лет после Большого взрыва, и ученые предполагали, что такие источники представляют собой небольшие компактные галактики. Однако международная команда астрономов пришла к иному выводу. Они предположили, что на самом деле «маленькие красные точки» — черные дыры, окруженные массивной газовой оболочкой.

2 января, 12:27
Адель Романова

Ученые задались вопросом: почему два расположенных по соседству спутника Юпитера такие разные, ведь на Ио повсеместно извергаются вулканы, а Европа полностью покрыта многокилометровой коркой льда. Есть версия, что Ио когда-то тоже была богата водой, но по итогам недавнего исследования это сочли неправдоподобным.

[miniorange_social_login]

Комментарии

19 Комментариев
KisTohka
17.04.2024
-
0
+
Воооот оно, воооооттт! А вот представьте себе человека который желает смерти человечеству, а их сейчас море, он поможет ии и все.. нам песец.. вот в чем песец! Человеческий фактор это песец и ИИ тоже вапще прям, дайте ему завод и он начнет производить себя.
Отдайтесь машинам. Люди наконец смогут закончить свою эпоху передав свои знания своим детям/машинам и завершить свое существование в этих устаревших телах. Мы продолжим жить в машинах которые откроют новые горизонты не видимые нам такими какие мы есть сейчас.
Даша2000
24.10.2016
-
0
+
Профессор Ермаков!
Даша2000
24.10.2016
-
0
+
Рассмотрим два ИИ:
    DELETED
    04.04.2017
    -
    0
    +
    И для военных и для других целей все разрабатывается ученными в той или иной области. Солдаты не программируют ИИ и не создают ядерных бомб. Их делают ученные.
Современная наука биологических людей доходит в своем развитии до определенного уровня, а дальше начинает с нуля. По данным информационной космической диагностики ИКД (diagtor.com.ua) обусловлено это тем, что цикл существования цивилизации длится около 12,3 тысячи лет, потом наступает катаклизм в котором погибает 7 млрд населения и все начинается с первобытного строя. Так было и так всегда будет. Так что преемственности науки не будет и искусственного интелекта высокого уровня не удастся достичь.
Он уже давно нервничает по поводу ИИ и вообще трансгуманизма. Но это нормальное предупреждение ученого. Нужно просчитывать все риски, а не бежать вперед с голой задницей и задором в глазах. ИИ тоже где-то на уровне атомной бомбы.
и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы смогли увидеть следующие утро...  и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы могли увидеть следующие утро...  
    -
    0
    +
    Как раз ИИ может идеально спровоцировать "уважаемых лидеров" применить друг по другу стратег. Ядерное оружие... Так что,думайте лучше. Одна страна уже заявила (официально!),что ИИ будет использоваться как консультант правительства. Пункт 2й. Ещё в 80х и советские ,и американские учёные доказали,что система " ядерной паранои", управляемой компьютером с одной либо двух сторон,является принципиально неустойчивой. И это пару раз чуть не привело к ядерной войне,спровоцированной отражениями солнца от кристалликов льда в атмосфере... Читайте больше, и будет Вам счастье....может быть.
Три закона Азимова, и все будет хорошо 
    DELETED
    04.04.2017
    -
    1
    +
    Если уж на то пошло, то их четыре. Есть и нулевой закон, который был введен роботом Джискаром в романе "Роботы и Империя". Эти законы лишь идеи писателя-фантаста, а не фундаментальные законы, которым обязательно будет подчиняться ИИ.
Что-то он в очередной раз глупость сказал. Восстание ИИ только в фильмах возможно. Ну и эти 3 закона никуда не ушли. 
    Не стоит отменять человеческий фактор. 
    +
      ещё комментарии
      Luger
      21.10.2016
      -
      0
      +
      Да чего все так вяжутся к этим законам Азимова? Ведь, на секундочку, он писатель-ФАНТАСТ! И по какой причине ИИ обязан будет подчиняться "законам", которые придумал один писатель?
    -
    0
    +
    Умнейший человек Хокинг,"в очередной раз сказал глупость"... А у Вас,сколько Нобелевских премий,простите?... 3 закона ушли. ИИ делают люди,не читающие фантастику ХХ века,в том и беда...Если вообще,читающие...
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Закрыть
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно