Хокинг: «ИИ может стать худшим, что когда-либо происходило с людьми» — Naked Science
3 минуты
Редакция
15

Хокинг: «ИИ может стать худшим, что когда-либо происходило с людьми»

Известный британский физик-теоретик Стивен Хокинг считает, что искусственный интеллект может вступить в конфликт с человеческой расой.

stephen-hawking-orig
©Wikipedia

На открытии Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете 74-летний популяризатор науки Стивен Хокинг в очередной раз поделился своими соображениями по поводу создания мыслящих машин.

 

Британский физик-теоретик считает неоднозначной роль в истории человечества искусственного интеллекта. «Мы не можем предсказать, чего могли бы достичь в случае усиления нашего интеллекта искусственным, – приводит слова Хокинга газета Daily Express. – Возможно, с помощью инструментариев этой новой технологической революции мы получим возможность частично компенсировать ущерб, нанесенный предыдущей революцией – индустриальной».

 

Центр по изучению искусственного интеллекта и будущего человечества был создан совместными усилиями Кембриджского и Оксфордского университетов, Имперского колледжа Лондона, а также Калифорнийского университета в Беркли.

 

С одной стороны, как считает ученый, ИИ может быть использован для борьбы с болезнями и искоренением бедности и это преобразит все аспекты нашей жизни. С другой стороны, создание ИИ может стать и последней технологической революцией, если человечество не научится контролировать риски.

 

«Наряду с выгодами искусственный интеллект также влечет угрозы, например, такие как мощное атомное оружие или возможности для немногих угнетать большинство», – отметил Хокинг. – В итоге это может привести к серьезным проблемам в экономике».

 

Более того, Хокинг не исключает, что ИИ «может усовершенствовать себя» и вступить в конфликт с людьми. «Короче говоря, рост мощного искусственного интеллекта будет либо лучшим, либо худшим из того, что когда-нибудь случится с человечеством», – заключил ученый.

 

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Позавчера, 17:16
4 минуты
Мария Кривоченко

Разработать варианты крылатого пилотируемого космического корабля поручил глава «Роскосмоса» Дмитрий Рогозин. Предполагается, что аппарат будут строить по типу орбитального корабля «Буран», который использовался в СССР.

6 августа
5 минут
Денис Гордеев

Новая система работает в любых атмосферных условиях — при дожде, ветре и большом количестве пыли в воздухе.

Вчера, 12:21
2 минуты
Илья Ведмеденко

Представлена демонстрационная версия РЛС для перспективного южнокорейского боевого самолета. Радиолокационная станция имеет активную фазированную антенную решетку.

6 августа
30 минут
Николай Цыгикало

Трагическая новость о взрыве огромной силы в Бейруте, занявшая первые строчки новостных ресурсов, вызывает естественные вопросы: как это могло произойти, что там взорвалось, в силу каких факторов возможны подобные происшествия? Чтобы разобраться, взглянем пристальнее на свойства аммиачной селитры и связанные с ней опасные моменты.

Позавчера, 17:16
4 минуты
Мария Кривоченко

Разработать варианты крылатого пилотируемого космического корабля поручил глава «Роскосмоса» Дмитрий Рогозин. Предполагается, что аппарат будут строить по типу орбитального корабля «Буран», который использовался в СССР.

6 августа
5 минут
Денис Гордеев

Новая система работает в любых атмосферных условиях — при дожде, ветре и большом количестве пыли в воздухе.

22 июля
66 минут
Александр Березин

С 2064 года численность людей начнет сокращаться — и этот процесс может быть необратим. Один из авторов соответствующей научной работы прямо указывает: если ничего не изменится, через несколько веков человечество вымрет. Однако есть вещи и похуже вымирания. Куда вероятнее иной сценарий: мир будет заселен теми, кто сможет размножаться в новых культурных условиях. К сожалению, значительная часть современных европейцев, американцев и, возможно, других народов будут вытеснены с первых страниц истории. Вдобавок те, кто победят в этой непростой борьбе, нам, сегодняшнему населению Земли, могут сильно не понравиться. Попробуем разобраться почему.

10 июля
7 минут
Мария Кривоченко

Биологи выяснили, какое воздействие оказывают радиоволны на эмбрионы рыб. Оказалось, они существенно не влияют на уровень смертности, морфологию и реакцию на свет, но немного подавляют сенсомоторные функции. Как это скажется на взрослых особях, еще предстоит выяснить.

12 июля
28 минут
Илья Ведмеденко

Программа ПАК ДП (перспективный авиационный комплекс дальнего перехвата) привлекает к себе все больше внимания. Разберемся, что это такое и появится ли у России новый боевой самолет.

[miniorange_social_login]

Комментарии

15 Комментариев

ulogin_vkontakte_71757503
24.11.2016
-
0
+
Отдайтесь машинам. Люди наконец смогут закончить свою эпоху передав свои знания своим детям/машинам и завершить свое существование в этих устаревших телах. Мы продолжим жить в машинах которые откроют новые горизонты не видимые нам такими какие мы есть сейчас.
Даша2000
24.10.2016
-
0
+
Профессор Ермаков!
Даша2000
24.10.2016
-
0
+
Рассмотрим два ИИ:
    04.04.2017
    0
    И для военных и для других целей все разрабатывается ученными в той или иной области. Солдаты не программируют ИИ и не создают ядерных бомб. Их делают ученные.
ulogin_facebook_720936081381778
23.10.2016
-
0
+
Современная наука биологических людей доходит в своем развитии до определенного уровня, а дальше начинает с нуля. По данным информационной космической диагностики ИКД (diagtor.com.ua) обусловлено это тем, что цикл существования цивилизации длится около 12,3 тысячи лет, потом наступает катаклизм в котором погибает 7 млрд населения и все начинается с первобытного строя. Так было и так всегда будет. Так что преемственности науки не будет и искусственного интелекта высокого уровня не удастся достичь.
ulogin_vkontakte_2115307
23.10.2016
-
0
+
Он уже давно нервничает по поводу ИИ и вообще трансгуманизма. Но это нормальное предупреждение ученого. Нужно просчитывать все риски, а не бежать вперед с голой задницей и задором в глазах. ИИ тоже где-то на уровне атомной бомбы.
ulogin_vkontakte_168745148
21.10.2016
-
0
+
и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы смогли увидеть следующие утро...  и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы могли увидеть следующие утро...  
ulogin_vkontakte_13830212
21.10.2016
-
0
+
Три закона Азимова, и все будет хорошо 
    04.04.2017
    0
    Если уж на то пошло, то их четыре. Есть и нулевой закон, который был введен роботом Джискаром в романе "Роботы и Империя". Эти законы лишь идеи писателя-фантаста, а не фундаментальные законы, которым обязательно будет подчиняться ИИ.
ulogin_facebook_1725059621085081
21.10.2016
-
0
+
Что-то он в очередной раз глупость сказал. Восстание ИИ только в фильмах возможно. Ну и эти 3 закона никуда не ушли. 
    ulogin_vkontakte_13830212
    21.10.2016
    -
    0
    +
    Не стоит отменять человеческий фактор. 
      Luger
      21.10.2016
      -
      0
      +
      Да чего все так вяжутся к этим законам Азимова? Ведь, на секундочку, он писатель-ФАНТАСТ! И по какой причине ИИ обязан будет подчиняться "законам", которые придумал один писатель?
        ulogin_vkontakte_13830212
        24.10.2016
        -
        0
        +
        А каким законам по вашему мнению должен подчинятся ИИ? 
          Luger
          12.11.2016
          -
          0
          +
          Это будет зависеть от степени его совершенности. Раз это компьютерное существо, то во главе угла должны стоять, например, законы логики.
            04.04.2017
            0
            И что нелогичного в законах, описанных Азимовым? Он, конечно, фантаст, но эти идеи в той или иной форме лягут в основу ИИ. В конце концов все фантасты славились своей потрясающей дальновидностью.

Подтвердить?
Лучшие материалы
Предстоящие мероприятия
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: