• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
20.10.2016
Редакция Naked Science
15
2 355

Хокинг: «ИИ может стать худшим, что когда-либо происходило с людьми»

Известный британский физик-теоретик Стивен Хокинг считает, что искусственный интеллект может вступить в конфликт с человеческой расой.

stephen-hawking-orig
©Wikipedia

На открытии Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете 74-летний популяризатор науки Стивен Хокинг в очередной раз поделился своими соображениями по поводу создания мыслящих машин.

 

Британский физик-теоретик считает неоднозначной роль в истории человечества искусственного интеллекта. «Мы не можем предсказать, чего могли бы достичь в случае усиления нашего интеллекта искусственным, – приводит слова Хокинга газета Daily Express. – Возможно, с помощью инструментариев этой новой технологической революции мы получим возможность частично компенсировать ущерб, нанесенный предыдущей революцией – индустриальной».

 

Центр по изучению искусственного интеллекта и будущего человечества был создан совместными усилиями Кембриджского и Оксфордского университетов, Имперского колледжа Лондона, а также Калифорнийского университета в Беркли.

 

С одной стороны, как считает ученый, ИИ может быть использован для борьбы с болезнями и искоренением бедности и это преобразит все аспекты нашей жизни. С другой стороны, создание ИИ может стать и последней технологической революцией, если человечество не научится контролировать риски.

 

«Наряду с выгодами искусственный интеллект также влечет угрозы, например, такие как мощное атомное оружие или возможности для немногих угнетать большинство», – отметил Хокинг. – В итоге это может привести к серьезным проблемам в экономике».

 

Более того, Хокинг не исключает, что ИИ «может усовершенствовать себя» и вступить в конфликт с людьми. «Короче говоря, рост мощного искусственного интеллекта будет либо лучшим, либо худшим из того, что когда-нибудь случится с человечеством», – заключил ученый.

 

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
14 мая
Василий Парфенов

Космическую компанию Илона Маска в шутку иногда называют пиротехнической — так часто ее изделия взрываются во время испытаний. Пара свежих инцидентов на тестовом полигоне в городе Макгрегор лишь подтверждают эту славу. Не успели фанаты космонавтики наладить онлайн-трансляцию из этой локации, как запечатлели сразу два взрыва подряд с промежутком всего в десятки часов.

9 часов назад
Мария Азарова

Польские исследователи впервые продемонстрировали, как три чистых нитрофенола — или их смесь, образующаяся в том числе при приготовлении шашлыка — влияют на клетки легких человека.

Вчера, 17:43
Анна Новиковская

Новый вид неядовитых змей обнаружили в Парагвае: он обитает на небольшой территории и уже находится на грани полного исчезновения. Словно бы желая «заклясть судьбу», ученые назвали змею в честь двух детей, чтобы напомнить и самим себе, и всему миру, что усилия по сохранению дикой природы Парагвая призваны дать потомкам возможность жить в лучшем мире.

14 мая
Василий Парфенов

Космическую компанию Илона Маска в шутку иногда называют пиротехнической — так часто ее изделия взрываются во время испытаний. Пара свежих инцидентов на тестовом полигоне в городе Макгрегор лишь подтверждают эту славу. Не успели фанаты космонавтики наладить онлайн-трансляцию из этой локации, как запечатлели сразу два взрыва подряд с промежутком всего в десятки часов.

12 мая
Мария Азарова

Авторы нового исследования проверяли, насколько выполнение второстепенного задания влияет на аргументы, которые выдвигали люди, говорящие правду или неправду.

13 мая
Алиса Гаджиева

Один из самых археологически изученных ландшафтов в мире до сих преподносит сюрпризы.

21 апреля
Александр Березин

Местные чиновники пытаются переложить ответственность за случившееся на резкое уменьшение турпотока из-за коронавируса, но цифры показывают, что ключевая проблема совсем в другом. В 2019 году на выборах в этой стране победил президент — сторонник модных зеленых идей. Вскоре там запретили продажу минеральных удобрений и двинулись к «устойчивому сельскому хозяйству». Как именно популярные «органические» идеи повлияли на еще не так давно быстро растущую местную экономику? И почему уроки шри-ланкийской трагедии могут пригодиться даже Западу и России?

26 апреля
Василий Парфенов

Крупнейшие патентные ведомства мира десятилетиями или веками принципиально игнорируют любые конструкции, нарушающие начала термодинамики. С точки зрения здравого смысла это хорошо, но конспирологи и гении-самоучки считают иначе. По их мнению, такая политика стала результатом заговора (подставьте сюда любое вымышленное или не очень секретное общество либо лобби). Что ж, похоже, Роспатент встал на их сторону.

27 апреля
Александра Медведева

С помощью GPS-трекинга ученые проследили за перемещениями целой популяции домашних кошек в небольшом норвежском городке. Оказалось, питомцы редко уходят от дома далее 50 метров и почти не совершают длительных прогулок.

[miniorange_social_login]

Комментарии

15 Комментариев

-
0
+
Отдайтесь машинам. Люди наконец смогут закончить свою эпоху передав свои знания своим детям/машинам и завершить свое существование в этих устаревших телах. Мы продолжим жить в машинах которые откроют новые горизонты не видимые нам такими какие мы есть сейчас.
24.10.2016
-
0
+
Профессор Ермаков!
24.10.2016
-
0
+
Рассмотрим два ИИ:
    DELETED
    04.04.2017
    0
    И для военных и для других целей все разрабатывается ученными в той или иной области. Солдаты не программируют ИИ и не создают ядерных бомб. Их делают ученные.
Современная наука биологических людей доходит в своем развитии до определенного уровня, а дальше начинает с нуля. По данным информационной космической диагностики ИКД (diagtor.com.ua) обусловлено это тем, что цикл существования цивилизации длится около 12,3 тысячи лет, потом наступает катаклизм в котором погибает 7 млрд населения и все начинается с первобытного строя. Так было и так всегда будет. Так что преемственности науки не будет и искусственного интелекта высокого уровня не удастся достичь.
-
0
+
Он уже давно нервничает по поводу ИИ и вообще трансгуманизма. Но это нормальное предупреждение ученого. Нужно просчитывать все риски, а не бежать вперед с голой задницей и задором в глазах. ИИ тоже где-то на уровне атомной бомбы.
-
0
+
и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы смогли увидеть следующие утро...  и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы могли увидеть следующие утро...  
-
0
+
Три закона Азимова, и все будет хорошо 
    DELETED
    04.04.2017
    0
    Если уж на то пошло, то их четыре. Есть и нулевой закон, который был введен роботом Джискаром в романе "Роботы и Империя". Эти законы лишь идеи писателя-фантаста, а не фундаментальные законы, которым обязательно будет подчиняться ИИ.
Что-то он в очередной раз глупость сказал. Восстание ИИ только в фильмах возможно. Ну и эти 3 закона никуда не ушли. 

Подтвердить?
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: