Тема:
62 Статей

Хокинг: «ИИ может стать худшим, что когда-либо происходило с людьми»

Известный британский физик-теоретик Стивен Хокинг считает, что искусственный интеллект может вступить в конфликт с человеческой расой.

14K

На открытии Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете 74-летний популяризатор науки Стивен Хокинг в очередной раз поделился своими соображениями по поводу создания мыслящих машин.

 

Британский физик-теоретик считает неоднозначной роль в истории человечества искусственного интеллекта. «Мы не можем предсказать, чего могли бы достичь в случае усиления нашего интеллекта искусственным, – приводит слова Хокинга газета Daily Express. – Возможно, с помощью инструментариев этой новой технологической революции мы получим возможность частично компенсировать ущерб, нанесенный предыдущей революцией – индустриальной».

 

Центр по изучению искусственного интеллекта и будущего человечества был создан совместными усилиями Кембриджского и Оксфордского университетов, Имперского колледжа Лондона, а также Калифорнийского университета в Беркли.

 

С одной стороны, как считает ученый, ИИ может быть использован для борьбы с болезнями и искоренением бедности и это преобразит все аспекты нашей жизни. С другой стороны, создание ИИ может стать и последней технологической революцией, если человечество не научится контролировать риски.

 

«Наряду с выгодами искусственный интеллект также влечет угрозы, например, такие как мощное атомное оружие или возможности для немногих угнетать большинство», – отметил Хокинг. – В итоге это может привести к серьезным проблемам в экономике».

 

Более того, Хокинг не исключает, что ИИ «может усовершенствовать себя» и вступить в конфликт с людьми. «Короче говоря, рост мощного искусственного интеллекта будет либо лучшим, либо худшим из того, что когда-нибудь случится с человечеством», – заключил ученый.

 

14K

Подпишись на нашу рассылку лучших статей за неделю.

Загрузка...
Загрузка...

Комментарии

Что-то он в очередной раз глупость сказал. Восстание ИИ только в фильмах возможно. Ну и эти 3 закона никуда не ушли. 

Не стоит отменять человеческий фактор. 
Ошибка – люди способны допустить ошибку при разработке того или иного ПО, ИИ может стать не контролируемым и нарушить все законы. 
Цели –предполагаю что ИИ могут использовать для военных операций, а это напрямую нарушает первый закон.

Да чего все так вяжутся к этим законам Азимова? Ведь, на секундочку, он писатель-ФАНТАСТ! И по какой причине ИИ обязан будет подчиняться "законам", которые придумал один писатель?

А каким законам по вашему мнению должен подчинятся ИИ? 

Это будет зависеть от степени его совершенности. Раз это компьютерное существо, то во главе угла должны стоять, например, законы логики.

Три закона Азимова, и все будет хорошо 

и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы смогли увидеть следующие утро...  и почему всех так пугает ии? да, он будет умнее любого человека, но пока что стоит больше бояться какого-нибудь террориста с гранатой а не его. Возможно и выйдет создать саморазвивающийся ии который убьет всех людей,но никто не отменял вероятность того что через пару часов например вспыхнет сверхновая. Или кто-нибудь из наших уважаемых лидеров применит ядерное оружие. Или комета упадет. Если нам повезет то хороший ии сможет просчитать варианты и согласовать все так чтобы мы могли увидеть следующие утро...  

Он уже давно нервничает по поводу ИИ и вообще трансгуманизма. Но это нормальное предупреждение ученого. Нужно просчитывать все риски, а не бежать вперед с голой задницей и задором в глазах. ИИ тоже где-то на уровне атомной бомбы.

Аватар пользователя Petr Ermakov

Современная наука биологических людей доходит в своем развитии до определенного уровня, а дальше начинает с нуля. По данным информационной космической диагностики ИКД (diagtor.com.ua) обусловлено это тем, что цикл существования цивилизации длится около 12,3 тысячи лет, потом наступает катаклизм в котором погибает 7 млрд населения и все начинается с первобытного строя. Так было и так всегда будет. Так что преемственности науки не будет и искусственного интелекта высокого уровня не удастся достичь.
Ермаков П П, профессор

Аватар пользователя Даша2000

Рассмотрим два ИИ:
Первый развивают военные для своих целей ( убивать больше людей!)
Второй воспитывают и развивают ученые ( это очень ответственные и адекватные люди в своем принципе)

Вопрос:
Какой их этих двух разумов будет опасен Человечеству, если выйдет из-под контроля?
 

Аватар пользователя Даша2000

Профессор Ермаков!
 Позволю Вам сказать, что Вы совсем не правы!
( как же школоте приятно вот так сказать Профессору!)
Да, мне в этом повезло!

К Вам вопрос ( науке нужны не интуитивные предчувствия и озарения небес, А ФАКТЫ?)
 Какие факты говорят о периоде жизни разума 12.00 лет?
И что нужно хлопнуть  7 млрд. землян?
  Предьявите?
Тогда я Вас стану уважать. 

Но сильно Ваше " послание" смахивает на план Ротшильдов  проредить население планеты и мило так управлять оставшимся в живых стадом ( именно так людей называет и религия и мировые кланы).

Профессор!
Давайте факты!!!

Аватар пользователя Егор Савчук

Отдайтесь машинам. Люди наконец смогут закончить свою эпоху передав свои знания своим детям/машинам и завершить свое существование в этих устаревших телах. Мы продолжим жить в машинах которые откроют новые горизонты не видимые нам такими какие мы есть сейчас.

Plain text

  • Разрешённые HTML-теги: <br/>
  • Строки и параграфы переносятся автоматически.
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.

Быстрый вход

или зарегистрируйтесь, чтобы отправлять комментарии