Стивен Хокинг, говоря о достижениях в области искусственного интеллекта, в частности, о самоуправляемых машинах и голосовом помощнике Siri, подчеркнул, что «все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия». По мнению Хокинга недооценка угрозы со стороны искусственного интеллекта может стать величайшей ошибкой в истории человечества.
Известный британский физик Стивен Хокинг в статье, написанной в соавторстве с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета, а также профессорами физики Максом Тегмарком и Фрэнком Вильчеком из Массачусетского технологического института, отмечает, что недооценка угрозы со стороны искусственного интеллекта может обернуться для человечества весьма неприятными последствиями и даже стать величайшей ошибкой в истории.
Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков.
– Стивен Хокинг, физик-теоретик и космолог
Авторы статьи считают, что человечество в будущем может столкнуться с тем, что остановить машины с нечеловеческим интеллектом от самосовершенствования будет невозможно.
В результате процесс так называемой технологической сингулярности, подразумевающий чрезвычайно быстрое технологическое развитие, окажется неизбежным. Технологии превзойдут человека и начнут управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, словом, всем.
Хокинг отмечает, что последствиям искусственного интеллекта сегодня посвящено очень мало серьезных исследований. Ученый призывает задуматься о том, что можно сделать, чтобы избежать худшего сценария развития будущего.