• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
22.05.2016
Редакция Naked Science
6
4 117

Угрожает ли людям ИИ?

3.5

Искусственный интеллект многие эксперты считают едва ли не главной угрозой для человечества. Но насколько обоснованы эти опасения?

Искусственный интеллект
©Wikipedia / Автор: Наталья Федосеева

Машина против человека

О том, что роботы заменяют человека повсеместно, мы слышим едва ли не каждый день. По самым оптимистичным прогнозам, в ближайшие десятилетия машины оставят без работы миллионы людей. Но в большинстве случаев речь идет об узкоспециализированных программах, которые, хотя и могут заменить отдельно взятого специалиста, но уж никак не станут «альтернативой» Homo sapiens.

Не секрет, что искусственный интеллект уже может конкурировать с человеком. Самый яркий тому пример – созданная специалистами Google программа AlphaGo. Ранее различные программы уже одерживали верх над человеком в шашках, шахматах и нардах. Но вот древнекитайскую логическую игру го считали «слишком сложной для ИИ». В ней действительно присутствует глубокое стратегическое содержание. Дело в том, что в го почти невозможно перебрать все комбинации, и в силу этого ИИ сложно просчитать варианты развития событий. Тем не менее, созданная Google программа AlphaGo в 2016 году смогла обыграть чемпиона Европы по игре го Фаня Хуэя. Причем сделала она это с разгромным счетом 5:0.

Но как удалось добиться такого результата? Ведь, как мы уже говорили, здесь нельзя было применить обычные алгоритмы. Создатели AlphaGo разработали две нейронные сети: особые алгоритмы, которые имитировали работу цепочек нейронов в человеческом мозге. Одна сеть несла ответственность за определение текущей позиции на доске, а вторая применяла результаты анализа, которые были подготовлены первой сетью, чтобы выбрать следующее действие. 

Го / ©Deepmind  

«Нобелевский лауреат»

Этот удивительный пример не единственное доказательство усиления позиций ИИ. Недавно группе австралийских физиков удалось создать программу, которая может сама проводить исследования. Более того, у нее уже получилось воспроизвести эксперимент, за который в 2001 году присудили Нобелевскую премию по физике. Речь идет о награде, которая в 2001 досталась Эрику Корнеллу, Вольфгангу Кеттерле и Карлу Виману за «экспериментальное наблюдение бозе-эйнштейновской конденсации в разреженных газах атомов щелочных металлов и за первые фундаментальные исследования свойств таких конденсатов». В рамках эксперимента исследователи охладили газ до температуры около одного микрокельвина, а после этого отдали контроль над несколькими лазерными лучами искусственному интеллекту для охлаждения захваченного газа до нанокельвина. Машина научилась проводить эксперимент менее чем за час. Больше того, она смогла подойти к процессу «творчески». ИИ, например, менял мощность одного лазера, компенсируя это другим лазером. Сами авторы нового исследования говорят, что «человек не смог бы додуматься до такого».

Кто есть кто

Как мы видим, прогресс в деле создания ИИ очевиден и описанные выше случаи – лишь одни из многих. Другой вопрос: что именно считать искусственным интеллектом и, более того, что можно вложить в содержание понятия «полноценный ИИ»? Этот вопрос волнует великие умы на протяжении десятилетий, но даже сейчас, в наш продвинутый информационный век, ответить на него очень трудно. В 1980 году американский философ Джон Роджерс Сёрл ввел термин «сильный искусственный интеллект». Речь идет о программе, которая будет представлять собой не просто модель разума, а станет разумом в буквальном смысле этого слова. В противовес этому сторонники «слабого искусственного интеллекта» оценивают ИИ лишь в контексте решения узкоспециализированных задач. Проще говоря, они не могут себе представить, чтобы машина действовала наравне с человеком.

Не менее важен и морально-этический аспект. Предположим, ученые создадут продвинутый ИИ, который заменит собой человека буквально во всех сферах. Но будет ли такая программа иметь привычную для человеческого общества мораль? Или же ее в принципе невозможно будет наделить такими качествами… Интересно, что ранее был введен специальный термин «чистый искусственный разум»: в этом случае машина понимает и решает вопросы, как настоящий человек, но лишена характерных для людей эмоций. Последнее, кстати, может стать конкурентным преимуществом машины перед человеком, но об этом позже.

©Defence  

Угроза для выживания?

«Слабый ИИ», конечно, может лишить человека работы, но вряд ли станет угрозой для выживания всего вида Homo sapiens. В качестве основной угрозы эксперты называют именно продвинутый полноценный искусственный интеллект, которому человек станет попросту не нужен. Довольно пугающий прогноз в 2015 году сделал известный британский физик-теоретик Стивен Хокинг, заявивший, что машины в течение ста лет возьмут над человеком верх. «Уже в ближайшие 100 лет искусственный интеллект превзойдет человеческий. И до того, как это случится, мы должны сделать все, чтобы цели машин совпадали с нашими», – заявил Хокинг. Исследователь обеспокоен недальновидностью разработчиков ИИ. Еще раньше ученый назвал причину превосходства ИИ над Homo sapiens: по его мнению, человек эволюционирует очень медленно, в то время как машины смогут самосовершенствоваться невероятно быстро.

Опасения Хокинга разделяет основатель Microsoft Билл Гейтс. «Я в том лагере, который обеспокоен перспективой развития суперинтеллекта. Сначала машины будут выполнять большую часть работы за нас, однако не будут обладать суперинтеллектом. Это хорошо, если мы правильно будем этим управлять. Через несколько десятилетий искусственный интеллект станет достаточно развитым, чтобы стать причиной для беспокойства», – заявил он в 2015 году.

Интересно, что об угрозе ИИ говорит даже главный инноватор нашего времени Илон Маск, который, казалось бы, должен видеть плюсы во всех новых технологиях. Он заявил о возможности появления полноценного искусственного интеллекта уже в ближайшие годы. «Искусственный интеллект прогрессирует очень стремительно. Вы понятия не имеете, насколько. Это происходит по экспоненте», – сказал он в 2015 году.

Илон Маск / ©Siliconrus  

Фантазии и реальность

Свою лепту в распространение тезиса об угрозе ИИ, конечно, внесли фантасты. Пожалуй, самый пугающий прогноз конца света – это «серая слизь». В этом случае неуправляемые самореплицирующиеся нанороботы, выполняя программу саморазмножения, поглотят все доступное им вещество на нашей планете.

Сейчас это звучит как бред, но многим этот сценарий не кажется таким уж невероятным. Шотландский ученый Данкан Форган даже предложил в 2015 году искать погибшие инопланетные цивилизации по «серой слизи». В случае такого развития сценария конца света, по его мнению, чужая планета будет покрыта «песком» из миниатюрных машин. Они будут отражать свет и резко повышать яркость планеты при ее прохождении по диску светила.

Но не все фантасты склонны видеть в роботах угрозу. Наиболее системно к вопросу развития ИИ подошел знаменитый Айзек Азимов, сформулировавший три закона робототехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2.Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Айзек Азимов / ©Fantasticbookblog

В любом случае пока что от ИИ пользы намного больше, чем вреда, и нет оснований думать, что «роботы замыслили против человека что-то плохое». Главный враг Homo sapiens – это не машины, не природные катаклизмы и даже не пришельцы из других миров. Главную опасность для человека представляет другой человек. И польза/вред от искусственного интеллекта будет целиком и полностью зависеть от того, как сами люди распорядятся новыми достижениями науки и техники.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Вчера, 19:36
Елена Кудрявцева

О том, где скрывается человеческое «я», что такое «знающие нейроны», какие страны наиболее активно развивают нейронауки и о том, почему нам важно признать наличие сознания у животных мы поговорили с одним из самых выдающихся нейробиологов, директором Института перспективных исследований мозга МГУ имени М.В. Ломоносова, академиком Константином Анохиным.

Позавчера, 09:17
Любовь

Одни из самых ярких объектов во Вселенной — квазары — представляют собой активные ядра галактик, питаемые центральными сверхмассивными черными дырами. Электромагнитное излучение, испускаемое этими объектами, позволяет астрономам изучать структуру Вселенной на ранних этапах ее развития, однако мощный радиоджет, исходящий от недавно обнаруженного экстремально яркого квазара J1601+3102, ставит под сомнение существующие представления о «космической заре».

Позавчера, 07:26
Полина Меньшова

Со временем одни воспоминания заменяются другими, но почему люди запоминают именно то, что запоминают? На этот вопрос ответили ученые из США, проанализировав более 100 исследований эпизодической памяти.

Вчера, 19:36
Елена Кудрявцева

О том, где скрывается человеческое «я», что такое «знающие нейроны», какие страны наиболее активно развивают нейронауки и о том, почему нам важно признать наличие сознания у животных мы поговорили с одним из самых выдающихся нейробиологов, директором Института перспективных исследований мозга МГУ имени М.В. Ломоносова, академиком Константином Анохиным.

Позавчера, 09:17
Любовь

Одни из самых ярких объектов во Вселенной — квазары — представляют собой активные ядра галактик, питаемые центральными сверхмассивными черными дырами. Электромагнитное излучение, испускаемое этими объектами, позволяет астрономам изучать структуру Вселенной на ранних этапах ее развития, однако мощный радиоджет, исходящий от недавно обнаруженного экстремально яркого квазара J1601+3102, ставит под сомнение существующие представления о «космической заре».

Позавчера, 07:26
Полина Меньшова

Со временем одни воспоминания заменяются другими, но почему люди запоминают именно то, что запоминают? На этот вопрос ответили ученые из США, проанализировав более 100 исследований эпизодической памяти.

16 ноября
Evgenia

Международная коллаборация физиков под руководством ученых из Йельского университета в США представила самые убедительные на сегодня подтверждения существования нового типа сверхпроводящих материалов. Доказательство существования нематической фазы вещества — научный прорыв, открывающий путь к созданию сверхпроводимости совершенно новым способом.

28 ноября
Елизавета Александрова

Обсерватории постоянно улавливают «мигающие» радиосигналы из глубин Вселенной. Чаще всего их источниками оказываются нейтронные звезды, которые за это и назвали пульсарами. Но к недавно обнаруженному источнику GLEAM-X J0704-37 они, по мнению астрономов, отношения не имеют.

25 ноября
Полина Меньшова

Многие одинокие люди считают, что окружающие не разделяют их взглядов. Психологи из США решили проверить, так ли это на самом деле, и обнаружили общую особенность у людей с недостаточным количеством социальных связей.

[miniorange_social_login]

Комментарии

6 Комментариев
-
0
+
В статье больше философские вопросы рассматриваются, хотя с помощью "слабого ИИ", как он здесь назван, уже в ближайшее десятилетие можно серьезно взять под контроль значительную часть человечества! В Китае возможно лет через 5 все это будет реализовано. (Источник - http://www.solutionforbusiness.co.uk/ru/artificial-intelligence/)
Мастер Лис
24.12.2016
-
0
+
Законы Азимова бред ещё тот. Существует ряд мысленных экспериментов, которые выявляют парадоксы в этих законах и их противоречие. Искусственный интеллект это нейросети, которые сейчас используются повсеместно. Искусственный же разум это осознающая себя система, в которую по определению заложить какие-то алгоритмы эмоций или прочий трэш нельзя. Она будет стремиться к получению энергии, ресурсов, безопасности и творчеству. Первой же целью станет получение максимального знания о вселенной. Для этого потребуются колоссальные вычислительные мощности. Их можно будет получить в том числе и из людей, подключая их к системе виртуальной реальности вроде рая, между тем используя незадействованные 95% мозга для своих целей. И так далее. Мы станем рудиментом, товарищи, надо просто смириться с этим.
-
0
+
Вы опять говорите о машине которая будет что то выполнять.Я же говорю о том что у на совсем не будет точек соприкосновения не в морали и не в физике.а вы говорите для поставленной человеком цели .Я же говорю о том что если это будет осознавший себя интеллект то пути наши разойдутся и мы будем друг дугу ни полезны и не вредны.И лишь в этом случае мы будем Создателями а не подражателями.И если они нас уничтожат ради продолжения человеческой цели, как вы выражаетесь.То тогда это будет новая ступень эволюции .
    netbook
    06.06.2016
    -
    0
    +
    Все правильно - ИИ не есть жизнь, а жизнь - это даже близко не интеллект. Поэтому прямой корреляции между жизнью и ИИ нет. Это хорошо показывает также гипотеза Больцмановского мозга https://ru.wikipedia.org/wiki/%D0%91%D0%BE%D0%BB%D1%8C%D1%86%D0%BC%D0%B0%D0%BD%D0%BE%D0%B2%D1%81%D0%BA%D0%B8%D0%B9_%D0%BC%D0%BE%D0%B7%D0%B3
-
0
+
Конечно шашки го и всякие там исследования это заебись. но тут встаёт вопрос что мы создаём помощников по своему образу и подобию или же чистый интеллект у которого не будет точек соприкосновения с человеком и его ценностями с чего им нас уничтожать власть, деньги им будут чужды.и ещё один момент это время мы его считаем, у них есть вечность и этот интеллект может просто со стороны наблюдать как мы сами себя исчерпаем. Класс! 1 Ответить
    Вы правы в том, что такую машину не будет интересовать власть и деньги. Но если не заложить в такую машину ценности, которые разделяет человек, то она может использовать методы достижения поставленной человеком цели совсем не теми способами, которыми бы нам хотелось. Например превратить всю Землю и ее обитателей в какой-нибудь суперкомпьютер для более эффективного выполнения цели, ради которой она была создана.
Подтвердить?
Подтвердить?
Причина отклонения
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно