Профессора философии предлагают наделить алгоритмы ИИ теми же правами, что есть у животных — Naked Science
30 апреля
7 минут
Редакция

Профессора философии предлагают наделить алгоритмы ИИ теми же правами, что есть у животных

Сегодня ИИ не так сильно развит, чтобы быть способным страдать: ничего не стоит пнуть робота или оскорбить голосового помощника — они не затаят на вас обиды. Но, учитывая темпы развития технологий, имеет смысл быть готовым к тому, что ИИ когда-то достигнет этого уровня.

171115-boston-dynamics-robot-dog-mn-1105_ebd580983676b95977c6f7760c1aba27

Университеты по всему миру проводят крупные исследования в области искусственного интеллекта. Не уступают им и технологические компании, включая Google и Facebook. Как следствие, вполне вероятно, что скоро мы получим настоящий искусственный интеллект, сравнимый по сложности мышления с мышами или собаками. По мнению Джона Базла (John Basl), профессора Северо-Восточного университета (Бостон, США), и Эрика Швицгебеля (Eric Schwitzgebel), профессора Калифорнийского университета в Риверсайде, настало время задуматься, при каких условиях ИИ заслуживает этической защиты, которую мы обычно предоставляем животным.

 

По словам ученых, современные алгоритмы искусственного интеллекта представляют собой бесчувственные инструменты человека, которые могут автоматизировать различные действия. Возможно, однако, что когда-нибудь у ИИ появится что-то, напоминающее сознательный опыт. Готовясь к этому дню, профессора утверждают, что нам необходимо создать свод основных правил, регламентирующих отношение к ИИ, уже сейчас. В своей публикации они предполагают, что алгоритмы ИИ заслуживают такого же этического отношения и прав, какими сейчас пользуются животные.

 

Сегодня ИИ не так сильно развит, чтобы испытывать подобие каких-либо чувств, включая страдание. Ничего не стоит пнуть робота или оскорбить голосового помощника — они не затаят на вас никакой обиды. Но, учитывая современные темпы технологического развития, имеет смысл быть готовыми к тому, что ИИ когда-то все же достигнет этого уровня. 

 

«В случае исследований на животных и даже на людях соответствующие средства защиты были установлены только после того, как стали известны серьезные этические нарушения (например, в случае ненужных вивисекций, военных нацистских медицинских преступлений и исследования сифилиса Таскиги). В случае с ИИ у нас есть шанс проявить себя с лучшей стороны», — отмечают профессора. 

 

Ученые соглашаются с мнением о том, что ИИ может не заслуживать этической защиты по причине того, что у этих роботов нет сознания: то есть, если у них нет осознаваемого опыта с настоящей радостью и страданиями. Однако профессора задают более сложный философский вопрос: как мы узнаем, когда создали нечто, способное на радость и страдание? Если ИИ похож на Долорес из сериала Westworld, он сможет пожаловаться и защитить себя, инициируя обсуждение своих прав. Но если ИИ нечленоразделен, как мышь или собака, или если он по какой-то причине не может сообщить о своей внутренней жизни, то о его страданиях мы и не узнаем. Ученые констатируют трудность этого вопроса, так как специалисты в изучении сознания еще не достигли консенсуса в том, что такое сознание и как мы можем определить его присутствие.

 

Эксперты обращают внимание читателей на то, что обсуждение «риска ИИ» обычно фокусируется на рисках, которые новые технологии могут представлять для нас, людей: в этом списке — захват мира и уничтожение человечества или, по крайней мере, разрушение нашей банковской системы. Менее обсуждается этический риск, который мы представляем для ИИ из-за возможного плохого обращения с ним. В силу этого специалисты предлагают создать надзорные комитеты, которые будут оценивать передовые исследования ИИ с учетом этих вопросов.

 

«Вполне вероятно, что такие комитеты сочтут все текущие исследования ИИ допустимыми. Согласно большинству основных теорий сознания, мы все же еще не создаем ИИ с сознательным опытом, заслуживающим этического рассмотрения. Но довольно скоро мы можем пересечь эту решающую этическую линию и должны быть готовы», — заключают ученые.

Позавчера, 19:17
4 минуты
Илья Ведмеденко

Эксперты измерили радиолокационную заметность нового шведского корвета типа «Висбю»: она оказалась чрезвычайно малой.

Вчера, 14:50
3 минуты
Денис Гордеев

Меняющаяся структура глобального рынка автомобилей приведет к массовым сокращениям.

Позавчера, 10:27
24 минуты
Редакция

Конспирологические теории давно вышли за пределы камерных форумов в Сети и разговоров на кухнях – сегодня о них можно прочитать в газетах и услышать по ТВ. Их сторонники считают, что Земля плоская, первые лица государств – инопланетяне-рептилоиды, а ВИЧ выдумали фармакологические компании. Разберемся, какие особенности нашего восприятия делают конспирологию такой привлекательной и может ли вера в мировой заговор нанести реальный ущерб.

4 декабря
39 минут
Александр Березин

В 2017 году от рака умерло 9,6 миллиона человек, и с каждым годом эта цифра будет расти. Есть ли способы остановить наступление этой болезни на человеческие жизни?

Позавчера, 19:17
4 минуты
Илья Ведмеденко

Эксперты измерили радиолокационную заметность нового шведского корвета типа «Висбю»: она оказалась чрезвычайно малой.

Вчера, 14:50
3 минуты
Денис Гордеев

Меняющаяся структура глобального рынка автомобилей приведет к массовым сокращениям.

15 ноября
6 минут
Никита Шевцов

Ученые впервые воспроизвели в реальности парадокс друга Вигнера. В результате физики выяснили, что квантовые явления субъективны: каждый наблюдатель может иметь свои альтернативные факты насчет них, и все они будут правдивы.

4 декабря
39 минут
Александр Березин

В 2017 году от рака умерло 9,6 миллиона человек, и с каждым годом эта цифра будет расти. Есть ли способы остановить наступление этой болезни на человеческие жизни?

18 ноября
4 минуты
Сергей Васильев

Накопление эпигенетических модификаций ДНК позволило провести параллели между возрастом собак и людей и найти новую формулу для пересчета одного в другой.

[miniorange_social_login]

Комментарии

Написать комментарий

Подтвердить?
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: