Профессора философии предлагают наделить алгоритмы ИИ теми же правами, что есть у животных — Naked Science
7 минут
Редакция

Профессора философии предлагают наделить алгоритмы ИИ теми же правами, что есть у животных

Сегодня ИИ не так сильно развит, чтобы быть способным страдать: ничего не стоит пнуть робота или оскорбить голосового помощника — они не затаят на вас обиды. Но, учитывая темпы развития технологий, имеет смысл быть готовым к тому, что ИИ когда-то достигнет этого уровня.

171115-boston-dynamics-robot-dog-mn-1105_ebd580983676b95977c6f7760c1aba27
©Wikipedia

Университеты по всему миру проводят крупные исследования в области искусственного интеллекта. Не уступают им и технологические компании, включая Google и Facebook. Как следствие, вполне вероятно, что скоро мы получим настоящий искусственный интеллект, сравнимый по сложности мышления с мышами или собаками. По мнению Джона Базла (John Basl), профессора Северо-Восточного университета (Бостон, США), и Эрика Швицгебеля (Eric Schwitzgebel), профессора Калифорнийского университета в Риверсайде, настало время задуматься, при каких условиях ИИ заслуживает этической защиты, которую мы обычно предоставляем животным.

 

По словам ученых, современные алгоритмы искусственного интеллекта представляют собой бесчувственные инструменты человека, которые могут автоматизировать различные действия. Возможно, однако, что когда-нибудь у ИИ появится что-то, напоминающее сознательный опыт. Готовясь к этому дню, профессора утверждают, что нам необходимо создать свод основных правил, регламентирующих отношение к ИИ, уже сейчас. В своей публикации они предполагают, что алгоритмы ИИ заслуживают такого же этического отношения и прав, какими сейчас пользуются животные.

 

Сегодня ИИ не так сильно развит, чтобы испытывать подобие каких-либо чувств, включая страдание. Ничего не стоит пнуть робота или оскорбить голосового помощника — они не затаят на вас никакой обиды. Но, учитывая современные темпы технологического развития, имеет смысл быть готовыми к тому, что ИИ когда-то все же достигнет этого уровня. 

 

«В случае исследований на животных и даже на людях соответствующие средства защиты были установлены только после того, как стали известны серьезные этические нарушения (например, в случае ненужных вивисекций, военных нацистских медицинских преступлений и исследования сифилиса Таскиги). В случае с ИИ у нас есть шанс проявить себя с лучшей стороны», — отмечают профессора. 

 

Ученые соглашаются с мнением о том, что ИИ может не заслуживать этической защиты по причине того, что у этих роботов нет сознания: то есть, если у них нет осознаваемого опыта с настоящей радостью и страданиями. Однако профессора задают более сложный философский вопрос: как мы узнаем, когда создали нечто, способное на радость и страдание? Если ИИ похож на Долорес из сериала Westworld, он сможет пожаловаться и защитить себя, инициируя обсуждение своих прав. Но если ИИ нечленоразделен, как мышь или собака, или если он по какой-то причине не может сообщить о своей внутренней жизни, то о его страданиях мы и не узнаем. Ученые констатируют трудность этого вопроса, так как специалисты в изучении сознания еще не достигли консенсуса в том, что такое сознание и как мы можем определить его присутствие.

 

Эксперты обращают внимание читателей на то, что обсуждение «риска ИИ» обычно фокусируется на рисках, которые новые технологии могут представлять для нас, людей: в этом списке — захват мира и уничтожение человечества или, по крайней мере, разрушение нашей банковской системы. Менее обсуждается этический риск, который мы представляем для ИИ из-за возможного плохого обращения с ним. В силу этого специалисты предлагают создать надзорные комитеты, которые будут оценивать передовые исследования ИИ с учетом этих вопросов.

 

«Вполне вероятно, что такие комитеты сочтут все текущие исследования ИИ допустимыми. Согласно большинству основных теорий сознания, мы все же еще не создаем ИИ с сознательным опытом, заслуживающим этического рассмотрения. Но довольно скоро мы можем пересечь эту решающую этическую линию и должны быть готовы», — заключают ученые.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Позавчера, 16:23
5 минут
Илья Ведмеденко

Согласно представленным данным, строительству российской орбитальной станции дали зеленый свет. Практическая реализация программы должна начаться вскоре.

Позавчера, 10:28
5 минут
Ольга Иванова

Ученые из Австралии узнали, на протяжении какого периода времени сохраняется эффект эйфории после употребления марихуаны. Это необходимо, например, для более эффективного применения лекарств на основе каннабиса или понимания того, сколько времени необходимо, чтобы сесть за руль.

Вчера, 20:55
2 минуты
Илья Ведмеденко

Компания Blue Origin провела успешный запуск космического аппарата типа New Shepard. В будущем такие корабли будут доставлять космических туристов на высоту примерно 100 километров.

Позавчера, 10:28
5 минут
Ольга Иванова

Ученые из Австралии узнали, на протяжении какого периода времени сохраняется эффект эйфории после употребления марихуаны. Это необходимо, например, для более эффективного применения лекарств на основе каннабиса или понимания того, сколько времени необходимо, чтобы сесть за руль.

8 апреля
13 минут
Мария Азарова

Когда знаменитый епископ Лунда Педер Винструп умер, его похоронили в семейном склепе в Лундском соборе вместе с женой. После реставрации собора в XIX веке гробы перенесли в общее хранилище, а в 2012 году ученые решили исследовать мумифицированные останки. Неожиданно в ногах Винструпа обнаружили небольшой кулек — завернутое в ткань тело недоношенного ребенка. Это открытие вызвало резонный вопрос: как эмбрион попал в гроб к епископу и имели ли они родственную связь?

Позавчера, 16:23
5 минут
Илья Ведмеденко

Согласно представленным данным, строительству российской орбитальной станции дали зеленый свет. Практическая реализация программы должна начаться вскоре.

17 марта
12 минут
Василий Парфенов

Продолжавшееся более пяти лет уголовное дело подошло к завершению: серийного сетевого сексуального маньяка осудили на 75 лет тюремного заключения. Чтобы поймать человека, растлившего 375 несовершеннолетних девушек, потребовалось пойти на беспрецедентные и этически спорные меры: создать вредоносное ПО и подсунуть злоумышленнику видеоловушку со встроенным вирусом.

25 марта
36 минут
Александр Березин

Улыбающийся мультимиллиардер планирует понять, насколько эффективно мел в стратосфере защищает планету от солнечного света, и если результат хорош, распылить его там в гигантских количествах. Потенциально это результативная задумка: ученые давно показали, что так можно добиться полного покрытия Земли устойчивыми льдами — вплоть до экватора. Увы, идея Гейтса — плагиат, причем не лучший. Советский исследователь предложил похожее полвека назад с более эффективной серой. Интереснее другое: подобные мероприятия один раз едва не уничтожили человечество. Разбираемся в деталях, а также в том, грозит ли нам повторение.

31 марта
51 минута
Александр Березин

Самый зловещий оружейный проект всех времен и народов — термоядерная торпеда, предназначенная для радиационного поражения огромных площадей и создания искусственного цунами. Никогда до этого ни одна страна даже не заявляла о намерении сделать нечто настолько опасное для живых существ. Поэтому российский проект «Посейдон», обещающий именно это, вызывает бурю эмоций. Однако тщательный технический анализ показывает: в реальности он будет совсем не таким, как об этом пишут в СМИ. Даже если он предназначен для радиационного поражения обширных площадей, оно не будет долгим. А уже через год «омытые» им районы будут абсолютно безопасны. Тем не менее новая система действительно изменит стратегический баланс на планете — но не так, как все думают. Попробуем разобраться в ситуации подробнее.

[miniorange_social_login]

Комментарии

Написать комментарий

Подтвердить?
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: