Ученый выступил против предоставления ИИ человеческих прав — Naked Science
06.10.2018
7 минут
Редакция

Ученый выступил против предоставления ИИ человеческих прав

С развитием систем с искусственным интеллектом и предоставлением Саудовской Аравией гражданства роботу Софии специалисты все чаще стали задумываться, в какой момент можно начать считать ИИ личностью. Профессор Роман Ямпольский уверен, что это приведет к катастрофе.

2411280611

Согласно закону человек не единственная личность в обществе. В США корпорации получили права на свободу слова и религии. У некоторых естественных явлений также появились права вроде тех, что есть у человека. Однако в двух вышеупомянутых случаях требовались изменения в правовой системе. Новый аргумент дал шанс на то, что системы искусственного интеллекта воспринимались бы как личности — без законодательных изменений, судебных решений или других пересмотров существующих законов.

 

Юрист Шон Байер показал, что в Америке кто угодно может дать личностность компьютерной системе, сделав ее подконтрольной обществу с ограниченной ответственностью (ООО). Если этот маневр рассматривается в суде, то ИИ также может обладать имуществом, подавать в суд, нанимать юристов и пользоваться свободой слова наряду с другими законными правами. В результате таких перемен может пострадать человек, пишет в статье для портала The Conversation доцент факультета вычислительной техники и информатики Луисвилльского университета Роман Ямпольский.

 

Предоставление ИИ прав, как у человека, требует юридического закрепления. Для начала кто-то должен учредить два ООО и передать контроль над каждой из них отдельной автономной системе или системе с искусственным интеллектом. Затем основателю необходимо сделать каждую компанию частью другой. И, в конце концов, ему необходимо уволиться из обеих организаций, оставляя каждое ООО под руководством системы ИИ другого.

 

Человекоподобный робот София стал первой системой с искусственным интеллектом, получившим гражданство / © UN

 

Согласно Ямпольскому, для этого процесса не требуется, чтобы у компьютерной системы был какой-то определенный уровень интеллекта или возможностей. Это может быть просто последовательность утверждений «если»: например, при обзоре фондового рынка и принятии решений о покупке или продаже на основании роста или снижения цен. Это  может быть либо алгоритм, случайным образом принимающий решения, либо эмуляция, либо амеба.

 

Предоставление человеческих прав компьютеру может навредить человеческому достоинству. Например, когда Саудовская Аравия дала гражданство роботу Софии, то женщины, особенно феминистки, высказались против, отмечая, что роботу предоставили больше прав, чем есть у большинства настоящих женщин в том регионе.

 

В некоторых странах у людей порой может быть меньше прав, чем у неинтеллектуального программного обеспечения и роботов. В государствах, ограничивающих права своих граждан на свободу слова, свободу вероисповедания и выражение сексуальности, у корпораций — потенциально руководимых ИИ — может быть больше свобод. Это можно считать серьезным унижением.

 

Профессор Ямпольский утверждает, что на этом риски не заканчиваются. Если системы ИИ станут умнее человека, то люди, по сути, могут стать рабами корпоративных ИИ-господ, которые будут их нанимать и увольнять. Но даже если не заходить так далеко, системы с искусственным интеллектом могут со временем получать работу в правоохранительных органах, армии и других государственных и законодательных системах наравне с человеком. Предоставление права на голосование системам, способным копировать себя, может привести к обесцениваю человеческих голосов. Это в итоге повлечет то, что во всех сферах жизни решения будут принимать корпорации, руководимые ИИ. Между тем, как отмечает в своей статье Ямпольский, на сегодня нет законов, которые могли бы препятствовать недоброжелательному ИИ, работающему над порабощением или даже уничтожением человечества путем законодательного и политического давления.

Позавчера, 15:33
40 минут
Александр Березин

Женщины заводят ребенка не от мужа тем чаще, чем ниже его социальная ценность. Попробуем разобраться, как биология подталкивает их к изменам и почему моногамия имеет все шансы на реванш.

Вчера, 12:57
6 минут
Сергей Васильев

Эксперименты снова указали на существование частицы Х17 — загадочного бозона-переносчика еще неизвестного фундаментального взаимодействия.

Вчера, 15:51
4 минуты
Илья Ведмеденко

Исследователь Уильям Ромозер полагает, что ему удалось увидеть на Марсе живых существ, в частности насекомых. Вероятно, причиной этого стала парейдолия — зрительная иллюзия.

15 ноября
6 минут
Никита Шевцов

Ученые впервые воспроизвели в реальности парадокс друга Вигнера. В результате физики выяснили, что квантовые явления субъективны: каждый наблюдатель может иметь свои альтернативные факты насчет них, и все они будут правдивы.

18 ноября
4 минуты
Сергей Васильев

Накопление эпигенетических модификаций ДНК позволило провести параллели между возрастом собак и людей и найти новую формулу для пересчета одного в другой.

Позавчера, 15:33
40 минут
Александр Березин

Женщины заводят ребенка не от мужа тем чаще, чем ниже его социальная ценность. Попробуем разобраться, как биология подталкивает их к изменам и почему моногамия имеет все шансы на реванш.

15 ноября
6 минут
Никита Шевцов

Ученые впервые воспроизвели в реальности парадокс друга Вигнера. В результате физики выяснили, что квантовые явления субъективны: каждый наблюдатель может иметь свои альтернативные факты насчет них, и все они будут правдивы.

18 ноября
4 минуты
Сергей Васильев

Накопление эпигенетических модификаций ДНК позволило провести параллели между возрастом собак и людей и найти новую формулу для пересчета одного в другой.

Позавчера, 15:33
40 минут
Александр Березин

Женщины заводят ребенка не от мужа тем чаще, чем ниже его социальная ценность. Попробуем разобраться, как биология подталкивает их к изменам и почему моногамия имеет все шансы на реванш.

[miniorange_social_login]

Комментарии

Написать комментарий

Подтвердить?
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: