Тема:
113 Статей

Ученый выступил против предоставления ИИ человеческих прав

С развитием систем с искусственным интеллектом и предоставлением Саудовской Аравией гражданства роботу Софии специалисты все чаще стали задумываться, в какой момент можно начать считать ИИ личностью. Профессор Роман Ямпольский уверен, что это приведет к катастрофе.

6 окт Владимир Гильен Комментариев: 0
5 831
Выбор редакции

Согласно закону человек не единственная личность в обществе. В США корпорации получили права на свободу слова и религии. У некоторых естественных явлений также появились права вроде тех, что есть у человека. Однако в двух вышеупомянутых случаях требовались изменения в правовой системе. Новый аргумент дал шанс на то, что системы искусственного интеллекта воспринимались бы как личности — без законодательных изменений, судебных решений или других пересмотров существующих законов.

 

Юрист Шон Байер показал, что в Америке кто угодно может дать личностность компьютерной системе, сделав ее подконтрольной обществу с ограниченной ответственностью (ООО). Если этот маневр рассматривается в суде, то ИИ также может обладать имуществом, подавать в суд, нанимать юристов и пользоваться свободой слова наряду с другими законными правами. В результате таких перемен может пострадать человек, пишет в статье для портала The Conversation доцент факультета вычислительной техники и информатики Луисвилльского университета Роман Ямпольский.

 

Предоставление ИИ прав, как у человека, требует юридического закрепления. Для начала кто-то должен учредить два ООО и передать контроль над каждой из них отдельной автономной системе или системе с искусственным интеллектом. Затем основателю необходимо сделать каждую компанию частью другой. И, в конце концов, ему необходимо уволиться из обеих организаций, оставляя каждое ООО под руководством системы ИИ другого.

 

Человекоподобный робот София стал первой системой с искусственным интеллектом, получившим гражданство / © UN

Человекоподобный робот София стал первой системой с искусственным интеллектом, получившим гражданство / © UN

 

Согласно Ямпольскому, для этого процесса не требуется, чтобы у компьютерной системы был какой-то определенный уровень интеллекта или возможностей. Это может быть просто последовательность утверждений «если»: например, при обзоре фондового рынка и принятии решений о покупке или продаже на основании роста или снижения цен. Это  может быть либо алгоритм, случайным образом принимающий решения, либо эмуляция, либо амеба.

 

Предоставление человеческих прав компьютеру может навредить человеческому достоинству. Например, когда Саудовская Аравия дала гражданство роботу Софии, то женщины, особенно феминистки, высказались против, отмечая, что роботу предоставили больше прав, чем есть у большинства настоящих женщин в том регионе.

 

В некоторых странах у людей порой может быть меньше прав, чем у неинтеллектуального программного обеспечения и роботов. В государствах, ограничивающих права своих граждан на свободу слова, свободу вероисповедания и выражение сексуальности, у корпораций — потенциально руководимых ИИ — может быть больше свобод. Это можно считать серьезным унижением.

 

Профессор Ямпольский утверждает, что на этом риски не заканчиваются. Если системы ИИ станут умнее человека, то люди, по сути, могут стать рабами корпоративных ИИ-господ, которые будут их нанимать и увольнять. Но даже если не заходить так далеко, системы с искусственным интеллектом могут со временем получать работу в правоохранительных органах, армии и других государственных и законодательных системах наравне с человеком. Предоставление права на голосование системам, способным копировать себя, может привести к обесцениваю человеческих голосов. Это в итоге повлечет то, что во всех сферах жизни решения будут принимать корпорации, руководимые ИИ. Между тем, как отмечает в своей статье Ямпольский, на сегодня нет законов, которые могли бы препятствовать недоброжелательному ИИ, работающему над порабощением или даже уничтожением человечества путем законодательного и политического давления.

Прочие науки

Naked Science Facebook VK Twitter
5 831
Комментарии

Быстрый вход

Или авторизуйтесь с помощью:

на сайте, чтобы оставить комментарий.
Вы сообщаете об ошибке в следующем тексте:
Нажмите Отправить ошибку