• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
06.10.2018
Редакция Naked Science
1 910

Ученый выступил против предоставления ИИ человеческих прав

С развитием систем с искусственным интеллектом и предоставлением Саудовской Аравией гражданства роботу Софии специалисты все чаще стали задумываться, в какой момент можно начать считать ИИ личностью. Профессор Роман Ямпольский уверен, что это приведет к катастрофе.

2411280611
©Wikipedia

Согласно закону человек не единственная личность в обществе. В США корпорации получили права на свободу слова и религии. У некоторых естественных явлений также появились права вроде тех, что есть у человека. Однако в двух вышеупомянутых случаях требовались изменения в правовой системе. Новый аргумент дал шанс на то, что системы искусственного интеллекта воспринимались бы как личности — без законодательных изменений, судебных решений или других пересмотров существующих законов.

 

Юрист Шон Байер показал, что в Америке кто угодно может дать личностность компьютерной системе, сделав ее подконтрольной обществу с ограниченной ответственностью (ООО). Если этот маневр рассматривается в суде, то ИИ также может обладать имуществом, подавать в суд, нанимать юристов и пользоваться свободой слова наряду с другими законными правами. В результате таких перемен может пострадать человек, пишет в статье для портала The Conversation доцент факультета вычислительной техники и информатики Луисвилльского университета Роман Ямпольский.

 

Предоставление ИИ прав, как у человека, требует юридического закрепления. Для начала кто-то должен учредить два ООО и передать контроль над каждой из них отдельной автономной системе или системе с искусственным интеллектом. Затем основателю необходимо сделать каждую компанию частью другой. И, в конце концов, ему необходимо уволиться из обеих организаций, оставляя каждое ООО под руководством системы ИИ другого.

 

Человекоподобный робот София стал первой системой с искусственным интеллектом, получившим гражданство / © UN

 

Согласно Ямпольскому, для этого процесса не требуется, чтобы у компьютерной системы был какой-то определенный уровень интеллекта или возможностей. Это может быть просто последовательность утверждений «если»: например, при обзоре фондового рынка и принятии решений о покупке или продаже на основании роста или снижения цен. Это  может быть либо алгоритм, случайным образом принимающий решения, либо эмуляция, либо амеба.

 

Предоставление человеческих прав компьютеру может навредить человеческому достоинству. Например, когда Саудовская Аравия дала гражданство роботу Софии, то женщины, особенно феминистки, высказались против, отмечая, что роботу предоставили больше прав, чем есть у большинства настоящих женщин в том регионе.

 

В некоторых странах у людей порой может быть меньше прав, чем у неинтеллектуального программного обеспечения и роботов. В государствах, ограничивающих права своих граждан на свободу слова, свободу вероисповедания и выражение сексуальности, у корпораций — потенциально руководимых ИИ — может быть больше свобод. Это можно считать серьезным унижением.

 

Профессор Ямпольский утверждает, что на этом риски не заканчиваются. Если системы ИИ станут умнее человека, то люди, по сути, могут стать рабами корпоративных ИИ-господ, которые будут их нанимать и увольнять. Но даже если не заходить так далеко, системы с искусственным интеллектом могут со временем получать работу в правоохранительных органах, армии и других государственных и законодательных системах наравне с человеком. Предоставление права на голосование системам, способным копировать себя, может привести к обесцениваю человеческих голосов. Это в итоге повлечет то, что во всех сферах жизни решения будут принимать корпорации, руководимые ИИ. Между тем, как отмечает в своей статье Ямпольский, на сегодня нет законов, которые могли бы препятствовать недоброжелательному ИИ, работающему над порабощением или даже уничтожением человечества путем законодательного и политического давления.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
Вчера, 10:30
Сергей Васильев

Считается, что неандертальцы жили в коллективах максимум в пару десятков особей. Однако на их стоянках обнаруживают останки исключительно крупных животных, добыть и съесть которых можно только командой, насчитывающей сотни человек.

Позавчера, 10:49
Сергей Васильев

Американский стартап, занятый возвращением к жизни вымерших животных, объявил о начале работы с додо — почти легендарными птицами, которых люди перебили еще несколько веков назад.

Вчера, 13:32
Анна Новиковская

Международная группа астрономов из США и Новой Зеландии описала чрезвычайно редкий тип звездной системы, у которой есть все задатки в будущем стать сверхсильной килоновой.

27 января
Александр Березин

Игру 2013 года и выходящий с января 2023 года сериал по ней часто принимают за научную фантастику. То есть произведение, основанное на предположениях, не противоречащих науке. Однако вряд ли дело обстоит таким образом. Проблема в том, что создатели мира The Last of Us слишком некритично подошли как к научному фундаменту, на котором основан их мир постапокалипсиса, так и к тому, что думает наука о самой реальности «постапов». Naked Science пробует разобраться в деталях.

Позавчера, 10:49
Сергей Васильев

Американский стартап, занятый возвращением к жизни вымерших животных, объявил о начале работы с додо — почти легендарными птицами, которых люди перебили еще несколько веков назад.

Вчера, 10:30
Сергей Васильев

Считается, что неандертальцы жили в коллективах максимум в пару десятков особей. Однако на их стоянках обнаруживают останки исключительно крупных животных, добыть и съесть которых можно только командой, насчитывающей сотни человек.

10 января
Алиса Гаджиева

Исследователи, изучающие систему обороны Великой стены, обнаружили следы более 130 секретных сквозных проходов и полагают, что это только начало.

25 января
Василий Парфенов

Пока фанаты SpaceX увлеченно следят за достижениями компании, астрономы грустно наблюдают, как их работа становится сложнее с каждым запуском спутников Starlink. Прогресс не проходит без жертв. Поэтому различные научные ассоциации ищут способы снизить негативное влияние множества новых рукотворных объектов в околоземном пространстве на качество данных, получаемых телескопами. Некоторые решения со стороны выглядят экстремальными — например, теперь лазеры для корректировки адаптивной оптики можно не выключать, если в поле зрения есть спутник Starlink. А это десятки ватт излучения!

5 января
Александра Медведева

Биологи показали, что нейронные сети гиппокампа, ответственные за пространственное восприятие, изменяются не линейным образом, а в соответствии с гиперболической геометрией. То есть мозг представляет пространство в форме расширяющихся песочных часов. Результаты исследования могут иметь значение для лучшего понимания различных нейродегенеративных расстройств.

[miniorange_social_login]

Комментарии

Написать комментарий

Подтвердить?
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: