Уведомления
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.
Ученый выступил против предоставления ИИ человеческих прав
С развитием систем с искусственным интеллектом и предоставлением Саудовской Аравией гражданства роботу Софии специалисты все чаще стали задумываться, в какой момент можно начать считать ИИ личностью. Профессор Роман Ямпольский уверен, что это приведет к катастрофе.
Согласно закону человек не единственная личность в обществе. В США корпорации получили права на свободу слова и религии. У некоторых естественных явлений также появились права вроде тех, что есть у человека. Однако в двух вышеупомянутых случаях требовались изменения в правовой системе. Новый аргумент дал шанс на то, что системы искусственного интеллекта воспринимались бы как личности — без законодательных изменений, судебных решений или других пересмотров существующих законов.
Юрист Шон Байер показал, что в Америке кто угодно может дать личностность компьютерной системе, сделав ее подконтрольной обществу с ограниченной ответственностью (ООО). Если этот маневр рассматривается в суде, то ИИ также может обладать имуществом, подавать в суд, нанимать юристов и пользоваться свободой слова наряду с другими законными правами. В результате таких перемен может пострадать человек, пишет в статье для портала The Conversation доцент факультета вычислительной техники и информатики Луисвилльского университета Роман Ямпольский.
Предоставление ИИ прав, как у человека, требует юридического закрепления. Для начала кто-то должен учредить два ООО и передать контроль над каждой из них отдельной автономной системе или системе с искусственным интеллектом. Затем основателю необходимо сделать каждую компанию частью другой. И, в конце концов, ему необходимо уволиться из обеих организаций, оставляя каждое ООО под руководством системы ИИ другого.
Согласно Ямпольскому, для этого процесса не требуется, чтобы у компьютерной системы был какой-то определенный уровень интеллекта или возможностей. Это может быть просто последовательность утверждений «если»: например, при обзоре фондового рынка и принятии решений о покупке или продаже на основании роста или снижения цен. Это может быть либо алгоритм, случайным образом принимающий решения, либо эмуляция, либо амеба.
Предоставление человеческих прав компьютеру может навредить человеческому достоинству. Например, когда Саудовская Аравия дала гражданство роботу Софии, то женщины, особенно феминистки, высказались против, отмечая, что роботу предоставили больше прав, чем есть у большинства настоящих женщин в том регионе.
В некоторых странах у людей порой может быть меньше прав, чем у неинтеллектуального программного обеспечения и роботов. В государствах, ограничивающих права своих граждан на свободу слова, свободу вероисповедания и выражение сексуальности, у корпораций — потенциально руководимых ИИ — может быть больше свобод. Это можно считать серьезным унижением.
Профессор Ямпольский утверждает, что на этом риски не заканчиваются. Если системы ИИ станут умнее человека, то люди, по сути, могут стать рабами корпоративных ИИ-господ, которые будут их нанимать и увольнять. Но даже если не заходить так далеко, системы с искусственным интеллектом могут со временем получать работу в правоохранительных органах, армии и других государственных и законодательных системах наравне с человеком. Предоставление права на голосование системам, способным копировать себя, может привести к обесцениваю человеческих голосов. Это в итоге повлечет то, что во всех сферах жизни решения будут принимать корпорации, руководимые ИИ. Между тем, как отмечает в своей статье Ямпольский, на сегодня нет законов, которые могли бы препятствовать недоброжелательному ИИ, работающему над порабощением или даже уничтожением человечества путем законодательного и политического давления.
Считается, что неандертальцы жили в коллективах максимум в пару десятков особей. Однако на их стоянках обнаруживают останки исключительно крупных животных, добыть и съесть которых можно только командой, насчитывающей сотни человек.
Американский стартап, занятый возвращением к жизни вымерших животных, объявил о начале работы с додо — почти легендарными птицами, которых люди перебили еще несколько веков назад.
Международная группа астрономов из США и Новой Зеландии описала чрезвычайно редкий тип звездной системы, у которой есть все задатки в будущем стать сверхсильной килоновой.
Игру 2013 года и выходящий с января 2023 года сериал по ней часто принимают за научную фантастику. То есть произведение, основанное на предположениях, не противоречащих науке. Однако вряд ли дело обстоит таким образом. Проблема в том, что создатели мира The Last of Us слишком некритично подошли как к научному фундаменту, на котором основан их мир постапокалипсиса, так и к тому, что думает наука о самой реальности «постапов». Naked Science пробует разобраться в деталях.
Американский стартап, занятый возвращением к жизни вымерших животных, объявил о начале работы с додо — почти легендарными птицами, которых люди перебили еще несколько веков назад.
Считается, что неандертальцы жили в коллективах максимум в пару десятков особей. Однако на их стоянках обнаруживают останки исключительно крупных животных, добыть и съесть которых можно только командой, насчитывающей сотни человек.
Исследователи, изучающие систему обороны Великой стены, обнаружили следы более 130 секретных сквозных проходов и полагают, что это только начало.
Пока фанаты SpaceX увлеченно следят за достижениями компании, астрономы грустно наблюдают, как их работа становится сложнее с каждым запуском спутников Starlink. Прогресс не проходит без жертв. Поэтому различные научные ассоциации ищут способы снизить негативное влияние множества новых рукотворных объектов в околоземном пространстве на качество данных, получаемых телескопами. Некоторые решения со стороны выглядят экстремальными — например, теперь лазеры для корректировки адаптивной оптики можно не выключать, если в поле зрения есть спутник Starlink. А это десятки ватт излучения!
Биологи показали, что нейронные сети гиппокампа, ответственные за пространственное восприятие, изменяются не линейным образом, а в соответствии с гиперболической геометрией. То есть мозг представляет пространство в форме расширяющихся песочных часов. Результаты исследования могут иметь значение для лучшего понимания различных нейродегенеративных расстройств.
Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.
ПонятноИз-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.
ПонятноНаши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.
ПонятноМы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.
ПонятноМы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.
Понятно
Комментарии