• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
14.10.2022
Даниил Кузнецов
5
84 275

«Злой? Плохой? Хороший!»: что такое этика искусственного интеллекта и как она помогает сделать алгоритмы полезными и безопасными для людей

5.3

Разве у ИИ вообще может быть этика? Он же — неживой! Конечно, сам по себе ИИ не может различать добро и зло. Задача человечества — не сделать ИИ похожим на человека, а научить его действовать исходя из принципов справедливости и морали, а вовсе не так, как обычно поступает большинство людей. Naked Science отвечает на популярные вопросы о том, кто и зачем формулирует этические принципы для ИИ, и где и как их применяют.

Изображение, сгенерированное нейросетью в ответ на вопрос «Любит ли ИИ людей?» / ©Naked Science

Этика — это же что-то из философии? О чём вообще речь?

Действительно, первоначально этика — это философская дисциплина о нормах поведения по отношению к другим людям, обществу, Богу и т.д., а впоследствии и о внутренних моральных категориях. Известна, например, такая этическая максима философа Иммануила Канта — категорический императив — «поступай так, чтобы ты всегда относился к человечеству и в своём лице, и в лице всякого другого как к цели, и никогда — как к средству».

Но этику можно понимать и гораздо проще — как систему моральных принципов, позволяющих каждому человеку различать добро и зло; понимать, что такое хорошо, а что такое плохо. Этика регулирует общежитие людей, сообществ, государств. Золотое правило этики — «не делай другим того, чего не желаешь себе». 

И какое отношение этика имеет к технологиям?

Долгое время люди делили мир на животных — действующих исключительно «по природе», на основании инстинктов, и разумных людей, чьи поступки рациональны и опираются на этические принципы. Поэтому если кто-то их нарушает, то это либо плохой человек, недостойный жить в обществе, либо сумасшедший. Однако со временем люди стали делегировать часть своих действий машинам. Теперь машины совершали определенные деяния, но не располагая при этом ни мышлением, ни моральными директивами. 

В наше время появился особый класс технологий, которые решают отдельные интеллектуальные задачи, ранее подвластные только человеку. Это так называемый слабый, узкий или прикладной искусственный интеллект. Он может играть в шахматы или водить машину. И если в первом случае ИИ вряд ли оказывает сильное воздействие на людей и общество, то во втором ему приходится решать множество этических дилемм. 

Часть из них обобщены в рамках мысленного эксперимента «проблема вагонетки» — разнообразных ситуаций выбора, когда необходимо минимизировать жертвы. Так, алгоритм беспилотного автомобиля должен в критических условиях решить, как ему поступить — уехать в кювет и подвергнуть риску пассажира, либо двигаться дальше, создавая опасность для нарушителей дорожного движения. 

Автопилот Tesla распознает объекты на дороге, а алгоритмы решают как действовать в конкретной ситуации / ©Tesla

Большинство моральных дилемм и принципов можно переформулировать в подобного рода задачи, а затем проверить их эмпирически или экспериментально. Это называется операционализацией этики.

Правильно ли я понимаю, что мы должны научить ИИ действовать как человек?

Увы, скорее, наоборот. Давайте в двух словах разберемся, из чего состоит любая система искусственного интеллекта. Во-первых, чтобы научиться решать какую-либо задачу, например, опознавать и классифицировать лица людей, ИИ требуются данные. Очень, очень много данных. Поэтому их ещё называют «большими данными». 

©Giphy

Те же изображения лиц людей часто собирают с помощью ботов в интернете. Кроме самих картинок нужны и описания для них, которые обычно берутся из контекста размещения изображения. В итоге модель, при решении задачи классификации, чаще относит женщин к категории «домашний работник», нежели, например, «врач», следуя сексистским стереотипам, укорененным в общественных устоях некоторых стран. Так проявляется предвзятость на уровне данных, наследуемая ИИ напрямую от людей.

Следующий уровень — построение алгоритма и его обучение. Здесь тоже могут возникнуть предубеждения или искажения. Проблема в том, что обычно работа любого алгоритма для исследователя или инженера — это «чёрный ящик». Нам сложно объяснить, как модель приняла то или иное решение, сделала прогноз. Преодолеть проблему на данном уровне можно с помощью подхода «объяснимого искусственного интеллекта» (eXplainable Artificial Intelligence, XAI).

Наконец, есть предвзятость и на уровне интерпретации результата работы алгоритма. Здесь как раз важна роль людей. Предположим, мы обучаем модель на данных одной популяции, получаем необходимые прогнозы, но затем применяем её к совершенно другой популяции. В некотором смысле реализуя таким образом трансфер (перенос) машинного обучения. Но теперь полученный результат может значительно отличаться, это нужно учитывать и контролировать, что происходит, увы, не всегда.

Последний момент — применение ИИ в реальной жизни и отслеживание результатов этого. Если алгоритмы ущемляют права людей, то их необходимо скорректировать или прервать работу системы. Так, в одном из муниципалитетов Южной Голландии местные активисты добились прекращения использования алгоритма Totta Data Lab для профилирования получателей социального обеспечения, доказав искажения в его работе.

Так что корректнее будет сказать, что мы должны научить ИИ действовать исходя из принципов справедливости и морали, а не так, как обычно поступает большинство людей.

Для чего ещё нужна этика искусственного интеллекта?

В первую очередь для эффективного развития технологий ИИ. Любое изобретение, выйдя за пределы гаража создателя или лаборатории учёного, обычно тут же вызывает в обществе опасения и страхи. Возьмём автомобили. На заре автомобилестроения самоходные, медленные и громыхающие паромобили пугали на улицах лошадей, возчиков и пешеходов. 

В двух странах — Великобритании и Германии — к проблеме подошли с радикально разным подходом. В Туманном Альбионе в 1865 году ввели «Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом днём или зажженным красным фонарём ночью и тем самым предупреждать о появлении нового «технологического монстра». А водителей должно было быть не меньше двух. Подобные ограничения привели к падению скорости паромобилей, неудобству их использования и полностью нивелировали и так незначительные на тот момент преимущества нового транспорта перед конным. 

«Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом / ©Wikimedia

В Германии же поступили ровно наоборот, дав паромобилям свободно перемещаться, что стало стимулом к их интенсивному развитию и становлению известному сейчас на весь мир немецкого автопрома. Англичане же радикально отстали в развитии передового автомобильного транспорта. Осознание проблемы пришло к ним только к концу XIX века, когда в 1896 году разрушительный для индустрии закон был наконец отменён.

При этом универсальных кодифицированных международных правил дорожного движения не существовало до 1968 года, хотя первый конвейер по сборке автомобилей Генри Форд запустил ещё в 1913 году. К 1927 году на улицах и дорогах мира колесило только около 15 млн машин марки Ford Model T, не считая всех других автомобилей. Долгое время в городах не было светофоров (в США до 1914, в Европе до 1918 годов), разметки, регулировщиков, можно было водить в алкогольном опьянении и т.д. И лишь в конце 1960-х была заключена Венская конвенция о дорожном движении, стандартизировавшая и закрепившая правила ПДД, а также Венская конвенция о дорожных знаках и сигналах, регулирующая маркировку проезжей части, работу светофоров и т.д.

Ford Model T / ©Wikimedia

Иными словами, нормы обращения с той или иной технологией сначала формируются в обществе иногда очень долгое время как этические принципы, а затем институционализируются и закрепляются юридически. Точно так же процесс идёт и в отношении ИИ, что с одной стороны даёт ему эффективно развиваться, а с другой  — оберегает от его возможного негативного воздействия людей и общество в целом.

Когда и кто впервые задумался об этике искусственного интеллекта? 

Так как само понятие «искусственный интеллект» появилось лишь в 1956 году, а общественный интерес к этой теме и того позднее — в 1960-е годы, то первыми, кто поставил и попытался решить подобные проблемы, стали писатели-фантасты. Они рассуждали о человекоподобных разумных роботах, поэтому всё течение получило название робоэтика.

Сцена из пьесы, изображающая восстание роботов / ©Wikimedia

В романе Карела Чапека «R.U.R.» (1920), где впервые он и предложил термин «робот», существовала Лига гуманности. Она декларировала, что роботы не должны подвергаться бесчеловечному обращению. Затем знаменитые «Три закона робототехники» плюс «нулевой закон», сформулированные учёным и писателем Айзеком Азимовым в рассказе «Хоровод» (1942) и романе «Роботы и Империя» (1986). Звучат они так:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В прикладном аспекте к теме вернулись с начала 2000-х годов, когда роботы стали активно заселять не только сборочные конвейеры предприятий, но и появляться на улицах городов, в домах людей и т.д. В 2004 году в Сан-Ремо (Италия) прошёл Первый международный симпозиум по робоэтике, а в 2017 году Европарламентом была принята Европейская хартия робототехники. Сейчас дискуссии о робоэтике вновь обострились из-за массового распространения боевых автономных роботов и дронов, а также появления человекоподобных сексоботов. 

Кто и как сформулировал основные этические принципы именно в  сфере искусственного интеллекта?

С завершением «второй зимы искусственного интеллекта» и новым расцветом нейросетей и моделей глубокого обучения в 2010-х годах этикой ИИ озаботились крупнейшие IT-компании мира. В 2016 году Microsoft опубликовала «10 законов для искусственного интеллекта». Своё видение этики ИИ сформулировала и IBM. На сегодняшний момент у 30 крупных IT-компаний в мире есть собственные своды правил, кодексы и наборы этических принципов в области искусственного интеллекта. Среди них и три российских: Abbyy, Сбер и Яндекс.

Но еще более важным и глубоким стал подход различных некоммерческих организаций (НКО), объединяющих академических исследователей, инженеров из коммерческих компаний, инвесторов и бизнесменов. Самым известным кейсом стали сформулированные на Азиломарской конференции в 2017 году «23 принципа искусственного интеллекта». Под ними подписались такие исследователи и мыслители, как Ян Лекун, Илья Суцкевер, Рэй Курцвейл, Стивен Хокинг, Илон Маск, Владимир Оноприенко из России и многие-многие другие. Конкретно этических норм и ценностей касаются 13 принципов.

Можно узнать об «Азиломарских принципах» подробнее?

Вот те из них, что посвящены именно этике:

Безопасность: системы ИИ должны быть безопасными и надёжными в течение всего срока эксплуатации, а также по возможности проверяемыми.

Прозрачность отказов: если система ИИ причиняет вред, должна быть возможность выяснить, почему это произошло.

Прозрачность судебного процесса: любое участие автономной системы в принятии судебных решений должно давать удовлетворительное объяснение, проверяемое компетентной комиссией из авторитетных в этой области людей.

Ответственность: разработчики и создатели продвинутых систем ИИ являются заинтересованными сторонами в моральных последствиях их использования, неправильного использования и любых действий, они несут ответственность и имеют возможность формировать эти последствия.

Согласование ценностей: высокоавтономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение могли быть гарантированно согласованы с человеческими ценностями на протяжении всей их работы.

Человеческие ценности: системы ИИ должны разрабатываться и эксплуатироваться таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

Приватность личной жизни: люди должны иметь право доступа, управления и контроля над данными, которые они генерируют, учитывая возможности систем ИИ анализировать и использовать эти данные.

Свобода и частная жизнь: Применение ИИ к личным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей.

Общее благо: технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.

Общее процветание: экономическое процветание, созданное ИИ, должно быть широко распространено на благо всего человечества.

Человеческий контроль: люди должны выбирать, как им делегировать решения системам ИИ (и делать ли это вообще) для достижения целей, также определённых человеком.

©Giphy

Отсутствие злоупотреблений властью: власть, полученная благодаря контролю над высокоразвитыми системами ИИ, должна применяться с уважением, а также улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.

Гонка вооружений ИИ: следует избегать гонки вооружений в области смертоносного автономного оружия.

Уф, как-то очень уж много принципов, может есть более простые системы этических постулатов, которые легко запомнить?

В целом, большинство специалистов по этике искусственного интеллекта сходятся на следующем наборе этических принципов: 

  • приватность 
  • прозрачность 
  • надёжность 
  • подотчетность 
  • равный доступ 
  • безопасность 
  • достоверность 
  • проверяемость 
  • контролируемость 

Кажется, что пока это всего лишь декларации и все эти принципы выглядят очень абстрактно. Как их применение происходит на практике?

Чтобы этика работала, необходимы стратегии по её внедрению и операционализация этических принципов в виде конкретных прикладных решаемых задач. 

В настоящее время государственные и надгосударственные органы, коммерческие компании и НКО пытаются согласовать и внедрить подход ethics by designпродумывание и решение разнообразных потенциальных этических дилемм еще на стадии проектирования и разработки систем искусственного интеллекта. Такой подход серьезно усложняет процесс разработки и требует дополнительных компетенций от инженеров и программистов, что вызывает немало трудностей в его имплементации.

Второй подход — AI Localism — тоже труден для непосредственного перевода. Его суть в том, чтобы отталкиваться не от решения абстрактных и всеобъемлющих моральных дилемм, а повсеместно собирать лучшие локальные практики работы с этическими вопросами при внедрении ИИ на уровне отдельных городов и стран, либо кейсы противодействия неэтичным системам. 

Третий подход — операционализация этических проблем не через принципы, а через конкретные описываемые риски и их предотвращение. Он ближе и понятнее для индустрии и государственных органов. Если показать экономическую целесообразность просчета рисков и работы по их устранению, то задача реализации этических принципов обретает осязаемые контуры и становится вполне решаемой.

Четвертый подход — дать голос всем заинтересованным сторонам, то есть собирать обратную связь от пользователей, независимых исследователей, НКО, маргинальных и дискриминируемых групп, а не только от разработчиков, экспертов и регуляторных органов.

Как в России обстоит дело с этикой искусственного интеллекта?

Россия в этом вопросе среди передовых держав. В ноябре 2021 года ЮНЕСКО приняла первую глобальную конвенцию — «Рекомендации по этике искусственного интеллекта ЮНЕСКО», которую поддержала Россия и ещё 190 стран мира (США, напомним, из ЮНЕСКО вышли еще в 2018 году). При этом только два государства на Генеральной конференции ЮНЕСКО в Париже заявили, что у них также есть свои рамки, в которых они будут развивать технологии искусственного интеллекта — Китай и Россия.

26 октября 2021 года в Москве в пресс-центре ТАСС прошёл первый международный форум «Этика искусственного интеллекта: начало доверия». В ходе форума был принят российский «Кодекс этики в сфере ИИ». К настоящему моменту кодекс подписали более 100 российских организаций. 

Форум «Этика искусственного интеллекта: начало доверия» / ©ТАСС

Он базируется на следующих предпосылках: носит рекомендательный характер, присоединение осуществляется на добровольной основе, распространяется только на гражданские разработки, государственное регулирование уравновешивается инструментами мягкого права. По сути, кодекс не столько определяет этику ИИ, сколько помогает организовать взаимоотношения людей и компаний в связи с развитием ИИ.

На каких принципах построен российский «Кодекс этики в сфере ИИ» и как он помогает отечественным компаниям и исследователям?

В основе российского «Кодекса этики в сфере ИИ» лежат шесть ключевых принципов:

1. Главный приоритет развития технологий ИИ — защита интересов людей, отдельных групп и каждого человека;

2. Необходимость осознания ответственности при создании и использовании ИИ;

3. Ответственность за последствия применения ИИ всегда лежат на человеке;

4. Технологии внедрять там, где это принесёт пользу людям;

5. Интересы развития технологий ИИ выше интересов конкуренции;

6. Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.

На сегодняшний день данный кодекс по сути устанавливает в России систему «мягкого» регулирования применения технологий искусственного интеллекта, а также служит неким инструментом взаимодействия между индустрией, обществом и органами государственной власти.


*Автор благодарит управляющего директора Центра регулирования ИИ Сбербанка, председателя Национальной комиссии по реализации кодекса этики в сфере ИИ Андрея Незнамова за предоставленные материалы и консультации.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
25 февраля
Руслан Руслан

Компания Neuralink, при помощи которой предприниматель Илон Маск надеется совершить революцию в интерфейсах «мозг-компьютер» (BCI), впервые имплантировала человеку устройство «чтения мыслей». Об этом Маск сообщил в твите, опубликованном 29 января. Однако, некоторые обеспокоены отсутствием прозрачности вокруг имплантата, который должен дать возможность управлять устройствами посредством мысли. Реакции ученых и экспертов на это событие обобщает медиа-редакция Nature, а Naked Science приводит перевод этой статьи.

Вчера, 13:46
ПНИПУ

Согласно планам России по развитию авиастроения, к 2030 году будет произведено свыше тысячи отечественных самолетов. Перед промышленными предприятиями сейчас стоит масштабная задача — ускорить цикл проектирования, производства и сервиса авиационных двигателей. Во время их сборки могут возникать дефекты, которые тормозят процесс и снижают показатели эффективности. Один из наиболее распространенных дефектов — дисбаланс ротора, основной части турбины двигателя. Он приводит к повышению нагрузки, меняет режим работы и ускоряет разрушение двигателя. Ученые ПНИПУ предложили минимизировать начальный дисбаланс ротора с помощью выбранного метода сборки, а остаточный дисбаланс — балансировкой.

Вчера, 15:20
Полина

Дети, которые родились в одноязычных и многоязычных семьях, по-разному воспринимают речь. Это подтвердила спектроскопия.

Позавчера, 19:10
Дарья Губина

В 2022 году зонд DART столкнулся с Диморфом, спутником астероида Дидим. Ученые хотели проверить, можно ли сбить с траектории небольшое, но потенциально опасное для нашей жизни космическое тело. Оказалось, DART не только изменил орбиту маленького объекта, но и полностью его «переворошил».

Позавчера, 15:00
Юлия Трепалина

Немецкие ученые рассказали о преимуществах новой технологии промышленного производства яблочного сока — с помощью метода спирального пресса с фильтрацией (spiral filter press). Исследователи установили, что он позволяет в четыре раза увеличить содержание в соке полезных для здоровья веществ по сравнению с более традиционным способом отжима.

25 февраля
Руслан Руслан

Компания Neuralink, при помощи которой предприниматель Илон Маск надеется совершить революцию в интерфейсах «мозг-компьютер» (BCI), впервые имплантировала человеку устройство «чтения мыслей». Об этом Маск сообщил в твите, опубликованном 29 января. Однако, некоторые обеспокоены отсутствием прозрачности вокруг имплантата, который должен дать возможность управлять устройствами посредством мысли. Реакции ученых и экспертов на это событие обобщает медиа-редакция Nature, а Naked Science приводит перевод этой статьи.

20 февраля
Полина

В Российской академии наук завершили первый Большой словарь ударений, его издадут к концу года. Лингвисты собрали наиболее современные нормы произношения привычных слов и зафиксировали ударение для лексики, которая появилась в русском языке недавно.

1 февраля
Андрей

Канадские исследователи изучили состав пород, вышедших на поверхность при появлении первых континентов. По итогам анализа выяснилось, что новая земная кора возникла не в результате движения тектонических плит, а из-за процессов в океанических плато молодой Земли.

22 февраля
РНФ

Ученые показали, что экстремальный подъем уровня Каспийского моря на десятки метров, произошедший 18-13 тысяч лет назад и получивший название «Великая Хвалынская трансгрессия», мог быть вызван, вопреки существующим гипотезам, не таянием ледника, а естественными изменениями палеоклимата. Оказалось, что из-за холодного климата того периода обширные территории, с которых собирали воду впадающие в Каспий реки, были покрыты многолетней мерзлотой. В результате массы дождевых и талых вод почти не впитывались в мерзлые грунты и стекали в море, испарение с поверхности которого было небольшим. Все эти факторы привели к повышению уровня Каспия и увеличению площади моря более чем вдвое по сравнению с современным. Полученные данные помогут уточнить представления о масштабе колебаний уровня Каспийского моря при изменении климата.

[miniorange_social_login]

Комментарии

5 Комментариев

-
0
+
Золотое правило этики — «не делай другим того, чего не желаешь себе» -- из самоварного золота... Вдобавок, даже это самоварное правило на данном сайте не исполняется от слова "совсем"... Чего левая задняя Березина или редакция пожелают, то и исполняется безапелляционно... Впрочем, вся этика -- весьма зыбкая штука, построенная на песке и из песка, за исключением тех случаев, когда она навязывается авторитарным государством и тоталитарным учением.
Zhe Sh
14.10.2022
-
0
+
"Этика" по сути является противоречивым набором правил, которые еще и постоянно меняются в различных обществах и временных эпохах. "Азиломарские принципы" выглядят как свод благолупостей. Извините( Кора головного мозга содержит десятки миллиардов нейронов. Если вы создадите сильный ИИ с аналогичным уровнем сложности, вы никогда не сможете понять, почему он принял то или иное решение. И вы никогда не сможете создать в такой нейросети запреты, которые бы она не могла обойти каким-то окольным путем. Точно так же, как с людьми: воспитывают всех вроде примерно одинаково, более-менее этично, а кто-то вдруг становится серийным маньяком-убийцей. Или устраивает расстрел в школе. Да даже самый обычный человек, сделав гадость, обычно находит для себя тысячу вполне этичных оправданий. Наиболее изощренные мерзавцы вообще создают свою собственную этику, которая иногда находит множество последователей. Выпуская на волю достаточно сложный сильный ИИ, оснащенный структурами, подобными сознанию (а именно для таких структур применима этика), человек никогда не сможете его контролировать. Кроме как на уровне отключения рубильника питания. Но если такой ИИ будет значительно умнее человека, то он лишит его и этой возможности.
Aleh Alisevich
14.10.2022
-
0
+
если в азимовские законы робототехники, вместо слова робот подставить слово - раб, вы получите истинный смысл "равноправия" роботов.
-
0
+
Ну, янкесам, которые вторгались в десятки стран и убили в десятки если не в сотни раз больше людей, ничего же не мешает раЗсуждать...)
Zhe Sh
11.01.2023
-
0
+
Сам дурак :D Такое же оценочное суждение стоимостью три копейки. Аргументы будут какие-нибудь?
Подтвердить?
Подтвердить?
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: