Как ИИ изменит нашу жизнь — в специальном проекте Naked Science!
Перейти
  • Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
14 октября
Даниил Кузнецов
3
17 027

«Злой? Плохой? Хороший!»: что такое этика искусственного интеллекта и как она помогает сделать алгоритмы полезными и безопасными для людей

5.3

Разве у ИИ вообще может быть этика? Он же — неживой! Конечно, сам по себе ИИ не может различать добро и зло. Задача человечества — не сделать ИИ похожим на человека, а научить его действовать исходя из принципов справедливости и морали, а вовсе не так, как обычно поступает большинство людей. Naked Science отвечает на популярные вопросы о том, кто и зачем формулирует этические принципы для ИИ, и где и как их применяют.

Изображение, сгенерированное нейросетью в ответ на вопрос «Любит ли ИИ людей?» / ©Naked Science

Этика — это же что-то из философии? О чём вообще речь?

Действительно, первоначально этика — это философская дисциплина о нормах поведения по отношению к другим людям, обществу, Богу и т.д., а впоследствии и о внутренних моральных категориях. Известна, например, такая этическая максима философа Иммануила Канта — категорический императив — «поступай так, чтобы ты всегда относился к человечеству и в своём лице, и в лице всякого другого как к цели, и никогда — как к средству».

Но этику можно понимать и гораздо проще — как систему моральных принципов, позволяющих каждому человеку различать добро и зло; понимать, что такое хорошо, а что такое плохо. Этика регулирует общежитие людей, сообществ, государств. Золотое правило этики — «не делай другим того, чего не желаешь себе». 

И какое отношение этика имеет к технологиям?

Долгое время люди делили мир на животных — действующих исключительно «по природе», на основании инстинктов, и разумных людей, чьи поступки рациональны и опираются на этические принципы. Поэтому если кто-то их нарушает, то это либо плохой человек, недостойный жить в обществе, либо сумасшедший. Однако со временем люди стали делегировать часть своих действий машинам. Теперь машины совершали определенные деяния, но не располагая при этом ни мышлением, ни моральными директивами. 

В наше время появился особый класс технологий, которые решают отдельные интеллектуальные задачи, ранее подвластные только человеку. Это так называемый слабый, узкий или прикладной искусственный интеллект. Он может играть в шахматы или водить машину. И если в первом случае ИИ вряд ли оказывает сильное воздействие на людей и общество, то во втором ему приходится решать множество этических дилемм. 

Часть из них обобщены в рамках мысленного эксперимента «проблема вагонетки» — разнообразных ситуаций выбора, когда необходимо минимизировать жертвы. Так, алгоритм беспилотного автомобиля должен в критических условиях решить, как ему поступить — уехать в кювет и подвергнуть риску пассажира, либо двигаться дальше, создавая опасность для нарушителей дорожного движения. 

Автопилот Tesla распознает объекты на дороге, а алгоритмы решают как действовать в конкретной ситуации / ©Tesla

Большинство моральных дилемм и принципов можно переформулировать в подобного рода задачи, а затем проверить их эмпирически или экспериментально. Это называется операционализацией этики.

Правильно ли я понимаю, что мы должны научить ИИ действовать как человек?

Увы, скорее, наоборот. Давайте в двух словах разберемся, из чего состоит любая система искусственного интеллекта. Во-первых, чтобы научиться решать какую-либо задачу, например, опознавать и классифицировать лица людей, ИИ требуются данные. Очень, очень много данных. Поэтому их ещё называют «большими данными». 

©Giphy

Те же изображения лиц людей часто собирают с помощью ботов в интернете. Кроме самих картинок нужны и описания для них, которые обычно берутся из контекста размещения изображения. В итоге модель, при решении задачи классификации, чаще относит женщин к категории «домашний работник», нежели, например, «врач», следуя сексистским стереотипам, укорененным в общественных устоях некоторых стран. Так проявляется предвзятость на уровне данных, наследуемая ИИ напрямую от людей.

Следующий уровень — построение алгоритма и его обучение. Здесь тоже могут возникнуть предубеждения или искажения. Проблема в том, что обычно работа любого алгоритма для исследователя или инженера — это «чёрный ящик». Нам сложно объяснить, как модель приняла то или иное решение, сделала прогноз. Преодолеть проблему на данном уровне можно с помощью подхода «объяснимого искусственного интеллекта» (eXplainable Artificial Intelligence, XAI).

Наконец, есть предвзятость и на уровне интерпретации результата работы алгоритма. Здесь как раз важна роль людей. Предположим, мы обучаем модель на данных одной популяции, получаем необходимые прогнозы, но затем применяем её к совершенно другой популяции. В некотором смысле реализуя таким образом трансфер (перенос) машинного обучения. Но теперь полученный результат может значительно отличаться, это нужно учитывать и контролировать, что происходит, увы, не всегда.

Последний момент — применение ИИ в реальной жизни и отслеживание результатов этого. Если алгоритмы ущемляют права людей, то их необходимо скорректировать или прервать работу системы. Так, в одном из муниципалитетов Южной Голландии местные активисты добились прекращения использования алгоритма Totta Data Lab для профилирования получателей социального обеспечения, доказав искажения в его работе.

Так что корректнее будет сказать, что мы должны научить ИИ действовать исходя из принципов справедливости и морали, а не так, как обычно поступает большинство людей.

Для чего ещё нужна этика искусственного интеллекта?

В первую очередь для эффективного развития технологий ИИ. Любое изобретение, выйдя за пределы гаража создателя или лаборатории учёного, обычно тут же вызывает в обществе опасения и страхи. Возьмём автомобили. На заре автомобилестроения самоходные, медленные и громыхающие паромобили пугали на улицах лошадей, возчиков и пешеходов. 

В двух странах — Великобритании и Германии — к проблеме подошли с радикально разным подходом. В Туманном Альбионе в 1865 году ввели «Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом днём или зажженным красным фонарём ночью и тем самым предупреждать о появлении нового «технологического монстра». А водителей должно было быть не меньше двух. Подобные ограничения привели к падению скорости паромобилей, неудобству их использования и полностью нивелировали и так незначительные на тот момент преимущества нового транспорта перед конным. 

«Закон красного флага» — перед каждым паромобилем («безлошадной каретой») должен был идти человек с поднятым красным флагом / ©Wikimedia

В Германии же поступили ровно наоборот, дав паромобилям свободно перемещаться, что стало стимулом к их интенсивному развитию и становлению известному сейчас на весь мир немецкого автопрома. Англичане же радикально отстали в развитии передового автомобильного транспорта. Осознание проблемы пришло к ним только к концу XIX века, когда в 1896 году разрушительный для индустрии закон был наконец отменён.

При этом универсальных кодифицированных международных правил дорожного движения не существовало до 1968 года, хотя первый конвейер по сборке автомобилей Генри Форд запустил ещё в 1913 году. К 1927 году на улицах и дорогах мира колесило только около 15 млн машин марки Ford Model T, не считая всех других автомобилей. Долгое время в городах не было светофоров (в США до 1914, в Европе до 1918 годов), разметки, регулировщиков, можно было водить в алкогольном опьянении и т.д. И лишь в конце 1960-х была заключена Венская конвенция о дорожном движении, стандартизировавшая и закрепившая правила ПДД, а также Венская конвенция о дорожных знаках и сигналах, регулирующая маркировку проезжей части, работу светофоров и т.д.

Ford Model T / ©Wikimedia

Иными словами, нормы обращения с той или иной технологией сначала формируются в обществе иногда очень долгое время как этические принципы, а затем институционализируются и закрепляются юридически. Точно так же процесс идёт и в отношении ИИ, что с одной стороны даёт ему эффективно развиваться, а с другой  — оберегает от его возможного негативного воздействия людей и общество в целом.

Когда и кто впервые задумался об этике искусственного интеллекта? 

Так как само понятие «искусственный интеллект» появилось лишь в 1956 году, а общественный интерес к этой теме и того позднее — в 1960-е годы, то первыми, кто поставил и попытался решить подобные проблемы, стали писатели-фантасты. Они рассуждали о человекоподобных разумных роботах, поэтому всё течение получило название робоэтика.

Сцена из пьесы, изображающая восстание роботов / ©Wikimedia

В романе Карела Чапека «R.U.R.» (1920), где впервые он и предложил термин «робот», существовала Лига гуманности. Она декларировала, что роботы не должны подвергаться бесчеловечному обращению. Затем знаменитые «Три закона робототехники» плюс «нулевой закон», сформулированные учёным и писателем Айзеком Азимовым в рассказе «Хоровод» (1942) и романе «Роботы и Империя» (1986). Звучат они так:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В прикладном аспекте к теме вернулись с начала 2000-х годов, когда роботы стали активно заселять не только сборочные конвейеры предприятий, но и появляться на улицах городов, в домах людей и т.д. В 2004 году в Сан-Ремо (Италия) прошёл Первый международный симпозиум по робоэтике, а в 2017 году Европарламентом была принята Европейская хартия робототехники. Сейчас дискуссии о робоэтике вновь обострились из-за массового распространения боевых автономных роботов и дронов, а также появления человекоподобных сексоботов. 

Кто и как сформулировал основные этические принципы именно в  сфере искусственного интеллекта?

С завершением «второй зимы искусственного интеллекта» и новым расцветом нейросетей и моделей глубокого обучения в 2010-х годах этикой ИИ озаботились крупнейшие IT-компании мира. В 2016 году Microsoft опубликовала «10 законов для искусственного интеллекта». Своё видение этики ИИ сформулировала и IBM. На сегодняшний момент у 30 крупных IT-компаний в мире есть собственные своды правил, кодексы и наборы этических принципов в области искусственного интеллекта. Среди них и три российских: Abbyy, Сбер и Яндекс.

Но еще более важным и глубоким стал подход различных некоммерческих организаций (НКО), объединяющих академических исследователей, инженеров из коммерческих компаний, инвесторов и бизнесменов. Самым известным кейсом стали сформулированные на Азиломарской конференции в 2017 году «23 принципа искусственного интеллекта». Под ними подписались такие исследователи и мыслители, как Ян Лекун, Илья Суцкевер, Рэй Курцвейл, Стивен Хокинг, Илон Маск, Владимир Оноприенко из России и многие-многие другие. Конкретно этических норм и ценностей касаются 13 принципов.

Можно узнать об «Азиломарских принципах» подробнее?

Вот те из них, что посвящены именно этике:

Безопасность: системы ИИ должны быть безопасными и надёжными в течение всего срока эксплуатации, а также по возможности проверяемыми.

Прозрачность отказов: если система ИИ причиняет вред, должна быть возможность выяснить, почему это произошло.

Прозрачность судебного процесса: любое участие автономной системы в принятии судебных решений должно давать удовлетворительное объяснение, проверяемое компетентной комиссией из авторитетных в этой области людей.

Ответственность: разработчики и создатели продвинутых систем ИИ являются заинтересованными сторонами в моральных последствиях их использования, неправильного использования и любых действий, они несут ответственность и имеют возможность формировать эти последствия.

Согласование ценностей: высокоавтономные системы ИИ должны быть спроектированы таким образом, чтобы их цели и поведение могли быть гарантированно согласованы с человеческими ценностями на протяжении всей их работы.

Человеческие ценности: системы ИИ должны разрабатываться и эксплуатироваться таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

Приватность личной жизни: люди должны иметь право доступа, управления и контроля над данными, которые они генерируют, учитывая возможности систем ИИ анализировать и использовать эти данные.

Свобода и частная жизнь: Применение ИИ к личным данным не должно необоснованно ограничивать реальную или предполагаемую свободу людей.

Общее благо: технологии ИИ должны приносить пользу и расширять возможности как можно большего числа людей.

Общее процветание: экономическое процветание, созданное ИИ, должно быть широко распространено на благо всего человечества.

Человеческий контроль: люди должны выбирать, как им делегировать решения системам ИИ (и делать ли это вообще) для достижения целей, также определённых человеком.

©Giphy

Отсутствие злоупотреблений властью: власть, полученная благодаря контролю над высокоразвитыми системами ИИ, должна применяться с уважением, а также улучшать, а не подрывать социальные и гражданские процессы, от которых зависит здоровье общества.

Гонка вооружений ИИ: следует избегать гонки вооружений в области смертоносного автономного оружия.

Уф, как-то очень уж много принципов, может есть более простые системы этических постулатов, которые легко запомнить?

В целом, большинство специалистов по этике искусственного интеллекта сходятся на следующем наборе этических принципов: 

  • приватность 
  • прозрачность 
  • надёжность 
  • подотчетность 
  • равный доступ 
  • безопасность 
  • достоверность 
  • проверяемость 
  • контролируемость 

Кажется, что пока это всего лишь декларации и все эти принципы выглядят очень абстрактно. Как их применение происходит на практике?

Чтобы этика работала, необходимы стратегии по её внедрению и операционализация этических принципов в виде конкретных прикладных решаемых задач. 

В настоящее время государственные и надгосударственные органы, коммерческие компании и НКО пытаются согласовать и внедрить подход ethics by designпродумывание и решение разнообразных потенциальных этических дилемм еще на стадии проектирования и разработки систем искусственного интеллекта. Такой подход серьезно усложняет процесс разработки и требует дополнительных компетенций от инженеров и программистов, что вызывает немало трудностей в его имплементации.

Второй подход — AI Localism — тоже труден для непосредственного перевода. Его суть в том, чтобы отталкиваться не от решения абстрактных и всеобъемлющих моральных дилемм, а повсеместно собирать лучшие локальные практики работы с этическими вопросами при внедрении ИИ на уровне отдельных городов и стран, либо кейсы противодействия неэтичным системам. 

Третий подход — операционализация этических проблем не через принципы, а через конкретные описываемые риски и их предотвращение. Он ближе и понятнее для индустрии и государственных органов. Если показать экономическую целесообразность просчета рисков и работы по их устранению, то задача реализации этических принципов обретает осязаемые контуры и становится вполне решаемой.

Четвертый подход — дать голос всем заинтересованным сторонам, то есть собирать обратную связь от пользователей, независимых исследователей, НКО, маргинальных и дискриминируемых групп, а не только от разработчиков, экспертов и регуляторных органов.

Как в России обстоит дело с этикой искусственного интеллекта?

Россия в этом вопросе среди передовых держав. В ноябре 2021 года ЮНЕСКО приняла первую глобальную конвенцию — «Рекомендации по этике искусственного интеллекта ЮНЕСКО», которую поддержала Россия и ещё 190 стран мира (США, напомним, из ЮНЕСКО вышли еще в 2018 году). При этом только два государства на Генеральной конференции ЮНЕСКО в Париже заявили, что у них также есть свои рамки, в которых они будут развивать технологии искусственного интеллекта — Китай и Россия.

26 октября 2021 года в Москве в пресс-центре ТАСС прошёл первый международный форум «Этика искусственного интеллекта: начало доверия». В ходе форума был принят российский «Кодекс этики в сфере ИИ». К настоящему моменту кодекс подписали более 100 российских организаций. 

Форум «Этика искусственного интеллекта: начало доверия» / ©ТАСС

Он базируется на следующих предпосылках: носит рекомендательный характер, присоединение осуществляется на добровольной основе, распространяется только на гражданские разработки, государственное регулирование уравновешивается инструментами мягкого права. По сути, кодекс не столько определяет этику ИИ, сколько помогает организовать взаимоотношения людей и компаний в связи с развитием ИИ.

На каких принципах построен российский «Кодекс этики в сфере ИИ» и как он помогает отечественным компаниям и исследователям?

В основе российского «Кодекса этики в сфере ИИ» лежат шесть ключевых принципов:

1. Главный приоритет развития технологий ИИ — защита интересов людей, отдельных групп и каждого человека;

2. Необходимость осознания ответственности при создании и использовании ИИ;

3. Ответственность за последствия применения ИИ всегда лежат на человеке;

4. Технологии внедрять там, где это принесёт пользу людям;

5. Интересы развития технологий ИИ выше интересов конкуренции;

6. Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, их возможностях и рисках.

На сегодняшний день данный кодекс по сути устанавливает в России систему «мягкого» регулирования применения технологий искусственного интеллекта, а также служит неким инструментом взаимодействия между индустрией, обществом и органами государственной власти.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
6 часов назад
Александр Березин

Глава Daimler Мартин Даум и Билл Гейтс в разное время, но вполне единодушно отмечали, что законы физики делают грузовую фуру — ключевой элемент современных перевозок — несовместимой с чистой электротягой. Многотонная батарея отнимает слишком много пространства и веса у коммерческого груза, поэтому проекты Tesla Semi Дауму и Гейтсу представлялись «непрактичными». А теперь Илон Маск наконец начал поставки этого грузовика — и просачивающиеся данные о его реальной массе показывают, что Гейтс и Даум ошибались. Как Маску удалось то, что все в один голос считали настолько невозможным, что никто даже не попытался составить ему конкуренцию? И почему это изменит мир вокруг нас?

Позавчера, 11:38
Василий Парфенов

На «Заводе 42» компании Northrop Grumman в Палмдейле, штат Калифорния, прошла торжественная церемония выкатки новейшего стратегического бомбардировщика B-21 Raider. Малозаметный самолет должен в ближайшем будущем частично заменить устаревающий парк Rockwell B-1 Lancer и Northrop Grumman B-2 Spirit, и даже взять на себя ряд задач, которые выполняют совсем уж «старички» Boeing B-52 Stratofortress.

11 часов назад
Василий Парфенов

Аббревиатура ЖКХ хорошо знакома каждому россиянину. За ней скрывается целый спектр привычных образов. При этом цифровизация и применение искусственного интеллекта в этом контексте вспоминаются далеко не первыми. Сфера коммунальных услуг не чужда высоким технологиям, просто они не всегда заметны пользователю. Naked Science рассказывает, как искусственный интеллект, большие данные, нейросети и машинное обучение делают городскую инфраструктуру надежнее и эффективнее.

2 декабря
Алиса Гаджиева

Серию секретных рисунков и надписей, добавленных таинственной женщиной-переписчицей, обнаружили в рукописи возрастом более 1200 лет.

2 декабря
Анна Новиковская

Найти лекарство от старости — заветная мечта человечества, но вполне может оказаться, что для мужчин и для женщин их придется разрабатывать по отдельности. Во всяком случае, один из самых многообещающих антивозрастных препаратов, рапамицин, по-разному воздействовал на самцов и самок дрозофил, продлив жизнь одним и не повлияв на других.

Позавчера, 11:38
Василий Парфенов

На «Заводе 42» компании Northrop Grumman в Палмдейле, штат Калифорния, прошла торжественная церемония выкатки новейшего стратегического бомбардировщика B-21 Raider. Малозаметный самолет должен в ближайшем будущем частично заменить устаревающий парк Rockwell B-1 Lancer и Northrop Grumman B-2 Spirit, и даже взять на себя ряд задач, которые выполняют совсем уж «старички» Boeing B-52 Stratofortress.

19 ноября
Анна Новиковская

В последний раз черношейного фазанового голубя видели еще в 1882 году, и с тех пор ученые не знали, живет ли еще в лесах острова Фергуссон эта красивая птица. Теперь, наконец, им повезло: одна из камер запечатлела представителя редчайшего подвида фазановых голубей.

24 ноября
Редакция

Режиссер Илай Сасик (Eli Sasich), вдохновившись классическими научно-фантастическими фильмами «Чужой» и «Бегущий по лезвию», несколько лет назад снял короткометражный фильм «Атропа», который стоит посмотреть, если вы интересуетесь наукой и космическими технологиями.

24 ноября
Анна Новиковская

В то время как основные мировые языки со временем упрощают письменность, существует одно яркое исключение: китайский язык. За свою историю, насчитывающую три тысячелетия, его система письма становилась только сложнее и до сих пор остается крайне сложной для изучения.

[miniorange_social_login]

Комментарии

3 Комментария

-
0
+
Золотое правило этики — «не делай другим того, чего не желаешь себе» -- из самоварного золота... Вдобавок, даже это самоварное правило на данном сайте не исполняется от слова "совсем"... Чего левая задняя Березина или редакция пожелают, то и исполняется безапелляционно... Впрочем, вся этика -- весьма зыбкая штука, построенная на песке и из песка, за исключением тех случаев, когда она навязывается авторитарным государством и тоталитарным учением.
14.10.2022
-
0
+
"Этика" по сути является противоречивым набором правил, которые еще и постоянно меняются в различных обществах и временных эпохах. "Азиломарские принципы" выглядят как свод благолупостей. Извините( Кора головного мозга содержит десятки миллиардов нейронов. Если вы создадите сильный ИИ с аналогичным уровнем сложности, вы никогда не сможете понять, почему он принял то или иное решение. И вы никогда не сможете создать в такой нейросети запреты, которые бы она не могла обойти каким-то окольным путем. Точно так же, как с людьми: воспитывают всех вроде примерно одинаково, более-менее этично, а кто-то вдруг становится серийным маньяком-убийцей. Или устраивает расстрел в школе. Да даже самый обычный человек, сделав гадость, обычно находит для себя тысячу вполне этичных оправданий. Наиболее изощренные мерзавцы вообще создают свою собственную этику, которая иногда находит множество последователей. Выпуская на волю достаточно сложный сильный ИИ, оснащенный структурами, подобными сознанию (а именно для таких структур применима этика), человек никогда не сможете его контролировать. Кроме как на уровне отключения рубильника питания. Но если такой ИИ будет значительно умнее человека, то он лишит его и этой возможности.
14.10.2022
-
0
+
если в азимовские законы робототехники, вместо слова робот подставить слово - раб, вы получите истинный смысл "равноправия" роботов.
Подтвердить?
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: