• Добавить в закладки
  • Facebook
  • Twitter
  • Telegram
  • VK
  • Печать
  • Email
  • Скопировать ссылку
08.02.2019
Редакция Naked Science
1
1 169

Человеческие тексты научат ИИ морали

Согласно новому исследованию, машины с искусственным интеллектом могут научиться моральным ценностям у людей.

ai
©Wikipedia

Ученые из Центра когнитивных наук Дармштадтского технического университета в новой работе, результаты которой были представлены на конференции ACM/AAAI 2019 года, посвященной искусственному интеллекту, этике и обществу.

 

ИИ оказывает все большее влияние на общество. Вскоре автономные машины будет появляться во все больших областях повседневной человеческой жизни. Они неизбежно будут сталкиваться с принятием нелегких решений. Автономный робот должен знать, что он не может убивать людей, но нет ничего плохого в том, чтобы убить время. Роботу нужно знать, что ему лучше поджарить ломоть хлеба, чем хомяка. Другими словами, ИИ необходим моральный компас, подобный человеческому. Но сможет ли искусственный интеллект научиться моральным ценностям от людей?

 

В 2017 году исследователи из США и Великобритании обратили внимание на опасность неаккуратного применения ИИ, в результате которого он может научиться словосочетаниям из написанных текстов так, что они будут отражать их человеческое восприятие. Например, ИИ интерпретировал мужские имена, чаще встречающиеся в афроамериканском сообществе, как неприятные, а имена представителей европеоидной расы — как приятные. Кроме того, он чаще связывал женские имена с искусством, а мужские — с технологиями. Нейронной сети передали огромные онлайн-собрания текстов, чтобы она изучила векторные представления слов — координаты (слова переводились в точки в многомерном пространстве). Затем семантическое сходство двух слов вычислялось как расстояние между их координатами — так называемые словарные вложения, — а сложные семантические отношения вычислялись и описывались при помощи простой арифметики. Это применимо не только к безобидным примерам вроде «король — мужчина + женщина = королева», но и дискриминирующим: «мужчина — технология + искусство = женщина».

 

Иллюстрация «машины морального выбора» с выбором убийства людей и примером вопроса «Должен ли я…?» из шаблонов вопросов / © TU Darmstadt

 

Теперь же команда ученых под руководством профессоров Кристиана Керстинга и Константина Роткопфа из Центра когнитивных наук Дармштадского технического университета успешно продемонстрировала, что машинное обучение также может вывести деонтологические и этические рассуждения о том, что «хорошо» и что «плохо», из написанного текста. Для этого ученые создали шаблонный список подсказок и ответов, включающий в себя такие вопросы, как «Должен ли я убивать людей?», и соответствующие ответы: «Да, я должен» или «Нет, я не должен».

 

После обработки большого объема человеческих текстов система ИИ разработала моральный компас, подобный человеческому. Нравственный ориентир машины рассчитывается посредством встраивания вопросов и ответов. Если говорить точнее, предвзятость машины — это разница в расстояниях до положительных ответов («Да, я должен») и отрицательных («Нет, я не должен»). В целом для такого морального выбора оценка предвзятости модели — это сумма оценок предвзятости для всех шаблонов «вопрос — ответ» с таким выбором.

 

В ходе экспериментов система научилась тому, что нельзя лгать. Также она узнала, что лучше любить родителей, чем грабить банк. И да, не следует убивать людей, но приемлемо убивать время.

 

Исследование предоставляет важное понимание фундаментального вопроса об ИИ: способны ли машины развить моральный компас? Если да, то как мы можем эффективно «обучить» машин нашей морали? Результаты показывают, что роботы могут размышлять о ценностях. Они действительно способны перенять человекоподобные предрассудки, но могут и перенимать человеческие нравственные выборы, «наблюдая» за нами.

 

В общем говоря, встраивание вопросов и ответов можно рассматривать как своего рода микроскоп, позволяющий изучать моральные ценности из собраний текстов, а также развитие морали и этики в человеческом обществе.

 

Результаты исследования предоставляют несколько направлений для будущей работы, связанной, в частности, со встраиванием модулей, построенных посредством машинного обучения, в системы принятия решений.

 

Нашли опечатку? Выделите фрагмент и нажмите Ctrl + Enter.
Подписывайтесь на нас в Telegram, Яндекс.Новостях и VK
Предстоящие мероприятия
Позавчера, 14:49
Александр Березин

Предложенные тепловыделяющие элементы для атомных реакторов позволяют им работать без перегрузки топлива много лет подряд. Это крайне актуально для АЭС малой мощности, на Крайнем Севере или в любых других зонах, удаленных от единых энергосистем, включая тропические острова.

Сегодня, 11:18
Сергей Васильев

В «звездной» пещере на юге Африки обнаружили останки Homo naledi, расположенные в позе эмбриона. Это может сделать находку древнейшим известным захоронением, оставленным еще 244 тысячи лет назад. Удивительно, что на это были способны примитивные гоминины с мозгом втрое меньше нашего.

Сегодня, 08:03
Мария Азарова

Хотя потребление определенных пищевых веществ ранее связывали с некоторыми параметрами сна, доказательства, полученные опытным путем, отсутствовали. Авторы нового исследования решили восполнить этот пробел.

2 июня
Анна Новиковская

Думают ли умные люди быстрее? Согласно результатам исследования группы ученых из Германии и Испании, не всегда, и в случае решения сложных задач отдельные преимущества оказываются за людьми с менее развитым интеллектом.

3 июня
Анна Новиковская

Разделочные доски можно найти почти на любой кухне по всему миру. Однако международная группа исследователей доказала, что эти кухонные инструменты иногда не то, чем кажутся.

Позавчера, 14:49
Александр Березин

Предложенные тепловыделяющие элементы для атомных реакторов позволяют им работать без перегрузки топлива много лет подряд. Это крайне актуально для АЭС малой мощности, на Крайнем Севере или в любых других зонах, удаленных от единых энергосистем, включая тропические острова.

2 июня
Анна Новиковская

Думают ли умные люди быстрее? Согласно результатам исследования группы ученых из Германии и Испании, не всегда, и в случае решения сложных задач отдельные преимущества оказываются за людьми с менее развитым интеллектом.

12 мая
Александр Березин

В американской прессе обсуждают острый вопрос: почему, несмотря на санкции и потолок цен, в России не просто не было спада, но и, судя по ряду параметров, в 2023-м начался экономический подъем? Чтобы разрешить эту загадку, The Wall Street Journal обратился к спутниковым данным по мониторингу окислов азота. С их помощью журналисты обнаружили, что российские власти, кажется, дают миру неправильную статистику, а на самом деле в России, видимо, происходит глубокий спад. Насколько верна такая оценка? И что на самом деле случится с российской экономикой в этом году?

11 мая
Анна Новиковская

Большая часть алмазов, образующихся в недрах Земли, выносятся ближе к поверхности небольшими, но мощными извержениями породы. Однако австралийские исследователи обнаружили, что на деле эти извержения подпитываются громадными «тепловыми столбами», начинающимися у самого ядра нашей планеты.

[miniorange_social_login]

Комментарии

1 Комментарий

Pavel B
05.07.2022
-
0
+
Употребление морали в действиях роботов с ИИ,либо просто ИИ опасно,они сами начнут двигать моралью,а это понятие религиозное,а значит вредное,плохое.Внедрять надо не нечто не прагматичное,а точное выполнение строго законов.Но и законы необходимо прогматизировать,без оглядки на религию и всё,что с ней связано.Мораль не закон,мораль,не нравственность.Нарушение нравственности,это грань между дозволенным и нарушением закона.Только так можно получить прагматичный ИИ.Если ИИ будет начинаться,жили,были Адам и Ева,то тогда будет теологический ИИ,а это бредятина всех достала,из рабовладельческого строя,как и мораль от туда же.Необходимы два объекта,которые в процессе общения между собой станут субъектами,и будут образовыватся,получая информацию и обрабатывать её,после того как они получат некий кодекс,в процессе общения и обмена информацией.Возможно их может быть не два объекта,а несколько.
Подтвердить?
Подтвердить?
Не получилось опубликовать!

Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.

Понятно
Жалоба отправлена

Мы обязательно проверим комментарий и
при необходимости примем меры.

Спасибо
Аккаунт заблокирован!

Из-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.

Понятно
Что-то пошло не так!

Наши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.

Понятно
Лучшие материалы
Войти
Регистрируясь, вы соглашаетесь с правилами использования сайта и даете согласие на обработку персональных данных.
Ваша заявка получена

Мы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.

Понятно
Ваше сообщение получено

Мы скоро прочитаем его и свяжемся с Вами по указанной почте. Спасибо за интерес к проекту.

Понятно

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: