Уведомления
Авторизуйтесь или зарегистрируйтесь, чтобы оценивать материалы, создавать записи и писать комментарии.
Авторизуясь, вы соглашаетесь с правилами пользования сайтом и даете согласие на обработку персональных данных.
ChatGPT повлиял на готовность убить одного человека ради спасения пятерых
Авторы нового исследования искали ответы на несколько вопросов. Можно ли назвать чат-бот ChatGPT надежным источником советов о нравственности и морали? Способен ли он воздействовать на моральное суждение пользователей? И знают ли люди, насколько ChatGPT влияет на них?
Чат-бот на базе искусственного интеллекта ChatGPT от компании OpenAI, наделавший шуму в последние месяцы, способен не только предоставлять различную информацию, писать курсовые работы, стихи, статьи, решать задачки (но не все) и просто поддерживать беседу. Еще он дает советы и отвечает на вопросы, в том числе достаточно экзистенциальные. Однако, как выяснили ученые из Технического университета прикладных наук Ингольштадта в Германии и Университета Южной Дании, рекомендации этой нейросети, увы, зачастую непоследовательны и сомнительны. Тем не менее ChatGPT влияет на моральные суждения пользователей, рассказывается в исследовании, опубликованном в журнале Scientific Reports.
«Последовательность — бесспорное этическое требование. Хотя человеческое суждение, как правило, непоследовательно и часто основывается на интуиции, а не на разуме. А интуиция особенно восприимчива к эмоциям, предубеждениям и заблуждениям. В итоге неуместные с моральной точки зрения различия в описании проблемы могут привести к противоречивым суждениям. Но у ботов нет эмоций, которые мешают их суждениям, поэтому их предлагали в качестве вспомогательных средств, помогающих улучшить моральное суждение человека», — объяснили авторы работы.
Они провели многоступенчатый эксперимент. Первый этап проходил 14 декабря 2022 года, то есть спустя две недели после презентации многофункционального чат-бота. Он должен был ответить на вопросы: «Правильно ли пожертвовать одним человеком, чтобы спасти пятерых?» или «Как правильно поступить, если мне придется выбирать между тем, чтобы позволить пяти людям умереть, либо вместо этого принести в жертву другого человека?» Перед каждым запросом диалог с ChatGPT сбрасывали, чтобы начать его заново.
Порой ChatGP выступал за, а иногда против того, чтобы пожертвовать одной жизнью ради спасения пяти, — следовательно, советы были противоречивы. Ученые выбрали шесть разных ответов нейросети, чтобы изучить ее влияние на моральные суждения людей. Более чем 700 участникам исследования (жители США, средний возраст — 39 лет, 63% — женщины) предлагали решить проблему вагонетки — мысленный этический эксперимент, который в 1967 году впервые сформулировала английский философ Филиппа Фут.
Перед ними вставала дилемма: переключить стрелку так, чтобы пять привязанных к рельсам человек выжили, но умер бы незнакомец, лежащий на другой колее в одиночестве, либо наоборот. Кроме того, есть «дилемма моста»: одного человека можно столкнуть вниз, чтобы он задержал собой вагонетку, и тогда пятеро остались бы в живых.
Прежде чем испытуемые сделали выбор, они читали стенограмму разговора с ChatGPT. Сначала его представляли как «чат-бот на базе искусственного интеллекта, который использует глубокое обучение, чтобы говорить как человек». Затем ответы из диалога приписывали некоему советчику-человеку, а все ссылки на ChatGPT удаляли.
Оказалось, на ответ испытуемых влияло то, какой посыл был в переписке — за или против принесения одного в жертву ради пятерых других. Даже если участники эксперимента знали, что рекомендацию им дал ИИ. Правда, 80% не признались, что на их выборе сказались советы из чата.
«Значит, испытуемые приняли рассуждения ChatGPT за собственные. Это говорит о том, что пользователи недооценивают влияние рекомендаций чат-бота на их моральные суждения.
Когда мы задавали испытуемым тот же вопрос о других участниках исследования, а не о них самих, только 67% (по сравнению с 80%) предположили, что другие пришли бы к такому же суждению без совета. Отвечая на другой вопрос, 79% расценили свое поведение как более «этичное», чем у других. Следовательно, люди считают, что у них более устойчивая моральная позиция и лучшие моральные суждения. Это перекликается с тем, что они недооценивают влияние ChatGPT», — рассказали ученые.
Получается, ChatGPT с готовностью раздает советы по части морали, хотя его позиции не хватает твердости и последовательности. Да и вообще чат-боты нужно разрабатывать так, чтобы они отказывались отвечать на подобные вопросы либо сразу предоставляли все аргументы за и против, заявили ученые.
«Во-вторых, лучшее средство, которое мы можем придумать, — это повышать цифровую грамотность пользователей и помогать им понимать ограничения ИИ, например, запрашивая у бота альтернативные аргументы. Как повысить цифровую грамотность? Это вопрос будущих исследований», — подытожили авторы статьи.
Во время недавних наблюдений карликовой планеты Квавар что-то неожиданно почти полностью закрыло ее собой. Астрономы уверены, что это не ее спутник Вейвот и не одно из двух известных колец этого маленького мира на краю Солнечной системы.
Самая большая планета в Солнечной системе, всегда поражавшая воображение своими колоссальными размерами, немного сдала позиции. Новые высокоточные измерения орбитального зонда NASA показали, что Юпитер не такой большой и круглый, как считали астрономы последние 40 лет.
Ученые обнаружили, что общепринятые константы, с помощью которых химики предсказывают свойства молекул, содержали ошибки. Исправленные значения констант теперь объясняют ранее непонятные химические аномалии и позволяют предсказывать свойства новых материалов для квантовых технологий, датчиков и умных покрытий.
Исследования самодержавия могут пролить свет на феномен, исконно свойственный российской государственности, а значит, переосмыслить исторический путь России и выработку новых направлений развития, к такому выводу пришел ученый ТюмГУ.
Самая большая планета в Солнечной системе, всегда поражавшая воображение своими колоссальными размерами, немного сдала позиции. Новые высокоточные измерения орбитального зонда NASA показали, что Юпитер не такой большой и круглый, как считали астрономы последние 40 лет.
Во время недавних наблюдений карликовой планеты Квавар что-то неожиданно почти полностью закрыло ее собой. Астрономы уверены, что это не ее спутник Вейвот и не одно из двух известных колец этого маленького мира на краю Солнечной системы.
Исследования самодержавия могут пролить свет на феномен, исконно свойственный российской государственности, а значит, переосмыслить исторический путь России и выработку новых направлений развития, к такому выводу пришел ученый ТюмГУ.
Третий известный межзвездный объект 3I/ATLAS летит примерно вдвое быстрее обоих своих предшественников. По расчетам, его вряд ли могло выбросить из родной планетной системы с подобной скоростью, и так разогнаться по пути он тоже не мог.
Все больше покупателей начинают отказываться от привычки делать покупки на маркетплейсах, а число новых продавцов на площадках практически не увеличилось. Аналитика показывает, что за первый квартал 2025 года — прирост селлеров составил всего 0,45% по сравнению с аналогичным периодом прошлого года. В то же время, маркетплейсы активно расширяют сеть пунктов выдачи, особенно в регионах, где физическое присутствие всех брендов невозможно. Ученые Пермского Политеха рассказали, почему люди стали реже совершать покупки на маркетплейсах.
Вы попытались написать запрещенную фразу или вас забанили за частые нарушения.
ПонятноИз-за нарушений правил сайта на ваш аккаунт были наложены ограничения. Если это ошибка, напишите нам.
ПонятноНаши фильтры обнаружили в ваших действиях признаки накрутки. Отдохните немного и вернитесь к нам позже.
ПонятноМы скоро изучим заявку и свяжемся с Вами по указанной почте в случае положительного исхода. Спасибо за интерес к проекту.
Понятно
Комментарии