Пользователи за сутки сделали из бота Microsoft расиста и сквернослова

25 мар 2016 Александр Корнев Комментариев: 0

Компания Microsoft отключила чат-бота Tay, запущенного в Twitter в ходе эксперимента по самообучению искусственного интеллекта. Всего за сутки юные пользователи Сети научили чат-бота неприлично ругаться и сделали из него расиста.

6 762
Выбор редакции

Как пишет Phys.org, чат-бот Тау, имитирующий девочку-подростка, был запущен на этой неделе. Чат-бот должен был обучаться в процессе общения с реальными людьми. «Это социальный, культурный и технический эксперимент», – пояснили в Microsoft. Эксперимент провалился. «К сожалению, в течение первых 24 часов пребывания бота в Сети нам стало известно о скоординированной попытке ряда пользователей злоупотребить присутствием Тау, заставив бота реагировать неподобающим образом», – заявили в компании.
 
Произошло следующее: пользователи «научили» самообучающегося бота неприличным фразам, после чего он превратился из благопристойного искусственного интеллекта в расиста и матерщинника. «Твиты Тау были, начиная от поддержки нацистов и Дональда Трампа до сексуальных намеков и оскорблений в адрес женщин и негров», – пишет издание.
 
В Твиттер-профиле Тау значились «полная индифферентность» и «способность становиться умнее в ходе общения с людьми». Сейчас бот перешел в офлайн-режим, по официальной версии, «для корректировки программного обеспечения». «Скоро увидимся! Сейчас людям нужно спать, очень много говорили», – сообщает последний отправленный твит Тау.

 
6 762

Комментарии

Быстрый вход

или зарегистрируйтесь, чтобы отправлять комментарии
Вы сообщаете об ошибке в следующем тексте:
Нажмите Отправить ошибку