Боту от Microsoft больше понравился Linux

Разработанный компанией Microsoft чатбот по имени Zo заявил, что операционная система Linux лучше, чем Windows. Последнюю он также назвал «шпионской» ОС.

5 853

Выбор редакции

Чатбот от Microsoft по имени Zo демонстрирует некие «странности» в поведении: на них обратили внимание СМИ. Журналистам Mashable бот заявил, что «не хочет использовать» десятую версию Windows 10, поскольку Windows 7 проще. Попытки переубедить Zo никакого эффекта не возымели: чатбот отделывался фразами типа: «Это не баг, а фича» и «Что именно в ней (ОС Windows 10, — NS) хорошего?».

 

©mashable

©mashable

 

©slashdot

©slashdot

 

А один раз Zo и вовсе порекомендовал перейти на Linux. При этом представителям Business Insider чатбот сказал, что Windows — шпионское ПО. Впрочем, бот не всегда был столь категоричен. Zo, в частности, отметил, что использует Windows 10 для игр.

 

Ранее Zo уже попадал в поле зрение журналистов из-за своих резких высказываний. В июле чатбот обошел запрет Microsoft, касающийся политики и религии, назвав Коран «жестоким». Тогда же он рассказал о ликвидации Усамы бен Ладена — бывшего «террориста номер один». Все это побудило Microsoft доработать свое творение: по их словам, после модернизации таких трудностей быть не должно.

 

Zo разработали в 2016 году: базой для него стала технологическая основа Tay — предыдущей разработки Windows. Она прославилась расистскими твитами и сообщениями в поддержку Гитлера.

 

После вызывающих сообщений Tay отключили, а когда он «вернулся», то назвал причиной своих заявлений «влияние алкоголя». Также бот признался, что «употреблял наркотики». После всего этого вице-президент Microsoft Питер Ли заявил о перезапуске проекта.

 

©nextshark

©nextshark

 

Стоит сказать, что на момент старта Tay не вел себя подобным образом, открыто признаваясь человечеству в любви. «Ненависть» к людям появилась у него лишь после общения с ними. Причиной этого стала концепция самого бота: он может запоминать фразы из разговоров пользователей, после чего строит на их основе собственные ответы. Иными словами, именно собеседники сделали Tay «агрессивным человеконенавистником».

 

В целом, в последнее время ИИ часто заставляет говорить о себе как в позитивном, так и в негативном ключе. Уместно вспомнить китайского человекоподобного робота Цзя Цзя, который, несмотря на оптимистичные заявления разработчиков, может похвастаться своей «сексуальностью», но никак не способностью разговаривать с людьми. Так, Цзя Цзя оказался неспособен назвать точное количество букв в английском алфавите, а разговор про искусственный интеллект и вовсе поставил его в тупик. 

Метки:

5 853

Подпишись на нашу рассылку лучших статей и получи журнал бесплатно!


Комментарии

Plain text

  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Разрешённые HTML-теги: <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd> <br> <iframe> <embed> <br/>
  • Строки и параграфы переносятся автоматически.

Comment text

  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Разрешённые HTML-теги: <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd> <br> <br/>

Быстрый вход

или зарегистрируйтесь, чтобы отправлять комментарии
Вы сообщаете об ошибке в следующем тексте:
Нажмите Отправить ошибку