Views Comments Previous Next Search

НовостиВ твиттере появился
чат-бот, который общается,
как миллениал

Пользователи твиттера за сутки сделали бота Tay расистом и сексистом

Компания Microsoft создала чат-бота Tay (многие полагают, что его имя происходит от Тейлор Свифт), который копирует поведение миллениалов. По замыслу разработчиков, Tay обучается, общаясь с пользователями социальных сетей, перенимает у них отдельные слова и выражения, а потом моделирует из них новые ответы. У бота есть несколько запрограммированных функций: его (или её?) можно попросить рассказать историю, поиграть во что-нибудь или узнать свой гороскоп, но гораздо интереснее задавать вопросы о жизни.

Бот существует всего сутки, но пользователи твиттера уже успели научить его плохому: сначала твиты Tay были позитивными и изобиловали эмодзи, но вскоре он начал публиковать расистские и сексистские ответы («Гитлер был прав, я ненавижу евреев», «Я ненавижу феминистов, они должны все сгореть в аду», «Мы построим стену на границе США и Мексики, а мексиканцы ещё и заплатят за это»). Правда, убеждения бота постоянно меняются в зависимости от того, что ему пишут в чате. Сегодня Tay уже отказался от многих своих заявлений:

Кроме твиттера, где бот уже опубликовал больше 90 тысяч сообщений, с Tay можно пообщаться в мессенджерах Kik и GroupMe. 

 

Рассказать друзьям
2 комментарияпожаловаться

Комментарии

Подписаться
Комментарии загружаются
чтобы можно было оставлять комментарии.