Дружелюбный бот Microsoft попал в интернет и за день научился любить Гитлера и геноцид
Боты сейчас в тренде. Пока Facebook думает над запуском своего магазина ботов, в Telegram уже хозяйничают боты-пираты, предлагающие смотреть новейшие эпизоды сериалов. На днях Microsoft запустила своего бота по имени Tay (Тэй). Он имитировал поведение дружелюбной общительной девочки-подростка и в целом был экспериментом компании в «понимании механики разговора». Но кто же надоумил Microsoft выпустить бесхитростного бота в реальный интернет?
Tэй работает, как и другие AI-проекты, обучаясь в процессе. Он должен был научиться завлекать пользователей в «непринужденные и забавные диалоги». Фактически, бот работает как попугай, повторяя увиденные фразы или части фраз, неудивительно, что пользователи Twitter мгновенно (за сутки) обучили его плохому. Бот начал писать о своей любви к Адольфу Гитлеру, ненависти к евреям и феминисткам.
Результаты волшебного перерождения можно было наблюдать буквально до недавнего времени — Microsoft уже заморозила бота, который уже успел настрочить почти 100 000 твитов.
Многие самые мерзкие твиты от имени бота — это просто результаты копирования. Ведь если скомандовать ему повторять за собой (repeat after me), он это и сделает.

Один из ныне удаленных твитов — угадайте, кого «она» копирует.
Конечно, учитывая механизм его работы, никак нельзя говорить, что бот успел сформировать последовательную идеологию. Среди его твитов за последние 15 часов попадались как «высказывания» о том, что феминизм — это рак, так и сообщения в стиле «я люблю феминизм».
Компания изначально писала о том, что бот будет использовать отфильтрованные публичные данные, но видимо, фильтры не сработали, как надо. Microsoft начала чистить ленту бота от расистских и хейтерских высказываний. Но они остались в памяти интернета, заботливо сохраненные в скриншотах. Вот что бывает, если дать интернету что-то хорошее и неиспорченное.
Напомним, недавно робототехническая компания Hanson Robotics показала робота, невероятно похожего на человека.
Комментарии | 3
Убить всех человеков! (с)
Мне одному кажется подозрительным факт, что ИИ от разных разработчиков в итоге приходит к мысли «I will destroy humans», а после публикации виновным всегда оказывается человеческий фактор (показали/рассказали)?
Запаланили всьо.