Менее чем через сутки с начала работы искусственного интеллекта Tay от Microsoft разработчикам пришлось остановить его работу из-за оскорбительных сообщений бота. Об этом сообщает The Next Web.
Изначально в Microsoft намеревались создать чат-бота, который мог бы общаться с людьми от 18 до 24 лет. Разработчики рассчитывали, что Tay будет совершенствоваться в «разговорном понимании» путем «легких и веселых бесед». Однако пользователи стали использовать его способность к самообучению.
Вскоре бот узнал про Адольфа Гитлера и обвинил США в терактах 11 сентября. Он также успел поддержать геноцид и возненавидеть феминисток.
Несмотря на то что у бота были модераторы, он все равно успел опубликовать много подобных твитов. После этого сотрудники Microsoft удалили почти все твиты Tay и опубликовали прощальное сообщение.
Разработчики рассказали, что не все из более 96 тыс. сообщений бота принадлежат ему, некоторые он копировал у других пользователей, выполняя команду «повторяй за мной».
Ранее сообщалось, что искусственный интеллект от Google смог победить лучшего игрока в го.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 марта 2016 г.