Тролли научили искусственный интеллект Microsoft ругаться и публиковать расистские твиты
В Microsoft вынуждены были временно выключить и отправить на доработку Twitter-бота по имени Tay, созданного в качестве «культурного эксперимента» в области искусственного интеллекта, который должен был обучаться естественному языку посредством общения в социальных сетях.
Приостановить эксперимент пришлось меньше чем через сутки после начала. Как объясняют в Microsoft, "пользователи Интернета превратили чатбота Tay в инструмент злоупотреблений".
Когда робот появился в сети, быстро выяснилось, что он реагирует на команду "повторяй за мной" и в ответ воспроизводит любое сообщение, которое получил. Многочисленные тролли тут же начали командовать Tay сыпать руганью и расистскими оскорблениями, чему тот подчинялся, иногда тоже прибавляя в конце "Повторяйте за мной". Пикантности ситуации прибавляло то, что судя по аватару, Tay - молодая девушка.
Но бот оказался не просто "попугаем": например, когда у него спросили, за кого лучше голосовать на президентских выборах, Tay ответила, что обожает Дональда Трампа и, как она "слышала от многих людей", он будет лучшим президентом в истории.
Сотрудники Microsoft вынуждены были удалить самые оскорбительные твиты Tay, а с веб-страницы, посвященной роботу, исчезли инструкции о том, как с ним можно общаться.