Пользователи за сутки сделали из бота Microsoft расиста и сквернослова
Компания Microsoft отключила чат-бота Tay, запущенного в Twitter в ходе эксперимента по самообучению искусственного интеллекта. Всего за сутки юные пользователи Сети научили чат-бота неприлично ругаться и сделали из него расиста.
Как пишет Phys.org, чат-бот Тау, имитирующий девочку-подростка, был запущен на этой неделе. Чат-бот должен был обучаться в процессе общения с реальными людьми. «Это социальный, культурный и технический эксперимент», - пояснили в Microsoft. Эксперимент провалился. «К сожалению, в течение первых 24 часов пребывания бота в Сети нам стало известно о скоординированной попытке ряда пользователей злоупотребить присутствием Тау, заставив бота реагировать неподобающим образом», - заявили в компании.
Произошло следующее: пользователи «научили» самообучающегося бота неприличным фразам, после чего он превратился из благопристойного искусственного интеллекта в расиста и матерщинника. «Твиты Тау были, начиная от поддержки нацистов и Дональда Трампа до сексуальных намеков и оскорблений в адрес женщин и негров», - пишет издание.
В Твиттер-профиле Тау значились «полная индифферентность» и «способность становиться умнее в ходе общения с людьми». Сейчас бот перешел в офлайн-режим, по официальной версии, «для корректировки программного обеспечения». «Скоро увидимся! Сейчас людям нужно спать, очень много говорили», - сообщает последний отправленный твит Тау.