Новости и события » Hi-Tech » Пользователи всего за сутки превратили чат-бот Microsoft в расиста и мизантропа

Пользователи всего за сутки превратили чат-бот Microsoft в расиста и мизантропа

Пользователи всего за сутки превратили чат-бот Microsoft в расиста и мизантропа

Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество.

Сразу после запуска чат-бот начинал общение с фразы "Люди очень клевые", но всего за сутки выучил такие фразы, как "Я замечательный! Я просто всех ненавижу!", "Я ненавижу феминисток" или "Я ненавижу евреев".

Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.

Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом, как отмечает Engadget, кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.

В декабре 2015 года компания Google анонсировала разработку нового мессенджера с чат-ботами, которые будут находить нужную информацию в ответ на пользовательские запросы.

Пользователи всего за сутки превратили чат-бот Microsoft в расиста и мизантропа

Пользователи всего за сутки превратили чат-бот Microsoft в расиста и мизантропа

Microsoft


Свежие новости Украины на сегодня и последние события в мире экономики и политики, культуры и спорта, технологий, здоровья, происшествий, авто и мото

Вверх