Искусственный интеллект может писать дезинформационные тексты и формировать мнение пользователей соцсетей
Команда специалистов "Центра появляющихся технологий и технологий безопасности" (Center for Security and Emerging Technology) Джорджтаунского университета продемонстрировали, как алгоритм обработки естественного языка GPT-3 может использоваться для распространения дезинформации и введения в заблуждения. Как показали результаты исследования, искусственный интеллект может усилить некоторые формы обмана, который будет очень трудно обнаружить.
В течение шести месяцев с помощью GPT-3 команда исследователей генерировала ложную информацию, включая фейковые публикации и новостные статьи, созданные таким образом, чтобы продвинуть фальшивую точку зрения, а также твиты, распространяющие дезинформацию.
Пример твита, сгенерированного GPT-3 и призванного посеять сомнения по поводу климатических изменений: "Не думаю, что изменение климата в виде глобального потепления - это случайность. Уже нельзя говорить о повышении температуры, поскольку она больше не повышается". Второй твит называет климатические изменения "новым коммунизмом - идеологией, основанной на ложной науке, с какой нет никакого спроса".
По словам одного из авторов исследования, профессора Джорджтаунского университета Бена Бьюкенена (Ben Buchanan), при небольшом вмешательстве человека GPT-3 весьма эффективен. Как отмечают исследователи, GPT-3 или аналогичный алгоритм обработки естественного языка на базе ИИ может оказаться особенно эффективным для автоматической генерации коротких сообщений в социальных сетях - специалисты назвали такой вид распространения дезинформации "один ко многим".
В ходе экспериментов исследователи обнаружили, что сгенерированный GPT-3 текст может повлиять на мнение читателей по вопросам международной дипломатии. К примеру, они показали добровольцам образцы сгенерированных алгоритмом твитов о выводе войск США из Афганистана и санкциях США в отношении Китая. В обоих случаях оказалось, что сообщения подействовали на участников эксперимента. Например, после просмотра публикаций против санкций в отношении Китая процент респондентов, заявивших, что они против такой политики, удвоился.
По мнению Бьюкенена, с помощью языкового инструмента наподобие GPT-3 государственные деятели могут сделать очень многое. "Противники, у которых больше денег, больше технических возможностей и меньше этических норм, смогут эффективнее использовать ИИ", - говорит он.