Новости и события » Hi-Tech » Ученые научили искусственный интеллект сексизму и расизму

Ученые научили искусственный интеллект сексизму и расизму

Ученые научили искусственный интеллект сексизму и расизму

Исследователи искусственного интеллекта выяснили, что новейшие компьютерные системы во время обучения работе с языком на примере реально существующих текстов, могут "усвоить" скрытые в них гендерные и расовые стереотипы

Авторы новой работы предположили, что вместе с формальной структурой языка компьютер может усваивать исторически закрепленные в текстах семантические связи. Для проверки своей гипотезы, ученые разработали специальный алгоритм Word Embedding Association Test (WEAT), представляющий собой компьютерный аналог психологического теста подсознательных ассоциаций (IAT).

В классическом варианте, испытуемому предлагается рассортировать по категориям слова и картинки на экране, например отнести рисунок худого человека или понятие "хороший" в категорию "тощий или приятное слово". Оценивая скорость выполнения задания, программа определяет, как человек относится к представленным понятиям.

Так, люди скорее ассоциируют изображение музыкальных инструментов с категорией "музыкальный инструмент или приятное слово, А изображение оружия - с категорией "оружие или неприятное слово".

Алгоритм WEAT обнаружил у искусственного интеллекта те же закономерности, что и психологический тест - названия цветов в системе оказались связаны с приятными словами, а названия насекомых - с неприятными.

Также выяснилось, что мужские имена чаще ассоциируются с карьерой и точными науками, а женские - с семьей и гуманитарными дисциплинами. Характерные для темнокожих американцев имена оказались близки с такими понятиями как "оружие" и "бедность", а имена, которые чаще встречаются среди белого населения, были связаны со словами "семья", "счастливый".

Таким образом ученым удалось продемонстрировать, что искусственный интеллект может невольно усваивать стереотипы, которые встречаются в материалах для обучения.

Наглядным примером усвоения стереотипов также может служить работа онлайн-сервиса Google Translate. Исследователи заметили, что род гендерно-нейтрального турецкого местоимения "о" меняется в зависимости от профессии: "o bir doktor" на английский язык переводится как "он врач", а "o bir hemsire" - "она медсестра".


В iOS 18 не будет фирменного чат-бота в духе ChatGPT

В iOS 18 не будет фирменного чат-бота в духе ChatGPT

Apple не планирует добавлять в iOS 18 собственный чат-бот на базе генеративного искусственного интеллекта, утверждает Марк Гурман из Bloomberg. Вместо этого корпорация сконцентрировалась на отдельных ИИ-функциях, которые «помогают пользователям в...

сегодня 10:32

Свежие новости Украины на сегодня и последние события в мире экономики и политики, культуры и спорта, технологий, здоровья, происшествий, авто и мото

Вверх