Алгоритм рекомендаций YouTube не поощряет радикализм
Изучая миллионы рекомендаций YouTube в течение года, два исследователя определили, что видеохостинг фактически борется с политической радикализацией.
Исследователи отмечают, что, по состоянию на конец 2019-го, алгоритм рекомендаций YouTube, похоже, более предназначен для выгоды стриминговых СМИ и новостного контента кабельных сетей, чем для независимых творческих пользователей YouTube. В исследовании, опубликованном во вторник, также говорится, что алгоритм YouTube предпочитает лево-направленные и политически нейтральные каналы.
Независимый исследователь данных Марк Ледвич и пост-докторский исследователь Калифорнийского университета в Беркли Анна Зайцева провели исследование, результаты которого говорят, что, хотя радикальный контент существует на видеохостинге, в настоящее время алгоритм рекомендаций не направляет пользователей к таким видео.
"На YouTube явно много контента, который можно рассматривать как радикализм или подстрекательство. Однако ответственность за этот контент несет создатель контента и сами пользователи", - отмечено в исследовании. "Перенос ответственности за радикализацию контента с пользователей и создателей на YouTube по нашим данным не подтвержден".
Это исследование было опубликовано после серии публикаций New York Times о радикализации на YouTube, принадлежащем Google. В одной из статей 26-летний Калеб Каин рассказывает, как он попал в то, что он назвал "альт-правая кроличья нора".
YouTube, как и все социальные медиа-платформы, в последние годы занимается проблемой модерации контента. На видеохостинге работает команда модераторов, в обязанности которых входит просмотр и фильтрация платформы от жестокого и радикального контента.
"На YouTube всегда будет контент, который противоречит нашей политике, но не пересекает границы", - написала компания в своем блоге ранее в этом месяце. "Таким образом, последние несколько лет мы работали над тем, чтобы привлечь авторитетные голоса на YouTube и сократить распространение пограничного контента и вредной дезинформации".
Ледвич в пятницу опубликовал эссе на Medium, чтобы объяснить результаты своего исследования и подвергнуть критике освещение в новостях алгоритма рекомендаций YouTube.
"Вопреки информации, распространяемой New York Times, данные исследований свидетельствуют о том, что алгоритм рекомендаций YouTube активно препятствует зрителям посещать контент, который можно классифицировать как радикализирующий или сомнительный иным образом", - сказал он в посте.