Новости и события » Общество » Алгоритмы соцсетей не справляются с поддельным и вводящим в заблуждение контентом

Алгоритмы соцсетей не справляются с поддельным и вводящим в заблуждение контентом

Алгоритмы соцсетей не справляются с поддельным и вводящим в заблуждение контентом

По мере того, как в Афганистане разворачивается кризис, становится ясно, что алгоритмы социальных сетей неспособны противостоять большому количеству вводящего в заблуждение или поддельного контента.

Праткика показывает, что владельцы платформ по-прежнему плохо разбираются в этом вопросе.

Когда контент удаляется, его следует либо заблокировать от повторной загрузки, либо, по крайней мере, пометить как потенциально вводящий в заблуждение при отображении для других пользователей. Очень часто другой аккаунт - настоящий или фейковый - просто репостит удаленный контент, чтобы он мог распространяться без ограничений.

Распрастранение прекращается лишь тогда, когда огромный объем контента, который обрабатывается модераторами на основе искусственного интеллекта, такими как обнаружение объектов и распознавание видео, отмечается пользователями и в конечном итоге просматривается реальным человеком, часто спустя много времени после того, как он был просмотрен многими пользователями. Нередко модераторы нуждаются в психотерапии после того, как они подвергаются просмотру столь большого количества самых худших проявлений человечества, и сводят на нет цель автоматизации в сокращении задач, которые опасны или трудоемки для людей, выполняемых в одиночку.

Технология Deepfakes в настоящее время представляют собой самую большую проблему для платформ социальных сетей. Со временем алгоритмы можно обучить обнаруживать маркеры, указывающие на изменение содержимого. Microsoft разрабатывает такую ​​систему под названием Video Authenticator, которая была создана с использованием общедоступного набора данных из Face Forensic ++ и была протестирована на наборе данных DeepFake Detection Challenge:

Однако верно и то, что все более совершенные дипфейки делают маркеры еще более незаметными. Еще в феврале исследователи из Калифорнийского университета в Сан-Диего обнаружили, что существующие системы, предназначенные для противодействия растущему распространению дипфейков, можно обмануть.

Еще одна проблема с дипфейками - их устойчивость к невозможности повторной загрузки. Увеличение вычислительной мощности означает, что внесение небольших изменений не займет много времени, поэтому "новый" контент ускользнет от алгоритмической блокировки.

В отчете Центра бизнеса и прав человека Нью-Йоркского университета им. Стерна исследователи выделили различные способы использования дезинформации для воздействия на демократические процессы. Один из способов - использовать дипфейк-видео во время выборов, чтобы "изобразить кандидатов, говорящих и делающих то, чего они никогда не говорили и не делали".

В отчете также прогнозируется, что Иран и Китай присоединятся к России в качестве основных источников дезинформации в западных демократиях и что коммерческие фирмы, базирующиеся в США и за рубежом, будут наняты для распространения дезинформации. В мае выяснилось, что французские и немецкие ютуберы, блоггеры и влиятельные лица получили деньги от якобы находящегося в Великобритании PR-агентства с российскими связями, чтобы они распрастранили дезинформацию среди своих подписчиков о том, что вакцина Pfizer/BioNTech имеет высокий уровень смертности. Влиятельных лиц попросили сказать своим подписчикам, что "основные средства массовой информации игнорируют эту тему".

Признавая проблемы, такие компании, как Facebook, YouTube и Twitter, должны иметь в своем распоряжении ресурсы, чтобы гораздо лучше справляться с вводящим в заблуждение контентом, чем они это делают сейчас. Можно проявить некоторую снисходительность к дипфейкам как относительно новой угрозе, но некоторые вещи на данный момент непростительны.

Хотя трудно поверить в заявления талибов о том, что они будут относиться к женщинам и детям намного лучше, чем предполагает их доктрина, всегда важно, чтобы факты и подлинные материалы были отделены от известной доли вымысла и искаженного содержания, независимо от проблемы или личного восприятия. Сети четко осознают проблемный контент и продолжают разрешать его распространение - часто совершенно беспрепятственно.

Изображение корреспондента CNN Омара Хименеса, стоящего перед взлетом вертолета в Афганистане, вместе с заголовком новостей "Насильственная, но в основном мирная передача власти" было размещено в различных социальных сетях в минувшие выходные. Reuters и Politifact проверили изображение и пришли к выводу, что оно было изменено в цифровом виде.

Изображение Хименеса было взято из его освещения протестов 2020 года в Кеноша, штат Висконсин, после стрельбы полицией рядом с надписью "Горячие, но в основном мирные протесты после полицейской стрельбы", которая подверглась критике со стороны некоторых консерваторов. Подделанное изображение явно предназначено для сатиры, но комментарии показывают, что многие люди посчитали это правдой.

В Facebook, к его чести, изображение теперь помечено как "Измененное фото", где четко указано, что "Независимые фактчекеры считают, что эта информация может ввести людей в заблуждение". На момент написания этой статьи в Twitter изображение все еще публикуется без какого-либо ярлыка. Заголовок также используется в качестве заголовка в видео YouTube с некоторыми другими кадрами, но платформа также не пометила его и утверждает, что это не нарушает их правила.

Платформы социальных сетей не могут стать полицией мыслей, но там, где алгоритмы обнаруживают контент вводящий в заблуждение и создающий манипуляции - или, где есть явные доказательства того, что даже реальный материал используется для введения в заблуждение - бесспорно, необходимо принять меры для блокировки подобного контента.

Алгоритмы соцсетей не справляются с поддельным и вводящим в заблуждение контентом

Microsoft YouTube США Университеты


Свежие новости Украины на сегодня и последние события в мире экономики и политики, культуры и спорта, технологий, здоровья, происшествий, авто и мото

Вверх