Искусственный интеллект помог Facebook удалить почти 2 миллиона террористических сообщений
Согласно отчету Facebook, за первый квартал 2018 года алгоритмы искусственного интеллекта такие, как Qaeda и ISIS, помогли выявить намного больше нежелательных и опасных сообщений, чем в конце 2017 года.
К категории нежелательных сообщений относятся посты самых разных категорий.
К примеру, 1,9 миллионов удаленных в первом квартале 2018 года постов носили террористический характер. Представители социальной сети утверждают, что их инструменты помогли обнаружить и удалить 99,5% их них до того, как кто-либо из пользователей успел пожаловаться. Раньше Facebook удавалось вовремя обнаружить только 97% из 1,1 миллиона подобных сообщений.
Посты, содержащие сцены насилия, удаляются до поступления жалоб в 0,22 -0,27% случаев. За первые три месяца этого года под санкции попали 3,4 миллиона сообщений. В конце 2017 года было удалено 1,2 миллиона подобных постов, из которых заблаговременно получилось найти 0,16 - 0,19%.
Однако при обнаружении порнографического и сексуального контента искусственный интеллект показывает себя не лучшим образов. Facebook пришлось удалить по 21 миллиону сообщений такого характера, из которых до жалоб пользователей было отфильтровано всего 0,06 - 0,08%.
Зато посты, разжигающие ненависть или содержащие бранную лексику, автоматически стираются в 56% случаев. За первый квартал 2018 года было удалено 2,5 миллиона таких сообщений.
Согласно отчету, почти 100% постов, относящихся к категории "спам" удается стереть до обращения пользователей. В первом квартале 2018 года под санкции попали 837 миллионов сообщений.
Также в течение трех месяцев 2018 года было удалено 583 миллиона фейковых аккаунтов, против 694 миллионов в конце 2017 года. Искусственный интеллект помог обнаружить 3 - 4% из них.
Facebook отметила, что продолжит усиливать меры борьбы со всеми перечисленными категориями сообщений. Для этого социальной сети придется увеличить численность команды, следящей за безопасностью, до 20 000 человек.