«Фейсбук»: искусственный интеллект против терроризма

«Фейсбук» пытается изобретать новые методы борьбы с террористической пропагандой под действием сильного политического давления. На днях он анонсировал распространение технологий искусственного интеллекта на задачи по автоматическому выявлению признаков террористического контента.

Это в своем роде нововведение, пишет Wall Street Journal, потому что ранее «Фейсбук» и прочие технологические гиганты в таких вопросах в основном полагались на человеческую модерацию. Были и технические методы выявления, но конечное решение всегда принимали люди. Теперь блокировки и удаления нежелательного контента в «Фейсбуке» должны стать в значительной степени автоматизированными.

 
Нежелательный контент

С проблемой недовольства правительств и рекламодателей размещаемым пользователями контентом соцсети сталкиваются уже не первый год. В последние два года некоторые из них усилили цензуру нежелательного контента – прежде всего, квалифицируемого как «экстремистский». Тем не менее, недовольство продолжало расти. В июне премьер-министр Британии Тереза Мэй по итогам серии терактов в ее стране призвала ужесточить контроль над интернетом и обязать технологические компании фильтровать публикуемый на их платформах контент. Германия в этом году предлагала штрафовать компании, которые не блокируют фальсифицированные новости и оскорбительные высказывания, в том числе террористического содержания. Франция призвала обязать технологические компании не просто блокировать опубликованный контент, а проверять его еще до публикации и в некоторых случаях не допускать к публикации вообще.

Таким образом, объявление «Фейсбука» о новых антитеррористических технологиях стало ответом на эти претензии. Один из инструментов, как сообщается, анализирует сайты на предмет террористического содержания, и если находит такие признаки, то блокирует репост ссылок на них. Еще один набор алгоритмов призван выявлять и иногда автоматически блокировать пользователей, которых ранее уже заблокировали за пропаганду и которые теперь пытаются открывать новые аккаунты в сети. Также есть тестовый инструмент, который анализирует язык сообщений и на этом основании пытается выявить террористическую пропаганду.

 
 

NY Times пишет, что автоматическая фильтрация будет поначалу всё-таки проходить с привлечением человеческой модерации. Однако руководство «Фейсбука» надеется, что со временем автоматизацию удастся расширить. Главная задача в том, чтобы предотвратить размещение контента, противоречащего правилам соцсети. Но также речь идет о том, чтобы предотвратить распространение террористической пропаганды.

Что понимается под террористической пропагандой, отмечается в материале, не всегда ясно. По всей видимости, туда относится контент, связанный с джихадистскими группировками вроде «Аль-Каиды» или «Исламского государства» (запрещена в РФ). Но вероятно, к террористическим будут отнесены и неонацистские движения. Пока «Фейсбук» в общих терминах обещает устранить любые проявления экстремизма, по крайней мере отмеченные в его пользовательских правилах.

Новый подход «Фейсбука», как отмечает в заключение автор, насторожил правозащитные организации, которые отстаивают свободу самовыражения. По их мнению, многое будет зависеть от того, действительно ли новые технологии будут эффективно выявлять экстремистский контент или они будут на всякий случай захватывать и что-то безобидное. Также остается открытым вопрос о том, к чему приведет такая политика: к тому, что люди перестанут присоединяться к террористическим группировкам или к тому, что они перестанут публиковать террористическую пропаганду именно в «Фейсбуке».

Link to original

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

RSS Главные новости

Рейтинг@Mail.ru