В ответ на критику в адрес Facebook за недостаточные усилия в борьбе с экстремистским контентом социальная сеть опубликовала большую запись, в которой детально объясняет, как она намерена пресекать противоправные действия на своей площадке.
Представители Facebook рассказали, какие современные технологии внедряются в социальную сеть, чтобы противостоять международному терроризму, а также подчеркнули, что ранее не разглашали эту информацию публично.
Вербовщика выдаст голос
«Наша позиция проста: на Facebook нет места терроризму», — говорится в официальном сообщении. Соцсеть Марка Цукерберга рассказала, что активно удаляет аккаунты и публикации, связанные с террористическими организациями, в том числе ИГ (организация запрещена в России) и «Аль-Каидой» (запрещены на территории России. — «Газета.Ru»).
Кроме того, в случаях «неминуемой угрозы» Facebook незамедлительно сообщает об этом властям.
Соцсеть обозначила три направления работы в данной области: искусственный интеллект (ИИ), человеческий опыт и сотрудничество с другими проектами компании.
Нейросети и ИИ на службе Facebook будут сличать похожие изображения, связанные с терроризмом, анализировать голос возможных вербовщиков, а также внедрять кросс-платформенные методы совместно с принадлежащими компании Instagram и WhatsApp.
Команда из 150 человек, специализирующихся на противодействии терроризму, будет ежеминутно отслеживать нежелательные публикации, а сотрудничество с Microsoft, Twitter, YouTube, правительствами и неправительственными организациями поможет вести борьбу на разных уровнях.
«Мы верим, что технологии и Facebook могут помочь с решением проблемы», — утверждают в компании.
Примечательно, что спустя менее суток после заявления соцсети, в издании Guradian появилась заметка о том, что из-за ошибки в программном обеспечении во время поиска экстремистского контента личные данные 1000 модераторов Facebook попали в руки потенциальных террористов — администраторов сомнительных сообществ внутри сервиса.
Штраф как призыв к действию
Заявления Facebook могут быть вызваны недавней критикой социальных сетей и мессенджеров от первых лиц Великобритании, Франции и других стран. Британский премьер-министр Тереза Мэй назвала интернет-компании чуть ли не «рассадником терроризма».
Также она заявила, что соблюдение прав человека не должно вставать на пути борьбы с террористами, а если такое случится, то свой выбор Мэй сделает не в пользу гражданских свобод.
Совместно с президентом Франции Эммануэлем Макроном Тереза Мэй разработала контртеррористический план, согласно которому владельцы социальных сетей и мессенджеров будут привлечены к ответственности за «неспособность противостоять пропаганде террора».
«Опасный и безответственный подход к экстремизму в социальных медиакомпаниях слишком долго оставался безнаказанным», — сказала член парламента от Лейбористской партии Иветт Купер в поддержку инициативы Мэй.
Похожие заявления делал и госсекретарь США Рекс Тиллерсон, призвав Кремниевую долину объединиться ради борьбы с терроризмом. Правда, ни о каких штрафах пока речи не идет — политик предложил углубить сотрудничество в этой сфере.
«Цифровой халифат не должен процветать вместо халифата физического», — заявил Тиллерсон.
На фоне этой кампании, развернутой в крупнейших европейских странах и США, Facebook в качестве одного из лидеров индустрии не мог не отреагировать на вызов и подготовил план дальнейшей работы. Пока предстоит выяснить, насколько он станет успешным, так как главная цель проекта размыта — пытается ли соцсеть отвадить людей от вступления в террористические организации или отбить желание писать о терроризме в своем профиле на Facebook?
Модераторы не справляются
Существуют сомнения насчет пропускной способности модераторов Facebook — контента становится так много, что 150 экспертов по борьбе с терроризмом не хватит даже для проверки публикаций на одном из мировых языков.
В мае 2017 года Guardian выложила в общий доступ выдержки из правил модерации пользовательского контента на Facebook, которые вызвали общественный резонанс своей неоднозначностью. К примеру, за фразу «убейте уже Трампа» могут отправить в бан, а на сообщение «надеюсь, кто-нибудь тебя прикончит» никто не обратит внимание, так как оно не содержит конкретики.
Видео с насильственной смертью или издевательствами над животными просто помечаются плашкой «шокирующий контент», так как Facebook полагает, что они повышают пользовательский уровень осведомленности о проблеме.
Таким образом решается проблема с недостаточным количеством модераторов социальной сети — проверяется и удаляется только «наиболее экстремистский» контент.
Модераторы Facebook, пожелавшие остаться неизвестными, пожаловались на низкую оплату и большой уровень стресса. По их словам, на принятие решения об удалении иногда остается всего 10 секунд, а сама работа негативно отражается на психике. Сообщается, что многие модераторы, которые ежедневно отсматривают нежелательные публикации, плохо спят, им снятся кошмары, они вынуждены посещать психологов.