По рассказам нескольких так называемых новостных кураторов, в новостные тренды зачастую «внедряют» новости, которые не пользуются особой популярностью, а также события самого Facebook вне зависимости от того, «в тренде» они или нет.
Так, ряд источников привел конкретные примеры: в тренды ни при каких условиях не попадают статьи о мероприятиях, связанных, к примеру, с Миттом Ромни или Рэндом Полом.
Таким образом, внутри соцсети может существовать вполне традиционный новостной отдел со своей редакционной политикой, учитывающей интересы корпорации.
«Это тотальное смещение тем. Мы составляли тренды субъективно в зависимости от того, кто куратор и в какое время суток. При этом каждый раз, когда возникал новостной повод с консервативным источником, мы старались найти эту же историю с более нейтральным подходом», — рассказал еще один бывший куратор, считающий, что у соцсети существует предвзятое отношение к источникам новостей правого толка.
Но дело может касаться не только трендов, коих в русскоязычном сегменте Facebook просто нет. Один из экс-кураторов, также пожелавший остаться анонимным в разговоре с порталом Gizmodo, поделился еще одним откровением.
Если «важная» статья непопулярна, несмотря на верхние позиции в трендах, она в любом случае попадает в новостные ленты пользователей.
Используя, как выражаются сами бывшие кураторы, «инструмент для инъекции», специальные люди намеренно показывают конкретные материалы в ленту тысячей читателей, что в некоторых случаях приводит к всплеску популярности «правильных» тем.
«Была установка продвигать те истории, которые появлялись на первых страницах десяти ключевых изданий, таких как CNN, The New York Times и «Би-би-си», — рассказал один из информаторов.
Срочные новости, в свою очередь, также могут «подталкиваться» кураторами только из-за того, чтобы подогреть интерес к острым темам. Так, по словам источников, произошло с двумя новостными поводами: исчезновение самолета компании Malaysia Airlines и атака на редакцию Charlie Hebdo в Париже.
«Нам попадало за то, что что-то разлеталось по всему Twitter, но не в Facebook», — добавил один из кураторов.
Как рассказывает один из источников, еще одна функция тайного отдела соцсети заключается в том, чтобы «впрыскивать» серьезные новости, чтобы создавать ощущение того, что пользователи Facebook не сторонятся важных тем. В частности, источники приводят в пример ситуацию в Сирии и шум вокруг движения активистов #BlackLivesMatter. Примечательно, что активисты начали свою деятельность именно с сообщества Facebook и многие СМИ обращали внимание именно на мощный охват аудитории в соцсети.
Позднее после выхода материала на сайте Gizmodo вице-президент по поисковым алгоритмам в Facebook Том Стоки выступил с опровержением, подчеркнув, что в администрации соцсети очень серьезно относятся к сообщениям о предвзятости.
Стоки рассказал, что ряд тем действительно проверяется группой людей, но эта процедура касается только тех инфоповодов, которые уже попали в тренды. По словам вице-президента, действия подобных рецензентов фиксируются и проверяются, а серьезный просчет ведет к немедленному увольнению.
«Наши методы являются нейтральными и эффективными, насколько это возможно», — добавил Стоки.
Главный аналитик Российской ассоциации электронных коммуникаций Карен Казарян в разговоре с «Газетой.Ru» отметил, что публикация Gizmodo «отдает обычной конспирологией, очень любимой американскими консерваторами».
«Я думаю, что Facebook использует множество различных сигналов, в том числе от самих пользователей, и эффект filter bubble очень даже возможен — то есть такая ситуация, когда пользователь действительно не будет видеть публикации от стороны с другой точкой зрения, — потому что так сработали алгоритмы», — добавил Казарян.
Понятие filter bubble, или «пузырь фильтров», было разработано интернет-активистом Илаем Парайзером и основывается на том, что алгоритмы (такие как у Google и Facebook) учитывают прошлую активность пользователя и выдают информацию на основе его предпочтений, что в свою очередь ведет к обеднению новостной ленты. Другими словами, чем ближе новостная лента соцсети к предпочтениям читателя, тем меньше противоположных точек зрения он встретит.
Парайзер обвинял Facebook и Google в том, что персонализированные алгоритмы приносят потенциальный вред личности, поскольку преграждают путь к новым знаниям, идеям и важной информации, не всегда сочетающейся с личными предпочтениями.
В одноименной книге Парайзер также говорит о том, что «эффект информационного пузыря» мешает формированию гражданского мнения и со временем делает людей уязвимыми к «пропаганде и манипуляциям».