Вирус ненависти: почему пользователи становятся хейтерами

Западные корпорации приносят в жертву безопасность пользователей ради своей выгоды

Soeren Stache/dpa-Zentralbild/Global Look Press
На первый взгляд, массовая неудовлетворенность подростков своим внешним видом не имеет ничего общего с глубокой поляризацией мнений и распространением дезинформации, которые вызывают все большее беспокойство у пользователей и правительств по всему миру. Однако показания бывшей сотрудницы Facebook Фрэнсис Хауген говорят о том, что все эти явления тесно связаны. Ведь каждое из них – это симптом непрозрачных действий алгоритмов социальных сетей.

Выступая перед Сенатом США, Хауген заявила, что «алгоритмы усиления» и «ранжирование на основе вовлеченности» Facebook (часть алгоритма, которая продвигает посты, которые получают наибольшее количество лайков, репостов и подписок) показывают пользователям, в том числе детям, деструктивный онлайн-контент.

Он способен привести к таким психологическим проблемам, как депрессия и телесная дисморфофобия, то есть недовольство своим телом без объективных причин, на основе сравнения с идеальными моделями, которых показывают алгоритмы.

Но это не все: рекомендации соцсетей подталкивают пользователей к агрессии, которая способна перерасти в кибербуллинг.

Хотя бигтех не раскрывает, как именно работают его алгоритмы, один важный принцип очевиден: механизмы «поощряют» сообщения, которые вызывают наиболее сильные эмоциональные реакции, такие как гнев, ярость или страх.

Причина проста и экзистенциальна. Алгоритм изначально был разработан для того, чтобы пользователи оставались на платформе как можно дольше, независимо от того, что она заставляет их чувствовать или что она заставляет их думать.

Западные компании, особенно корпорация господина Цукерберга, с самого своего основания делают ставку на рост, виральность и реактивный подход к решению проблем, а не на общественную безопасность. Именно поэтому соцсети не просто не препятствуют распространению ненавистнического контента и кибербуллингу, но сами провоцируют пользователей на него.

Госпожа Хауген утверждает, что Facebook отчетливо понимал сложившуюся ситуацию, но не пытался её изменить: так, рабочая группа «Civic Integrity», занимавшаяся решением этого вопроса, была распущена вскоре после прошлогодних американских выборов, что позволило экстремизму и дальше процветать на платформе.

Мы все помним, чем это закончилось – штурмом Капитолия 6 января 2021 года.

Бить тревогу по этому вопросу начали не год, и не два назад. Еще в 2018 году исследования, проведенные в Германии после инцидентов, связанных с насилием в отношении мигрантов, показали, что информационные страницы в соцсетях сами по себе не работают на рост агрессии.

Все зависит от того, как их продвигает алгоритм площадки. Стоит пользователю попасть на страницу, скажем, радикалов, даже если он зашел туда по ошибке, как используемые Facebook и YouTube алгоритмы тут же начинают его преследовать, предлагая похожий ненавистнический контент. Результат закономерный: те пользователи, постоянно видели посты, где выражалась ненависть по отношению к мигрантам, более радикальны.

Считая, что контент, который предлагается им в ленте, представляет собой точку зрения большинства в их городе, эти люди стали более жесткими в своих взглядах. Жители, менее вовлеченные в социальные сети, сохранили умеренное или доброжелательное отношение к мигрантам.

Показательный эксперимент в этом году провела журналистка британского «Би-Би-Си». Девушка регулярно получала оскорбления и угрозы по поводу своей деятельности и решила изучить, что именно побуждает её обидчиков проявлять агрессию. Для этого она создала несколько фейковых профилей под именем Барри в пяти социальных сетях и лайкнула несколько публикаций: по задумке её персонаж проявил внимание к антипрививочному и женоненавистническому контенту, а также теориям заговора.

Прошла всего неделя, и почти все рекомендуемые Барри страницы в Facebook и Instagram стали женоненавистническими. Среди них попадались и совсем радикальные публикации. Если бы Барри был реальным пользователем, он в течение всего пары недель оказался бы окруженным контентом, побуждающим к травле, оскорблениям и угрозам в отношении женщин. В Twitter и YouTube подобных рекомендаций было кратно меньше, но, возможно, их алгоритмы действуют не настолько молниеносно и беспощадно.

Проблема непрозрачности работы алгоритмов, которые, видимо, уже неподконтрольны даже своим разработчикам, не вызывает сомнений.

Именно поэтому я неоднократно призывал к их регулированию. Мы совместно с коллегами по думскому комитету разрабатываем специальный законопроект, который должен помочь защитить российских пользователей от этой цифровой угрозы. Прежде всего, на каждой платформе необходима возможность отключения рекомендательных алгоритмов. А тем, кому нравится получать предложения по контенту от соцсети, нужно понимать, как именно они составляются.

Именно по этой причине за работой рекомендательных алгоритмов обязательно должен быть установлен общественный контроль. Только так мы сможем отследить, что они работают во благо, а не во вред, способствуют обогащению виртуальной жизни пользователя, а не подталкивают его к агрессии и радикальным взглядам и мнениям.
 
Автор – заместитель председателя комитета Государственной думы по информационной политике, информационным технологиям и связи.