Равнодушие ИТ-гигантов к происходящему за пределами США приводит к тому, что на их площадках процветают кибербуллинг и призывы к насилию, которые в результате могут перерасти в жестокую травлю целого народа. Причем не гипотетически: вина крупнейшей соцсети Facebook в разжигании ненависти к мусульманам-рохинджа в Мьянме уже доказана.
В августе 2017 года более 730 000 мусульман рохинджа бежали из мьянманского штата Ракхайн, спасаясь от военных репрессий, которые, по словам беженцев, включали массовые убийства и изнасилования. В ООН считают, что ключевую роль в распространении ненавистнических высказываний, которые подстрекали к физическому уничтожению рохинджа, сыграл Facebook, - и на это есть веские основания.
Собственные сотрудники и общественные деятели неоднократно предупреждали ИТ-гиганта о характере высказываний мьянманских радикалов в сети и опасности, которую они представляли в виду сложной межэтнической обстановки в стране.
Например, австралийский режиссер Эла Кэллан поднимала этот вопрос на встрече с топ-менеджером Facebook еще в 2013 году. В следующем году докторант Мэтт Шисслер также общался с сотрудниками компании по этому поводу, в 2015-м предприниматель Дэвид Мэдден рассказал руководству соцсети о разжигании ненависти в Мьянме. Однако руководство ИТ-гиганта проигнорировало все предостережения, что привело к ужасным последствиям.
Расследование Reuters выявило более 1000 примеров негативных высказываний на платформе, учитывая оскорбления в адрес рохинджа и других мусульман. Их называли собаками, личинками и насильниками, предлагали скормить свиньям, расстрелять и уничтожить.
Спустя год после страшных событий Facebook признала вину в том, что «слишком медленно предотвращала распространение дезинформации и подстрекательств в Мьянме».
Однако одними извинениями компании Цукерберга ограничиться не выйдет. История получила продолжение в 2019 году, когда Гамбия подала иск в Международный суд ООН против Мьянмы, обвинив ее в нарушении Конвенции о предупреждении преступления геноцида и наказании за него. В январе 2020 года Международный суд удовлетворил запрос африканского государства о временных мерах, предписав Мьянме предотвратить акты геноцида против мусульман рохинджа.
В июне 2020 года Гамбия подала заявление в окружной суд США по округу Колумбия, пытаясь заставить Facebook раскрыть информацию, поступавшую с личных аккаунтов официальных лиц Мьянмы. ИТ-гигант отказался передать нужные данные, ссылаясь на защиту конфиденциальности пользователей, но суд в Вашингтоне с ним не согласился и в сентябре 2021 года обязал Facebook предоставить записи пользователей, связанные с произошедшими трагическими событиями.
В понедельник, 6 декабря, стало известно, что юридические компании Edelson и Fields, представляющие интересы мусульман-рохинджа, подали на Meta Platforms в суд, требуя компенсацию в 150 миллиардов долларов за разжигание ненависти в отношении рохинджа.
Несмотря на то, что в 2018 году Facebook публично признал свою вину за подстрекательство к геноциду в Мьянме, на политику модерации соцсети это не сильно повлияло.
Информация, предоставленная бывшей сотрудницей Facebook Фрэнсис Хауген, дает основание полагать, что ИТ-гигант не инвестировал средства в защиту своих пользователей.
84% бюджета, выделенного на борьбу с дезинформацией и ненавистью, все еще направляются на модерацию контента в США, хотя американцы составляют менее 10% аудитории социальной сети. Всему остальному миру – в том числе странам с нестабильной политической обстановкой - досталось всего 16% средств на модерацию.
Результаты подобного распределения не заставляют себя ждать – жуткая ситуация 2017-го в Мьянме повторяется уже в другой стране.
Согласно недавнему расследованию WSJ, в 2020-м году в Эфиопии радикально настроенные группы использовали Facebook для подстрекательства к насилию в отношении народа тиграи, ставшего жертвой этнической чистки. Этот контент просочился в сеть из-за отсутствия модераторов, говорящих на местных языках и наречиях. Компания также не перевела свои правила сообщества на языки, используемые в Эфиопии.
Документы, которые бывшая сотрудница Facebook Фрэнсис Хауген обнародовала с помощью ряда американских СМИ, доказывают, что автоматические алгоритмы социальной сети не в состоянии справиться с вредоносным контентом. ИТ-гигант нуждается в модераторах-людях, которые будут сидеть в представительствах компании в каждой стране, где он работает, будут знать местные языки и их наречия, а также будут обладать пониманием культуры тех стран, с контентом которых они работают.
Однако Цукерберг не спешит увеличивать ресурсы на модерацию за пределами США, а это значит, что нас ждут новые печальные события.
Автор — член Общественной палаты Российской Федерации, первый заместитель директора Института стратегических исследований и прогнозов (ИСИП) РУДН