Название для этого явления, в котором отдельные суждения могут быть объединены для получения удивительно точных результатов, было придумано журналистом Джеймсом Шуровьески, - и это «мудрость толпы».
Казалось бы, причем тут фактчекинг? Но есть гипотеза, что именно в этом феномене кроется один из возможных ответов на вопрос, как бороться с дезинформацией в Meta (Facebook) и Twitter. Очевидно, ИИ с этой задачей пока справляется неидеально, а фактчекинг в соцсетях человеческими ресурсами, кажется, невозможен в принципе из-за гигантского массива информации и нежелания ИТ-гигантов тратить на это слишком много денег.
Партнеры Facebook по фактчекингу, работающие на аутсорсе, держат в штате горстку людей (например, на 6 партнеров в США приходится всего 26 сотрудников по данным отчета за 2020 год, хотя сегодня их число, вероятно, больше), которые должны пытаться отслеживать контент более 2 миллиардов человек.
Только вдумайтесь: с начала пандемии и до апреля 2021 года Facebook и Instagram пометил 167 миллионов сообщений подозрительными и требующие проверки на достоверность.
Как всего 2,5 десятка человек могут обработать такой массив данных?
Разумеется, эксперты, которые обучены тщательно исследовать контент и маркировать достоверность, могут проверять лишь его небольшую часть. Facebook дополнительно использует автоматизированные системы для пометки материалов, похожих на фейки и выявленных при фактчекинге, но даже самая оптимистичная оценка пропускной способности этой системы по-прежнему невысока: без проверки остается огромное количество потенциально вводящего в заблуждение контента.
Исследования неизменно показывают, что исправления, вносимые специалистами по фактчекингу, уменьшают степень веры пользователей в дезинформацию и снижают вероятность ее распространения среди людей.
Размеченный контент можно понизить в ленте новостей, что в первую очередь уменьшит количество людей, которые его видят. Но на такой огромной платформе, как Facebook, использование профессиональных фактчекеров похоже на включение воды из крана на пожаре: идея правильная, да масштаб не тот. Плюс нельзя игнорировать возможность политической предвзятости фирм, занимающихся проверкой фактов.
Например, есть среди подрядчиков у Facebook StopFake – украинская организация, которую обвиняли в «дружбе» с ультраправыми деятелями. Можно предположить, что её вердикты могут быть, мягко говоря, несколько необъективны.
А что, если решение проблемы кроется не в специалистах, а в обычных людях?
Технологические компании решили взять это за гипотезу и начали делать ставку на мудрость толпы. И Facebook, и Twitter запустили краудсорсинговые продукты для фактчекинга, надеясь использовать феномен, который Гальтон обнаружил на ярмарке больше ста лет назад.
Вопрос в том, сработает ли эта история для проверки фактов. Ведь люди скептически относятся к самой концепции мудрости толпы (и на мой взгляд делают это вполне справедливо). Да и цифровая грамотность большинства пользователей - их способность просеивать информацию и вычленять реальные факты из постоянно растущего массива цифровых источников, - все еще недостаточно высока.
А такие темы, как политика, наука, здравоохранение, могут быть неоднозначными и весьма поляризованными.
Тем не менее, новое исследование показывает, что обычные люди действительно могут работать вместе, чтобы отделить факты от вымысла. Авторы в недавней статье, опубликованной в Science Advances, обнаружили, что при оценке правдивости заголовков рейтинги небольшой, политически сбалансированной группы непрофессионалов полностью соответствовали рейтингам профессиональных фактчекеров.
Работа толпы была еще более заметной потому что, в отличие от профессионалов, которых просили тщательно исследовать каждое утверждение, толпе показывали только заголовок и основные предложения статьи, а затем просили дать оценку без проведения сторонних исследований. У непрофессионалов был менее интенсивный процесс оценивания, но ответы близко соответствовали результатам фактчекинга - при гораздо меньших затратах и более высокой скорости.
Вот как работало исследование: сначала отобрали статьи, которые алгоритм Facebook пометил для фактчекинга либо потому, что они потенциально вводили в заблуждение, становились вирусными, либо потому, что они просто касались важных тем, таких как политика или здоровье. Затем трем профессионалам поручили изучить и оценить достоверность статей по шкале от одного до семи. В то же время группу обычных людей на веб-сайте Amazon Mechanical Turk попросили оценить точность только заголовка и первого абзаца, аккумулирующего суть этих статей, не проводя дополнительных исследований.
Мудрость толпы сработала очень хорошо.
В среднем им требовалось всего 30 секунд, чтобы оценить каждый заголовок, и им платили около 10 долларов в час. В итоге процесс фактчекинга обходился в стоимость менее доллара на заголовок.
Так что, видимо, краудсорсинг все-таки перспективен, но, конечно, проводить его нужно осторожно. Он может открыть дверь для людей, активно ищущих информацию, с которой они не согласны, и помечающих её как «фейковые новости». Например, анализ пилотной программы проверки фактов «BirdWatch», проводимой Twitter, показал, что если разделить пользователей на группы, то участники одной стороны с гораздо большей вероятностью отмечают контент другой стороны как вводящий в заблуждение.
Есть еще много вопросов, которые нужно изучить, прежде чем общество признает краудсорсинговый фактчекинг безоговорочно успешным.
И, конечно, нельзя, чтобы подобные платформы просто заменили фактчекеров.
Мне видится работающей система, которая объединяет коллективный разум, государственные меры и сознательность СМИ и ИТ-площадок, которые постоянно повышают качество своей проверки фактов. В России уже сделан первый шаг в эту сторону: отрасль и медиахолдинги подписали Антифейк-меморандум, который планирует выработать общие правила фактчекинга.
Важно понимать, что и это не панацея, нужны и другие решения для ограничения распространения дезинформации. Например, беспрерывная работа по повышению цифровой грамотности пользователей и, конечно, выработка у каждого пользователя ответственного отношения к своему онлайн-поведению.
Автор — руководитель рабочей группы Общественной палаты РФ по противодействию распространению недостоверной информации, общественному контролю и безопасности сети «Интернет»