Недооцененная проблема
Всем хорошо известна фраза «Кто владеет информацией, тот владеет миром». Но кто сказал, что эта информация должна быть правдивой?
По итогам избрания Дональда Трампа общественное негодование вылилось на социальную сеть Facebook, которую обвинили в пособничестве республиканцу за счет распространения фейковых новостей на площадке сервиса.
Проблема с фальшивыми новостями не является новой и присущей только большой политике и глобальным угрозам. Вопрос о борьбе с фейковыми сведениями в СМИ и социальных сетях поднимается время от времени.
«Да, фальшивые новости могут оказывать огромное влияние на событие. Более того, иногда фальшивые новости о выдуманном событии сказываются на жизни простых людей, коммерческих организаций и государственных органов», — рассказал «Газете.Ru» заместитель генерального директора по работе с клиентами онлайн-сервиса «Крибрум» Борис Носов.
Ссылаясь на собственный опыт, он поделился, что финансовый сектор является одним из наиболее чувствительных к тому, насколько верят люди в тот или иной инфоповод. «Подчеркну, что я не говорю о том, насколько правдив сам инфоповод. Огромное значение имеет то, поверили ли или нет в эту новость люди на определенном этапе времени», — добавил Носов.
Facebook привлекает внимание
Главе Facebook Марку Цукербергу пришлось объясняться не только за алгоритмическую ленту, которая выстраивает для пользователей комфортную реальность, оставляя недооцененной информацию людей с противоположными взглядами, но и за распространение лживых новостей.
Отвергая столь огромное влияние на ход избрания американского президента, в Facebook все-таки признали ошибки новостного алгоритма, предназначенного для борьбы с недостоверной информацией, и пообещали исправить технические сбои, в результате которых в сети распространяются фейки.
По мнению Носова из «Крибрума», говоря о прошедших выборах в США, трудно оценить, насколько фейковые новости повлияли на исход голосования. При этом стало заметно усиление давления госсектора на Facebook.
«Регуляторы не только США, но и других стран начали совершать «нападки» в том или ином виде. Не только относительно правдивости новостей, но и, например, относительно налогов. Считаю, это
очевидное подтверждение того, что госсектор США осознает влияние и мощь социальных медиа на умы людей»,
— подчеркнул собеседник издания.
Отсеивающий алгоритм
Носов считает, что государство и компании должны в первую очередь осознать, что интернет — новая реальность, новое информационное поле, которое формирует мнения.
«Убеждения могут складываться как естественным способом (например, у меня есть чат с друзьями, где мы обсуждаем фильмы), так и искусственно.
Если окружить человека новостями, содержащими один негатив, то, вероятнее всего, он в это поверит»,
— отметил представитель «Крибрума».
Еще в 2014 году журналист Крейг Сильверман и центр цифровой журналистики при Колумбийском университете представили сервис под названием Emergent, который автоматически опровергает слухи и «утки», опубликованные в интернете.
Сайт представляет собой агрегатор, отслеживающий материалы СМИ и компонующий их по общей тематике. Система определяет источник новости по большому проценту ссылок на него, тексты, которые просто интерпретируют первоначальные данные, и опровержения. На основании этих данных Emergent присваивает им так называемый коэффициент правдивости.
Алгоритм ежечасно проверяет адреса собранных текстов на предмет изменений в их заголовках и структуре, которые могут говорить о том, что оригинальное заявление опровергнуто.
Силверман представил также результаты исследования, согласно которому
фейковые новости распространяются по социальным сетям гораздо сильнее, чем их опровержения.
В 2014 году создатели сервиса были уверены в том, что смогут переломить сложившуюся тенденцию. Но, как показали недавние события, влияние фейков только усилилось.
Правдивые друзья Google
В 2015 году Google News Lab инициировала создание First Draft Coalition, целью которой является создание удобной платформы для быстрой проверки достоверности новостей. Сама платформа для верификации запустилась в октябре 2016 года.
При этом на распространение фейков проект не оказал серьезного влияния даже с учетом вступления в коалицию Facebook и Twitter.
Сама соцсеть Цукерберга в начале 2015 года объявила о начале борьбы с распространением ложных новостей. Сервис предоставил пользователям возможность жаловаться на посты в ленте, если в них содержатся неправдивые сведения.
В августе 2016 года Facebook начал анализировать заголовки статей для борьбы с кликбейтом.
Для использования механизма применялось машинное обучение на основе нескольких тысяч таких заголовков вида: «Ты не поверишь, ЧТО устроила известная ведущая в Белом доме!» или «ВКонтакте сделал с Роналду ТАКОЕ!».
Однако алгоритмы Facebook, на которые возлагают надежды сами руководители компании, тоже не удовлетворяют пользователей и не раз становились объектом нападок журналистов.
ИИ что дальше
Руководитель направления рекомендательных продуктов компании «Яндекс» Виктор Ламбурт поделился с «Газетой.Ru» мнением, что с дальнейшим размытием понятия авторитетности СМИ проблема фейковых новостей будет только обостряться. Он выделил два компонента вопроса, решить который помог бы искусственный интеллект (ИИ).
«Первый и, на мой взгляд, самый важный — это распространение ложных новостей. Здесь искусственный интеллект безусловно может прийти на помощь. Работать он будет примерно как защита от недобросовестного SEO в поиске. «Яндекс» автоматизированно борется с такими сайтами и принимает разные меры, вплоть до исключения из поисковой выдачи», — отметил Ламбурт.
Эксперт объяснил, что ИИ может выявлять закономерности в новостях и статьях, которые распространяют ложные сведения и сомнительный контент ради кликов. «По сути, это социальная инженерия. Искусственный интеллект способен пресекать их распространение», — полагает представитель «Яндекса».
Ламбурт допускает, что такие
механизмы до сих пор не реализованы в соцсетях, потому что пользователи не задумываются об этом, пока фальсификация не влияет на важное историческое событие, например на выборы.
Спикер напомнил, что последнее исследование Stanford Graduate School of Education говорит о том, что студенты не отличают новостной контент от фальсификации.
Вторым компонентом вопроса, по словам Ламбурта, является автоматизация методик фактчекинга.
Существуют комплексные инструкции вроде The Chicago Guide to Fact-Checking. В подобных документах подробно указано, что делать, если фотография из Instagram набирает популярность: журналист должен внимательно посмотреть на профиль автора, проверить его историю постов, оценить состав друзей и т.д.
«Сегодня авторы делают это вручную, но процесс можно автоматизировать, хотя бы частично.
Искусственный интеллект, обученный на большом количестве примеров фейковых и реальных новостей и источников, сможет указывать на подозрительные документы»,
— заявил собеседник издания.
Студенты оказались быстрее
После волны критики, направленной на Facebook по итогам выборов США, Цукерберг анонсировал несколько шагов для борьбы с фейками.
Так, для дополнительного контроля компания обратится к организациям, занимающимся проверкой публикаций и заявлений на правдивость. Facebook планирует плотнее работать с журналистами, обращающими внимание на распространение фейков.
Кроме того, Facebook вслед за Google решил запретить использовать свой рекламный сервис сайтам с фейковыми новостями.
Цукерберг сказал так много решительных слов о будущих планах, а в это же время на форуме для разработчиков в Принстонском университете четыре студента справились с ложной информацией за 36 часов.