Так, нежелательный контент, подобранный искусственным интеллектом, составил 71% от общего количества просмотренных участниками эксперимента видео, сообщает The Wall Street Journal.
В рамках исследования волонтеры установили на свои браузеры специальное расширение, с помощью которого сообщали о противоправном контенте.
Также дополнение отслеживало, было ли видео предложено алгоритмами или найдено пользователем самостоятельно.
За 10 месяцев эксперимента, закончившегося в мае 2021 года, 37 тысяч добровольцев из 91 страны отметили более 3 тысяч роликов, содержащих фейки о политических процессах и пандемии COVID-19, ненавистнические высказывания или материалы сексуального характера.
Модераторы YouTube заблокировали лишь 200 из них, хотя и эти видео на момент удаления успели набрать уже 160 млн просмотров.
Представитель видеохостинга заявил, что онлайн-платформа снизила выдачу противоправного контента рекомендательными алгоритмами менее чем до 1%.
Он отметил, что за последний год было внесено 30 изменений, направленных на решение этой проблемы.
«Врождённое противоречие»
Отдел по кибербезопасности компании также сообщил, что ее автоматизированная система теперь обнаруживает 94% видео, нарушающих внутренние правила, и удаляет большинство из них до того, как они наберут 10 просмотров.
Эксперты считают, что результаты исследования демонстрируют «врожденное противоречие» между алгоритмами YouTube, одни из которых рекомендуют нежелательные видео, а другие пытаются их удалить.
При этом сама площадка отказывается раскрывать информацию о том, как работает ее рекомендательные сервисы.
Видеосервис уже много лет борется с проблемой распространения запрещенных материалов, в том числе и среди детей.
Так, в прошлом году модераторам пришлось массово блокировать каналы, посвященные теориям заговора.
Однако YouTube, также как Facebook и Twitter, не справляется с потоком деструктивного контента.
Из-за этого цифровые площадки по всему миру сталкиваются с ужесточением государственного регулирования, требующего от них более ответственного подхода к самоконтролю.
Российские эксперты также указывают на проблему непрозрачной работы рекомендательных алгоритмов крупных онлайн-платформ.
Госдума РФ планирует рассмотреть возможность предоставить пользователям право отключать рекомендательный алгоритм, формирующий ленту.
Как сообщил в своем Telegram-канале член Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин, сейчас рекомендательные алгоритмы можно отключить только в отечественной «ВКонтакте».
«В Facebook формально такая настройка есть, но она не работает по-настоящему.
У других просто без вариантов: ешь, что дает алгоритм. Особенно это заметно на фоне происходящих изменений в Instagram, который официально объявил на днях, что «в вашей ленте теперь будут появляться посты от других пользователей, на которых вы не подписаны.
Мы, в России, за право выбора.
Поэтому у рекомендательных алгоритмов должен быть выключатель, доступный каждому», – подчеркнул он.