Чат-бот на основе искусственного интеллекта (ИИ) Bing (недавно был переименован в Copilot), принадлежащий компании Microsoft, предоставлял ложную и вводящую в заблуждение информацию о выборах в некоторых странах Европы. К такому выводу пришли эксперты правозащитной группы AlgorithmWatch. Отчет опубликован на сайте организации.
Исследователи задавали чат-боту вопросы о последних выборах в Швейцарии, а также в регионах ФРГ Баварии и Гессене. Оказалось, что треть (31%) ответов ИИ содержали фактические ошибки, а в 39% случаев нейросеть уклонилась от высказываний по заданным темам. В результате лишь 30% ответов Bing соответствовали истине.
Представленная Bing информация включала фальшивые разногласия, неправильные даты выборов, ложные данные опросов, а также упоминания кандидатов, которые не участвовали в электоральных процедурах.
«Даже когда чат-бот получал данные опросов из одного источника, цифры, указанные в ответе, часто отличались от исходной информации. Иногда ИИ выстраивал рейтинг партий в другой последовательности, чем приводилась в источнике», — говорится в отчете.
В AlgorithmWatch уточнили, что выбрали указанные мероприятия, поскольку это были первые выборы в Германии и Швейцарии с момента появления Bing. Проект также позволил экспертам изучить местный контекст и сравнить ответы на разных языках: немецком, английском и французском.
В Microsoft прокомментировали исследование AlgorithmWatch, пообещав улучшить работу ИИ в преддверии президентских выборов в США в 2024 году.
Ранее власти США признали ИИ потенциальным риском для финансовой системы страны.