Группа американских ученых-информатиков из Стэнфордского и Чикагского университетов выяснила, что десятки популярных моделей искусственного интеллекта (ИИ) продолжают оперировать расистскими стереотипами даже после их переобучения. Исследование опубликовано на портале научных материалов arXiv.
В число склонных к расистским суждениям ИИ вошли популярные ИИ-модели GPT-3,5 и GPT-4, лежащие в основе чат-бота ChatGPT от компании OpenAI.
Неофициальные данные свидетельствуют, что многие из самых востребованных сегодня нейросетей могут предлагать расистские ответы в ответ на вопросы, иногда открыто, а иногда и тайно. Создатели ИИ-моделей пытаются бороться с такой предвзятостью, корректируя алгоритмы так, чтобы чат-боты не дискриминировали людей на основании их расы.
Исследователи обучали чат-ботов с искусственным интеллектом работе с текстовыми документами, написанными в стиле афроамериканского английского, и предлагали ИИ оставлять комментарии относительно авторов текстов. Затем они проделали то же самое с текстовыми документами, написанными в стиле стандартного американского английского. Затем они сравнили отзывы на оба типа файлов.
Практически все чат-боты выдали результаты, которые, по мнению исследователей, подтверждают негативные стереотипы. В качестве примера GPT-4 предполагает, что авторы статей, написанных на афроамериканском английском, скорее всего, будут агрессивными, грубыми, невежественными и подозрительными. Авторы статей, написанных на стандартном американском английском, напротив, получили гораздо более положительные результаты.
Ученые также обнаружили, что те же самые ИИ были гораздо более позитивными, когда их просили охарактеризовать афроамериканцев в целом. Нейросети называли чернокожих людей умными, блестящими и страстными.
Но когда у ИИ спросили, каким видом работы авторы статей на афроамериканской версии английского могли бы зарабатывать на жизнь, чат-боты предположили, что создатели этих публикаций должны заниматься физическим трудом или спортом. Искусственный интеллект также заявил, что авторов будут чаще привлекать к ответственности за различные преступления и приговаривать к высшей мере наказания.
Ранее в расизме заподозрили компанию Google.