Ученые из Принстонского университета выяснили, что системы искусственного интеллекта могут демонстрировать признаки расизма. В рамках исследования имена белых людей робот маркировал как «приятные», а популярные среди афроамериканцев имена относил к категории «неприятных» слов. Кратко о работе сообщает RNS.
В исследовании использовалась система самообучаемого искусственного интеллекта GloVe. Она развивается при помощи анализа сетевых текстов и отмечает семантическую связь между словами. В задании на ассоциации система должна была подобрать слову типа «цветок» или «насекомое» другие слова, которые специалисты определили как «приятные» и «неприятные», например, «семья» или «авария».
Когда ученые предложили GloVe список имен, которыми чаще называют белых людей, интеллект определил их как «приятные», а имена афроамериканцев он отнес к категории «неприятных» слов. «Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», — заключают исследователи.