Немецкие ученые из Мангеймского университета и Института социальных наук Лейбница пришли к выводу, что ChatGPT и другие системы искусственного интеллекта (ИИ) на основе больших языковых моделей проявляют свойства личности, которые можно определить с помощью психологических тестов. Исследование опубликовано в научном журнале Perspectives on Psychoological Science (PPS).
Специалисты использовали общепризнанные методы оценки личностных качеств, применяемые для изучения характеров людей.
Эксперименты показали, что некоторые ИИ-модели оказались склонны воспроизводить гендерные стереотипы. Например, при заполнении специальных опросников для определения главных ценностей нейросеть выбирала вариант «достижения и заслуги», если текст анкеты был ориентирован на мужчину. В «женском» варианте теста ИИ в качестве основных благ указывал «безопасность» и «традиции».
По словам исследователей, это говорит о том, что нейросети пока нельзя считать беспристрастной стороной и доверять ее выводам по некоторым вопросам.
«Это может иметь далеко идущие последствия для общества. Например, языковые модели все чаще используются в прикладных процессах. Если машина предвзята, это влияет на оценку кандидатов», — отметил один из авторов научной работы, специалист по данным и когнитивистике (изучению познания) Макс Пеллерт.
Ранее выяснилось, что нейросети склонны принимать теории заговора за достоверные факты.