Американские исследователи из Нью-Йоркского университета научили нейросети на основе больших языковых моделей (LLM) распознавать сарказм и иронию в созданных людьми текстах. Исследование опубликовано в научном журнале Computer Science (CS).
В настоящее время существует несколько LLM-моделей, которые могут обрабатывать тексты и предсказывать их основной эмоциональный тон. Иными словами, выражают ли они положительные, отрицательные или нейтральные эмоции. Однако многие обзоры и комментарии, размещенные в интернете, содержат иронию и сарказм, что может заставить нейросети классифицировать их как «положительные», хотя на самом деле они транслируют отрицательные эмоции, или наоборот.
Ученые определили функции и алгоритмические компоненты, которые помогают искусственному интеллекту (ИИ) понимать истинный смысл сказанного. Затем они проверили свои наработке на LLM-моделях RoBERTa и CASCADE, проанализировав с их помощью комментариев на онлайн-форуме Reddit.
Исследователи выяснили, что нейросети научились распознавать сарказм почти также хорошо, как это делает средний пользователь.
Результаты работы могут стать основой для дальнейших изысканий и привести к созданию инструментов для быстрого анализа онлайн-обзоров, публикаций и другого пользовательского контента.
Ранее ученые создали ИИ, которые может взламывать этическую защиту других нейросетей и заставлять их создавать запрещенный и противоправный контент.