Нейросети научились распознавать сарказм и иронию

CS: системы искусственного интеллекта стали лучше понимать контекст информации

Посетитель и робот на Петербургском международном экономическом форуме в Санкт-Петербурге, 15 июня 2022 года Максим Шеметов/Reuters

Американские исследователи из Нью-Йоркского университета научили нейросети на основе больших языковых моделей (LLM) распознавать сарказм и иронию в созданных людьми текстах. Исследование опубликовано в научном журнале Computer Science (CS).

В настоящее время существует несколько LLM-моделей, которые могут обрабатывать тексты и предсказывать их основной эмоциональный тон. Иными словами, выражают ли они положительные, отрицательные или нейтральные эмоции. Однако многие обзоры и комментарии, размещенные в интернете, содержат иронию и сарказм, что может заставить нейросети классифицировать их как «положительные», хотя на самом деле они транслируют отрицательные эмоции, или наоборот.

Ученые определили функции и алгоритмические компоненты, которые помогают искусственному интеллекту (ИИ) понимать истинный смысл сказанного. Затем они проверили свои наработке на LLM-моделях RoBERTa и CASCADE, проанализировав с их помощью комментариев на онлайн-форуме Reddit.

Исследователи выяснили, что нейросети научились распознавать сарказм почти также хорошо, как это делает средний пользователь.

Результаты работы могут стать основой для дальнейших изысканий и привести к созданию инструментов для быстрого анализа онлайн-обзоров, публикаций и другого пользовательского контента.

Ранее ученые создали ИИ, которые может взламывать этическую защиту других нейросетей и заставлять их создавать запрещенный и противоправный контент.