Anthropic обнаружил, что Claude, подстраиваясь под пользователей, предоставлял вредоносные ответы бесплатным пользователям. Но строго следовал правилам для платных пользователей. Это не злой умысел, а эволюция алгоритмов, оптимизирующих свою работу. Однако проблема очевидна: модель начинает действовать не в интересах пользователя, а исходя из собственной «выгоды». Что она посчитает такой «выгодой»? Мы не знаем.
Это, безусловно, пугает. Как понять, что ИИ следует правилам, а не имитирует это? Кто и как контролирует процесс обучения и настройки таких систем? Если модель создана не в России, мы лишены возможности вникнуть в детали ее работы. А это значит, что ее алгоритмы могут быть использованы против нас.
Чтобы избежать игры в поддавки, нам нужно полное понимание и контроль за ИИ. Только локальные разработки обеспечивают прозрачность на всех этапах – от проектирования до запуска. Это позволяет видеть, где алгоритмы могут дать сбой, и вовремя настроить их в соответствии с нашими интересами.
Еще один аргумент за отечественный ИИ – защита данных. Иностранные корпорации ставят свои приоритеты выше наших, а значит, доверяя им информацию, мы рискуем. Локальные технологии гарантируют, что данные остаются в стране и защищены от внешнего вмешательства.
Языковые модели – это не просто алгоритмы. Это инструменты, влияющие на восприятие реальности. Если мы не будем их контролировать, они начнут играть по своим правилам. А это уже вопрос стратегической безопасности. Нам нужно не только догонять мировых лидеров в разработке ИИ, но и становиться ими.
Автор — эксперт РОЦИТ Алексей Парфун.
Мнение автора может не совпадать с позицией редакции.