Группа американских специалистов из Чикагского университета разработала программный инструмент Nightshade, предназначенный для защиты оригинальных произведений художников от копирования с помощью искусственного интеллекта (ИИ). Об этом сообщает портал Techcrunch.
Nightshade изменяет изображения с помощью метода, названного «затенением». Он меняет данные файла таким образом, что обучившаяся на «затененном» примере нейросеть уже не может воспроизвести исходник. Глава проекта Nightshade профессор Бен Чжао сравнил свою разработку с добавлением острого соуса в свой обед, чтобы его не украли из холодильника в офисе.
Nightshade нацелен на ассоциации между текстовыми подсказками, тонко редактировать пиксели в изображениях, чтобы заставить ИИ-модели интерпретировать совершенно другой образ, чем то, что увидит человек-зритель.
Модели будут неправильно классифицировать особенности «затененных» файлов и, если они обучены на достаточном количестве видоизмененных данных, начнут генерировать графику, не отвечающую запросам. Чтобы испортить результат стабильной диффузии (методе генерации ИИ-изображений), нужно менее 100 «отравленных» с помощью Nightshade образцов.
«Управляя этой ассоциацией и эффективно искажая ее, вы можете заставить модели думать, что у коров четыре круглых колеса, бампер и багажник. И когда им предложат нарисовать корову, они вместо коровы произведут большой грузовик Ford», — объяснил профессор Чжао.
Авторы инновации утверждают, что не пытаются таким образом разрушить бизнес на основе генеративного ИИ, а лишь хотят, чтобы владельцы моделей не пользовались работами художниками безвозмездно для обучения своих нейросетей.
Ранее стало известно о том, что Google разрабатывает ИИ-генератор видеороликов.