Нейросеть DALL-E от компании OpenAI, за последнее время вызвавшая немало шума из-за своей способности генерировать причудливые фотореалистические изображения на основе текстовых запросов, после недавнего изменения политики использования результатов моделирования ИИ разрешила обмениваться сгенерированными изображениями фотореалистичных человеческих лиц, принадлежащих несуществующим людям, пишет издание Vice.com.
Согласно электронному письму, разосланному тестировщикам DALL-E, пользователям теперь разрешено делиться реалистичными «фотографиями» лиц, созданными системой. «Это совмещено с дополнительными мерами безопасности, призванными свести к минимуму риск использования DALL·E для создания вводящего в заблуждение контента», — говорится в разосланном сообщении. В частности, система теперь автоматически «отвергает попытки создать подобие каких-либо общественных деятелей, в том числе знаменитостей», а также блокирует загрузку пользователями изображений человеческих лиц на сайт. Ранее средства защиты системы не позволяли пользователям создавать изображения только политических деятелей.
Исследователи уже начали делиться некоторыми примерами работ системы, и результаты получаются довольно необычными. Собственные исследования OpenAI уже пришли к выводу, что DALL-E часто воспроизводит расистские и сексистские стереотипы, когда в текстовые подсказки включаются определенные слова. Излишне говорить о том, что способность создавать фотореалистичные человеческие лица поднимает всевозможные непростые этические вопросы, даже если «фотографии» и не принадлежат реальным людям.
DALL-E все еще находится в стадии закрытого тестирования, и OpenAI обычно тщательно скрывает, какие типы сгенерированных результатов тестировщики могут публиковать. Между тем более мелкие волонтерские проекты, такие как DALL-E Mini, уже предоставили широкой публике возможность создавать изображения и мемы, сгенерированные искусственным интеллектом из текстовых подсказок, хотя и с гораздо более скромным качеством результатов.