Мобильное приложение DeepNude стало знаменитым на весь мир в течение одного дня, когда портал Motherboard опубликовал материал о программе, которая с помощью нейросетей может «раздеть» любую женщину на фотографии — искусственный интеллект сам удаляет одежду и дорисовывает голое тело на основе большого количества загруженных в систему снимков.
Сообщалось, что разработчики DeepNude в перспективе обещали «раздевать» и мужчин, но так как фотографий обнаженных женщин в интернете гораздо больше, то этот функционал пока остался недоступным.
В то время как Motherboard осудил создателей приложения, оно моментально стало вирусным, так как пользователи начали массово проверять возможности DeepNude.
Разработчики не смогли справиться с наплывом трафика и временно отключили приложение, пообещав «усилить» сервера и вновь вернуться онлайн.
Тем не менее, вечером в этот же день стало известно о том, что временное отключение станет постоянным. Создатели приложения сообщили о том, что не рассчитывали на такой поток трафика, из-за чего «вероятность злоупотребления приложением резко увеличилась».
«Мы не хотим зарабатывать таким образом», — заявили создатели DeepNude, добавив, что не будут выпускать новых версий. В конце своего послания разработчики заявили о том, что мир «еще не готов» к их приложению.
Несмотря на такое «благородство», проявленное разработчиками, трудно представить мир, который будет готовым к технологии, «раздевающей» любую женщину. Этот инструмент идеально подходит для так называемой «порномести», когда, например, бывшие любовники пытаются навредить друг другу, отправляя их интимные фото онлайн и размещая их в общем доступе.
Учитывая, что нейросети продвинулись настолько далеко, настоящие снимки уже даже не нужны — достаточно одного клика мышки, и компрометирующее фото готово.
Впрочем, как утверждает один из разработчиков DeepNude по имени Альберто: «Я не вуайерист, я техноэнтузиаст». По его словам, он использовал для своего приложения алгоритм Pix2Pix, находящийся в открытом доступе. Pix2Pix позволяет осуществлять так называемый перевод «с картинки на картинку», когда одно изображение подменяется другим.
«Мы видели замечательные способы использования нашей работы врачами, художниками, картографами, музыкантами и многими другим», — рассказал в электронном письме Business Insider профессор Массачусетского технологического института Филипп Изола, который помогал в создании Pix2Pix.
«Мы, как научное сообщество, должны обсудить вопрос о том, как лучше продвигать нашу область вперед, в то же время внедряя разумные меры предосторожности, чтобы гарантировать выгоду от положительных сценариев использования и предотвращать злоупотребления», — заявил профессор.
DeepNude является еще одним примером использования современных технологий для создания натуралистичных фейков, которые получили название «deepfakes». Как правило это видеоролики, которые очень похожи на настоящие, но на самом деле являются сфабрикованным продуктом. В прошлом году на deepfakes обратили внимание в связи с появлением большого количество фейковых порнороликов с участием знаменитостей.
Звезды и публичные лица становятся основной целью для создателей таких видео, так как в открытом доступе можно найти большое количество их фотографий. Чем больше материала для обучения получает нейросеть, тем реалистичнее получается продукт на выходе.
Один из популяризаторов этой технологии, опубликовавший порноролик с участием голливудской актрисы Галь Гадот, не считает, что deepfakes несут в себе серьезную опасность.
«Каждую технологию можно использовать во вред, и с этим ничего нельзя поделать. Главное в этом алгоритме — простота его использования. Не вижу ничего плохого в том, что с его помощью еще больше людей заинтересуются машинным обучением», — заявил программист.
Эксперт в области ИИ и автор книги «Искусственный интеллект в компьютерных играх» Алекс Шампандар рассказал, что с помощью продвинутой видеокарты эффекта deepfakes можно добиться всего за несколько часов.
С этической точки зрения последствия этой технологии могут быть катастрофичными, считает Шампандар. По его мнению, через несколько месяцев эта технология может настолько усовершенствоваться, что человеческий глаз не заметит разницы между оригиналом и подделкой.
Кроме того, порноролики со звездами — лишь одна из областей применения нейросетей.
Сфабрикованные видео можно использовать для шантажа и введения в заблуждение большого количества людей. Потенциал использования злоумышленниками deepfakes в политике и сфере безопасности бесконечен — одного фейкового ролика с главой государства, который говорит то, что никогда бы не сказал в реальной жизни, хватит на то, чтобы дестабилизировать ситуацию в целой стране или даже регионе.