Facebook удалил дипфейк-видео президента Украины Владимира Зеленского, в котором он призвал украинцев «сложить оружие», пишет портал TheVerge.
Ролик был не самого высокого качества (размер головы не соответствовал телу, а голос отличался от оригинала). Однако существуют дипфейки, которые способны ввести в заблуждение самого внимательного пользователя. Такие видео могут использоваться в мошеннических схемах или в качестве мести.
Например, в марте 2021 года женщина из США использовала технологию deepfake, чтобы подставить трех соперниц своей дочери по чирлидингу. Спортсменки якобы обижали ее ребенка, из-за чего женщина решила вынудить их покинуть группу, рассылая видео порнографического характера с участием девушек, которое было создано при помощи дипфейков.
Осенью того же года в сети появилось фейковое видео с миллиардером и основателем банка «Тинькофф» Олегом Тиньковым. Он обещал 50% прибыли от инвестиций, которые можно сделать, перейдя по ссылке в описании ролика. Ролик был создан мошенниками — жертва такой «акции» просто теряла свои деньги и не получала никакого дохода.
В декабре 2020 года британский телеканал Channel4 показал в эфире дипфейк Елизаветы II. Это было альтернативное рождественское поздравление – в нем Елизавета II шутит про отъезд принца Гарри и Меган Маркл в Северную Америку, связь принца Эндрю с обвиненным в секс-торговле Джеффри Эпштейном, а также танцует на столе.
Позже канал показал отдельный ролик, в котором разъяснил причины своего поступка. Руководство Channel4 хотело показать, насколько легко использовать технологию дипфейк, и призвало зрителей критически относится ко всем материалам, которые есть на ТВ и в интернете.
Правда или вымысел
На текущем уровне развития технологии дипфейков заметить их искусственный характер вполне реально, уверен операционный директор Департамента Digital Risk Protection Group-IB Владимир Калугин.
«Даже качественным дипфейкам, используемым в киноиндустрии и рекламе, не хватает естественности, несмотря на то, что над ними работают целые команды специалистов», – отметил эксперт.
Дипфейк может выдать множество признаков. Например, явная граница наложения изображений, различия в цвете, освещенности и качестве картинки, а также ошибки в мимике.
«Также часто встречаются ошибки наложения при движении головы, особенно при поворотах, неправильная прорисовка глаз и конкретно зрачков, пропажа родинок и шрамов, нереалистичные перепады освещенности, изменения тона кожи, плохая синхронизация звука с движением губ, наличие «дерганий» в движениях, цифровой шум», – рассказал Калугин.
Кроме того, часто при просмотре дипфейк видео люди сталкиваются с эффектом «зловещей долины». Это явление, при котором малейшая неестественность во внешнем виде и поведении объекта или робота, выглядящего и действующего как человек, вызывает у наблюдателя тревогу, неприязнь, а порой и отвращение.
Руководитель отдела отраслевой экспертизы департамента информационной безопасности в компании Softline Максим Хараск считает, что выявить дипфейк в обычной жизни, когда мошенники рассылают их конкретным жертвам, довольно сложно.
«Это примерно так же, как отличить стоящего за дверью преступника от добропорядочного человека через дверной глазок. Дипфейк – это не просто подставка другого лица на видео. Большинство людей понимают, что стандартным сообщениям и просьбам о выдаче персональных данных или переводе средств в мессенджерах верить нельзя, но теряют бдительность при виде фейкового аудио или видео-сообщения», – отметил Хараск.