Мошенники смогли украсть у банка $35 млн в ОАЭ с помощью дипфейка, об этом сообщает Gizmodo.
Преступники смоделировали голос директора крупной компании, которая является клиентом банка. Они совершили звонок в один из филиалов финансовой организации и убедили менеджера в том, что корпорация заключает крупную сделку на $35 млн и деньги нужно перевести на новые счета фирмы.
Власти полагают, что в схеме участвовало более десятка человек, а украденные средства были перемещены на несколько банковских счетов, разбросанных по всему миру.
Это не первый случай, когда мошенники использовали аудиодипфейки в своих целях. В 2019 году в Великобритании преступникам удалось украсть €220 тыс. у энергетической компании. Они выдали себя за генерального директора и убедили сотрудника перевести деньги на мошеннический счет.
Эксперт по кибербезопасности в «Лаборатории Касперского» Дмитрий Галов в беседе с «Газетой.Ru» отметил, что проводить манипуляции с аудио и фото становится все проще.
«Зачастую для этого не требуется никаких глубоких технических навыков, несмотря на то, что дипфейки требуют определенного количества исходных данных: фото, видео, образцов голоса нужного человека.
Поэтому не исключаем, что таких случаев будет становиться все больше.
Несмотря на продвинутые технологии, все мошеннические схемы вокруг дипфейков до сих пор, по сути, сводятся к использованию приемов социальной инженерии для выманивания денег или личных данных», — рассказал Галов.
Руководитель отдела продвижения продуктов компании «Код Безопасности» Павел Коростелев рассказал «Газете.Ru», что распознать дипфейк довольно тяжело.
«Фейковый голос, как правило, создается на основе большого количества примеров голоса руководителей компаний. Мошенники могут также использовать стиль общения топ-менеджера или его особенности постановки задач для повышения доверия к созданному фейку», — отметил эксперт.
В отличие от фейковых видео, где различные артефакты работы нейросетей все еще можно увидеть невооруженным глазом, определить фейковое аудио на слух гораздо сложнее, поделился руководитель отдела специальных проектов департамента Digital Risk Protection Group-IB Владимир Калугин.
«Аудиофейки, как правило, тоже создаются с помощью нейросетей, но в основе лежат проверенные и неплохо развитые технологии: анализ образца голоса и модулирование на его основе синтетического профиля. Анализ звукового ряда применяется, например, в музыкальной индустрии, в том числе для улучшения вокальных партий, а модулирование — при переводе текста в речь (text-to-speech), с которым мы знакомы по работе умных голосовых помощников типа Siri, «Алисы» и многих других. Кроме того, аудиофейки передаются как голосовые сообщения — через мессенджеры или по телефону. В таком случае запись в несколько измененном виде и с помехами не вызывает подозрений», — объяснил Калугин.
Эксперт по информационной безопасности «Лиги Цифровой Экономики» Андрей Слободчиков отметил, что самый простой способ защититься — это исключить проведение транзакций без дополнительного подтверждения электронной подписью или паролем.
«Благодаря этому мошенники не смогут достигнуть желаемого результата без дополнительных данных, которые будут необходимы для перевода средств и предоставления конфиденциальной информации», — рассказал Слободчиков.
Другой сценарий защиты, по его словам, заключается в интеграции механизма выявления дипфейков в корпоративную телефонию.
По словам Владимира Калугина из Group-IB, сейчас технология дипфейков является широко доступной.
«На рынке существует много решений как для профессионалов, так и для новичков. Некоторые сервисы созданы для удобного решения вполне легальных задач, например озвучивания видео. Но при этом могут быть использованы как инструмент для создания аудиофейка. В связи с доступностью количество мошенничеств с использованием дипфейков будет только расти», — рассказал Калугин.
ИБ-евангелист компании Avast Луис Корронс также отметил тенденцию к увеличению количества мошенничеств с аудиодипфейками.
«По мере того, как процесс создания дипфейков будет становиться проще, скорее всего, мы увидим рост их количества. Вероятно, в будущем дипфейки достигнут такого качества, что их можно будет активно использовать в кампаниях по дезинформации, мошенничестве и других типах атак. Мы не ожидаем увидеть их массовую волну, но они определенно станут более распространенными», — заключил собеседник «Газеты.Ru».