Мошенники могут сгенерировать голос родственников при помощи искусственного интеллекта для обмана людей. Об этом Pravda.Ru рассказал эксперт по кибербезопасности Алексей Курочкин.
Кроме того, нейросети позволяют создавать фейковые видео и видеозвонки для подтверждения своих слов.
«То есть сначала звонят и голосом говорят: «Помоги деньгами, я в полиции», после этого происходит видеозвонок тех же мошенников с поддельного номера, злоумышленник говорит: «Полицейские дали мне позвонить», и на фоне полиции вроде бы ее внук или сын разговаривает и то же самое говорит», — рассказал эксперт.
По словам Курочкина, пожилые люди часто верят этому и переводят злоумышленникам деньги.
Накануне «Газете.Ru» сообщили, что исследователи Санкт-Петербургского Федерального исследовательского центра РАН (СПб ФИЦ РАН) совместно с исследователями РАНХиГС обучили нейросеть находить соответствия между способностью человека противостоять кибермошенникам и его аватаркой в социальных сетях. Пока нейросеть распознает немного признаков на фотографии пользователя: положение головы, глаз, выражение лица и некоторые другие. Однако в будущем ученые хотят добавить больше признаков.
Ранее сообщалось, что российский кинооператор отдал мошенникам, обещавшим доход на криптобирже, 6 млн рублей.