Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Россиянам рассказали, как защититься от дипфейков со своим изображением

Киберэксперт Шутов: чтобы защититься от дипфейков, нужно соблюдать правила

Мошенники в последнее время активно используют дипфейки для выманивания средств – поддельные видеоролики и аудиозаписи с изображением и голосом человека. Чтобы не стать жертвой такого обмана, нужно стараться не публиковать свои данные на открытых ресурсах, а также очень критично оценивать всю поступающую информацию, рассказал RT преподаватель кафедры КБ-1 «Защита информации» РТУ МИРЭА Василий Шутов.

Используя разные современные программы, злоумышленники с помощью искусственного интеллекта генерируют контент с образом и голосом человека, после чего рассылают от его лица сообщения. В них человек якобы просит о финансовой помощи, причем близкие редко могут отличить подделку от реального сообщения.

«Многие люди становятся жертвами обмана и переводят крупные суммы мошенникам», — констатировал специалист, добавив, что риск снижается, если в открытом доступе нет личных данных.

Также Шутов призвал критично оценивать поступающую информацию, отмечать любые искажения, несоответствия и лишние пиксели. В том числе нужно внимательно следить за частотой моргания, совпадением голоса и открывающегося рта, обращать внимание на окружающие человека предметы и тени. Насторожиться следует, если у человека на видео тусклые глаза и зубы, кожа неестественного цвета, а детали и контуры прорисованы плохо.

Важно не переходить по присылаемым (даже от знакомых) ссылкам, проверять информацию, добавил киберэксперт. Он также порекомендовал защитить данные от вредоносных программ-шифровальщиков с помощью резервных копий, сложных дополнительных паролей – важно, чтобы они были уникальные для каждого отдельного ресурса.

Напомним, этой осенью в Госдуму планируют внести законопроект о дипфейках, над которым работают «лучшие юридические умы». Также МВД России разрабатывает поправки в Уголовный кодекс РФ, которыми предлагается признать использование искусственного интеллекта при совершении преступлений отягчающим обстоятельством.

Ранее россиянам объяснили, как отличить дипфейк от настоящего видео.

Что думаешь?
Загрузка