При большом желании современные вычислительные мощности способны создать видеоматериал, который даже на уровне экспертизы будет практически невозможно отличить от настоящего. Об этом сообщил IT-специалист Илья Костунов. Он рассказал, как устроены дипфейки с технической точки зрения и чем они особенно опасны.
«Все уже привыкли к тому, что компьютер учится распознавать изображения, но он точно так же умеет их генерировать. Когда совмещают две нейросети - генератор и дискриминатор, то появляется возможность создавать изображения очень похожие на настоящие. Технологически все очень просто. Генератор создает контент, а дискриминатор вместо пользователя огромное количество раз проверяет его на достоверность. Компьютер сам уточняет сходство фальшивого видео так, что потом даже человек не мог распознать подделку», — отметил эксперт.
По его словам, эта полезная технология используется в искусстве и кино, но в том числе она используется для генерации дипфейков - фальшивых видео.
«С помощью этой технологии можно как создать новое видео, но это довольно сложно, так и заменить отдельные элементы видео, что намного проще. Наверное, отличить сделанное на любительском уровне видео при внимательном рассмотрении можно. А профессионально подготовленные дипфейки отличить практически невозможно», — заявил Костунов.
Он рассказал, что технология широко используется для коррекции порнографических материалов. Она заменяет профессиональных актеров этого жанра, например, на известных личностей.
«Также эта технология может использоваться в политических целях, так как можно подменить все, что угодно - голос, изображение, место. Причем, чем более публичная личность, тем более убедительной будет эта аудио или видео-подделка. Так как большое количество фото и видеоматериалов будет в публичном доступе.
Таким образом фактически нейтральная технология может быть использована для манипуляции общественным мнением и обмана отдельных личностей. Причем это может быть использовано как в бизнесе, так и в политике. А учитывая, что технология сейчас позволяет генерировать фальшивые видео даже на домашнем компьютере, то возможно мы столкнемся и в бытовом общении», — заключил эксперт.