Подписывайтесь на Газету.Ru в Telegram Публикуем там только самое важное и интересное!
Новые комментарии +

Все легче и легче: как совершенствуются инструменты создания фейков

Правозащитник Шлыков рассказал об опасности дипфейков

Существование социальных сетей и искусственного интеллекта (ИИ) серьезно упростило создание и распространение контента, сведя стоимость этих действий фактически до нуля. Председатель общероссийского общественного движения «Гражданский комитет России», экс-сотрудник спецподразделения МВД России, правозащитник Артур Шлыков рассказал, что это в полной мере относится как к безобидным мемам, так и к опасным фейкам, способным повлиять на события в реальном мире.

Подчеркну сразу, что я ни в коем случае не пытаюсь демонизировать ИИ. Это интересная технология, а главное – полезная во многих отраслях. И проблема не в ней, а в том, кто ее использует. Например, если ИИ попадает в руки злоумышленников или тех, кто намерено распространяет дезинформацию в интернете, увы, эта прорывная технология становится опасной. С ее помощью злоумышленникам становится проще совершать противоправные действия.

К примеру, раньше для создания фейковой новости человеку нужно было придумать тему и написать текст вручную. А чтобы ложь получилась еще более убедительной, нужно обладать минимальными познаниями в предмете или уметь создавать видимость этого. Нейросеть убирает эти требования и позволяет генерировать сразу несколько статей по одному запросу. А ее обширная база данных обеспечивает убедительность и соответствие любому заданному стилю вплоть до того, что даже профессионал не всегда способен распознать подвох.

Тем не менее тексты – серьезная, но не основная проблема. Дело в том, что возможности ИИ позволяют подделывать визуальный контент, который долгое время являлся гарантом достоверности. К примеру, видео можно представлять в качестве доказательства в суде. Разумеется, есть много процессуальных моментов, но такой материал так или иначе может повлиять на исход дела.

Те, кто не особенно внимательно следит за новостями про ИИ, наверняка лишь рассмеются, вспомнив жующего спагетти голливудского актера Уилла Смита. Спешу огорчить – это качество роликов уже давно не актуально. То, что сейчас создает нейросеть, уже легко можно спутать с реальностью. Как показало исследование компании HarrisX, в попытках определить сгенерированный ролик люди ошибались в 5 из 8 случаев. Другими словами, ошибку допустили больше половины респондентов.

Злоумышленники всегда умели подстраивать свои мошеннические схемы под текущие обстоятельства и максимально пользоваться преимуществами новых технологий. ИИ не стал исключением. Он уже очень активно используется для массового создания аудиодипфейков. К примеру, сотрудник крупной компании может получить звонок в мессенджере от «гендиректора» с просьбой провести платеж. Разумеется, деньги растворятся в неизвестном направлении.

Особенно опасно использование средств создания фейков в политическом контексте. В этом уже убедился специалист по дипфейкам из Индии Дивьендра Сингх Джадун, к которому во время выборов обращались сотни политиков. Многие из них просили наложить лицо конкурента на порнографическое изображение и подделать аудиозапись выступления своего соперника.

В целом способы обмана и создания фейков будут совершенствоваться вместе с развитием технологий. Увы, этот процесс неизбежен. Но это не означает, что лучшим выходом из ситуации является бездействие.

Напомню, что Россия продолжает находиться под беспрецедентным информационным давлением. И наша страна неизбежно становится одним из полигонов для обкатки новых технологий создания фейков, поэтому занимать выжидательную позицию однозначно не стоит. В России это прекрасно понимают. Например, власти уже обсуждают возможность создания единой платформы для выявления недостоверной информации. Помимо этого, в правовое поле планируется официально ввести термин «дипфейк».

Кроме того, в 2022 году АНО «Диалог» запустил фактчекинговый сервис «Лапша Медиа». С его помощью можно проверить информацию на правдивость. Также на сайте проекта есть чат-бот, база фейков и образовательный контент по цифровой грамотности.

Разумеется, работы предстоит много, но иначе никак. Для нашего государства важно не оставлять без внимания фейки и средства для их создания и распространения.

Новости и материалы
20-летнюю слепую кошку спасли из замерзшего озера
Знаменитая фигуристка назвала двух чемпионок, кого хотела бы видеть на чемпионате России
В России объявили в международный розыск наемника из США
Путин рассказал о развитии Королева в качестве космической столицы
Названы три главных китайских авто в России в 2025 году
Суд отказался снимать домашний арест с жены экс-мэра Сочи
Зеленский отказался жить с замороженным конфликтом
В Татарстане пьяный мужчина изнасиловал женщину в лесопосадке
Минфин отменил лимиты по семейной ипотеке после слов Путина
«Ак Барс» объявил о переходе покинувшего «Динамо» игрока
Блинкен назвал условие, при котором перемирие на Украине было бы полезно
Предполагаемому убийце генерала Кириллова предъявили обвинение в терроризме
Путин заявил, что все защитники России должны быть равны в выплатах
В Госдуме сообщили о скором решении по вопросу выплат участникам КТО в Курской области
На территории московской больницы нашли коробку с противопехотными минами
В Финляндии заявили, что страна должна быть готова к долгосрочным войнам
Наталья Бочкарева о Natan: «Он тушкан, а я люблю медведей»
В Госдуме заявили, что альтернативы порнографии быть не может
Все новости