Что такое дипфейки?

Слово дипфейк (Deepfake) происходит от сочетания deep learning (глубокое обучение) и fake (фейк, подделка). Дипфейки могут содержать подделанные аудио, визуальные или текстовые материалы, созданные с помощью генеративного ИИ (GenAI). Киберпреступники используют дипфейки для шантажа, чтобы выманить конфиденциальные данные, или для крупных афер.

Дипфейк-видео

Дипфейк-видео выглядят все более реалистичными и правдоподобными, становится все труднее понять, что они сгенерированы ИИ. Именно поэтому угроза, которую представляют дипфейки для безопасности данных, постоянно растет. Эти видео, как правило, изображают политических деятелей и знаменитостей, хотя могут запечатлеть сходство с любым человеком. В зависимости от цели дипфейк-видео могут использоваться для распространения дезинформации, обмана, выманивания конфиденциальных данных или крупных денежных средств.

Перед началом генерации видео ведется комплексный анализ входных данных. Чтобы создать максимально точное представление об объекте, в ИИ-систему необходимо передать такие данные, как черты лица и мимика, тон кожи, цвет волос и глаз, движения тела. Это относится и к обстановке, на фоне которой происходит действие (например в конференц-зале), если обстановка хорошо известна, злоумышленник постарается воспроизвести ее как можно точнее, опираясь на реальные изображения и видео.

Клонирование голоса

Как и видео-дипфейки, поддельные аудио-записи можно генерировать с помощью ИИ, используя для обучения материалы, имеющиеся в интернете. В качестве источника эталонных образцов обычно используются сообщения голосовой почты, телефонные разговоры, выступления объекта в подкастах и новостях, а также подлинный видеоконтент, содержащий аудиозаписи нужного человека или группы лиц.

Точно соответствуя исходному материалу, сгенерированная аудиозапись может звучать очень убедительно и максимально правдоподобно. Злоумышленники используют инструменты GenAI, которые анализируют ключевые особенности: интонации, тембр голоса, манеру речи, четкость, дикцию, эмоции, звучащие в голосе тех, кто говорит в эталонных образцах.

Чипфейки

В то время как аудио и видео дипфейки изготавливают с помощью GenAI, для создания «дешевых подделок» — чипфейков — не используют дорогостоящие технологии. В основном они изготавливаются вручную. Как правило, такие манипуляции с видео и аудио-роликами или с текстами делают для обмана людей, которые не особо вникают в контекст, потому что спешат, испытывают эмоциональный стресс или что-то в этом роде. Дешевые подделки появились гораздо раньше эпохи цифровизации, так что у мошенников были века на то, чтобы учиться друг у друга и оттачивать свои возможности.

Методы изготовления чипфейков

  • Нарезка и склейка фильма.
  • Прослушка (перехват) и вырезание фрагментов записанных фраз или целых предложений.
  • Замедление или ускорение видео и аудио для получения желаемого эффекта.
  • Съемка видео или запись речи двойников/звуковых имитаторов, выдающих себя за важного человека.
  • Малобюджетные, низкокачественные изображения, сгенерированные на компьютере (CGI); технологии захвата движения и хромакей.

Применение дипфейков и чипфейков

Злоумышленники используют дипфейки и чипфейки для различных целей, например:

  • манипулировать недавно работающими в компании сотрудниками, чтобы получить от них информацию о компании или персональные данные;
  • выдавать себя за знаменитость или политического деятеля, чтобы получить деньги или распространить дезинформацию;
  • фальсифицировать стихийные бедствия, травмы или смерть, чтобы получить страховку;
  • вводить в заблуждение, чтобы люди пользовались поддельными веб-сайтами, принимая их за подлинные;
  • манипулировать акциями и инвестициями, выдавая себя за руководителя;
  • нанести ущерб репутации отдельных лиц или поставить их в неловкое положение.

Способы защиты

Что можно предпринять, чтобы снизить риск стать жертвой дипфейка ли чипфейка? Меры, рекомендованные National Cybersecurity Alliance:

  • отсеивание входящих звонков с незнакомых номеров и отправка их на голосовую почту;
  • настройка многофакторной аутентификации для всех онлайн-аккаунтов;
  • использование уникальных, длинных и сложных паролей;
  • установка веб-камеры с физическим затвором, чтобы закрывать объектив, когда камера не используется;
  • добавление цифрового водяного знака (digital watermark) на фотографии или видео перед их публикацией;
  • проверка при личной встрече (когда это возможно) деталей, на которые ссылались онлайн или по телефону;
  • проверка в подозрительных письмах таких особенностей, как пунктуация, стиль и грамматика;

использование принципов нулевого доверия и антифейковых решений.

«Нулевое доверие» — один из основополагающих подходов кибербезопасности. Если применять эту концепцию для защиты от дипфейков, то можно рассматривать ее принципы как план минимизации рисков, например:

  • внедрение и выполнение процессов аутентификации и авторизации;
  • проактивное регулирование и мониторинг доступа пользователей к данным и сетям;
  • проактивная минимизация «радиуса взрыва» на случай, если обнаруженная угроза приведет к утечке данных.

Кроме того, уже появились специальные решения для проверки и обнаружения дипфейков, которые помогают защитить персональные данные и благополучие пользователей. В эпоху постоянно ускоряющихся инноваций в области ИИ зачастую трудно определить, что видео является дипфейком, поэтому такие инструменты стали необходимостью. «По мере того, как алгоритмы синтеза речи совершенствуются и становятся все более реалистичными, мы вправе ожидать, что задача распознавания будет усложняться, — говорится в подробном отчете National Library of Medicine за 2023 год. — Сложность обнаружения речевых дипфейков подтверждает их потенциал для злоупотреблений и указывает на необходимость защиты от этой угрозы».

Исследования по теме

Статьи по теме