Слово дипфейк (Deepfake) происходит от сочетания deep learning (глубокое обучение) и fake (фейк, подделка). Дипфейки могут содержать подделанные аудио, визуальные или текстовые материалы, созданные с помощью генеративного ИИ (GenAI). Киберпреступники используют дипфейки для шантажа, чтобы выманить конфиденциальные данные, или для крупных афер.
Дипфейк-видео выглядят все более реалистичными и правдоподобными, становится все труднее понять, что они сгенерированы ИИ. Именно поэтому угроза, которую представляют дипфейки для безопасности данных, постоянно растет. Эти видео, как правило, изображают политических деятелей и знаменитостей, хотя могут запечатлеть сходство с любым человеком. В зависимости от цели дипфейк-видео могут использоваться для распространения дезинформации, обмана, выманивания конфиденциальных данных или крупных денежных средств.
Перед началом генерации видео ведется комплексный анализ входных данных. Чтобы создать максимально точное представление об объекте, в ИИ-систему необходимо передать такие данные, как черты лица и мимика, тон кожи, цвет волос и глаз, движения тела. Это относится и к обстановке, на фоне которой происходит действие (например в конференц-зале), если обстановка хорошо известна, злоумышленник постарается воспроизвести ее как можно точнее, опираясь на реальные изображения и видео.
Как и видео-дипфейки, поддельные аудио-записи можно генерировать с помощью ИИ, используя для обучения материалы, имеющиеся в интернете. В качестве источника эталонных образцов обычно используются сообщения голосовой почты, телефонные разговоры, выступления объекта в подкастах и новостях, а также подлинный видеоконтент, содержащий аудиозаписи нужного человека или группы лиц.
Точно соответствуя исходному материалу, сгенерированная аудиозапись может звучать очень убедительно и максимально правдоподобно. Злоумышленники используют инструменты GenAI, которые анализируют ключевые особенности: интонации, тембр голоса, манеру речи, четкость, дикцию, эмоции, звучащие в голосе тех, кто говорит в эталонных образцах.
В то время как аудио и видео дипфейки изготавливают с помощью GenAI, для создания «дешевых подделок» — чипфейков — не используют дорогостоящие технологии. В основном они изготавливаются вручную. Как правило, такие манипуляции с видео и аудио-роликами или с текстами делают для обмана людей, которые не особо вникают в контекст, потому что спешат, испытывают эмоциональный стресс или что-то в этом роде. Дешевые подделки появились гораздо раньше эпохи цифровизации, так что у мошенников были века на то, чтобы учиться друг у друга и оттачивать свои возможности.
Злоумышленники используют дипфейки и чипфейки для различных целей, например:
Что можно предпринять, чтобы снизить риск стать жертвой дипфейка ли чипфейка? Меры, рекомендованные National Cybersecurity Alliance:
«Нулевое доверие» — один из основополагающих подходов кибербезопасности. Если применять эту концепцию для защиты от дипфейков, то можно рассматривать ее принципы как план минимизации рисков, например:
Кроме того, уже появились специальные решения для проверки и обнаружения дипфейков, которые помогают защитить персональные данные и благополучие пользователей. В эпоху постоянно ускоряющихся инноваций в области ИИ зачастую трудно определить, что видео является дипфейком, поэтому такие инструменты стали необходимостью. «По мере того, как алгоритмы синтеза речи совершенствуются и становятся все более реалистичными, мы вправе ожидать, что задача распознавания будет усложняться, — говорится в подробном отчете National Library of Medicine за 2023 год. — Сложность обнаружения речевых дипфейков подтверждает их потенциал для злоупотреблений и указывает на необходимость защиты от этой угрозы».
Исследования по теме
Статьи по теме