Czym są treści Deepfake?

Treści Deepfake mogą zawierać sfałszowane treści audio, wideo lub tekstowe utworzone przy użyciu generatywnej AI (GenAI). Cyberprzestępcy używają ich do nakłonienia odbiorców do udostępnienia im wrażliwych danych.

Filmy Deepfake

Realistyczne filmy Deepfake, które są coraz trudniejsze do wykrycia jako wygenerowane przez AI, stanowią poważne zagrożenie dla bezpieczeństwa danych. Zazwyczaj przedstawiają one znane osoby, takie jak politycy i celebryci, choć mogą być również tworzone w celu uchwycenia podobieństwa innych osób. W zależności od celu mogą też służyć do szerzenia dezinformacji, oszustw, wyłudzania poufnych danych lub pieniędzy.

Filmy Deepfake są generowane za pomocą złożonej analizy treści źródłowych. Niezbędne szczegóły, takie jak rysy, wielkość i ruchy twarzy, odcień skóry, kolor włosów i oczu oraz mowa ciała są wprowadzane do modelu AI w celu wygenerowania jak najdokładniejszego odwzorowania. Dotyczy to również tła; jeśli biuro, sala konferencyjna lub inne miejsce, w którym pojawia się obiekt, są dobrze znane, przestępca może starać się jak najdokładniej je odtworzyć na podstawie źródłowych zdjęć i filmów.

Klonowanie głosu

Podobnie jak filmy Deepfake, za pomocą AI mogą być generowane także dźwięki na podstawie danych źródłowych dostępnych w Internecie. Są to zazwyczaj nagrania poczty głosowej, rozmowy telefoniczne, gościnne występy w podcastach i wiadomościach w połączeniu z autentycznymi treściami wideo z dźwiękiem i wizerunkiem konkretnej osoby bądź grupy.

Wygenerowany dźwięk może brzmieć bardzo przekonująco, idealnie dopasowując się do materiału źródłowego, by sprawiać wrażenie jak najbardziej wiarygodnego. Używane przez złośliwych aktorów narzędzia GenAI analizują materiał źródłowy pod kątem kilku kluczowych szczegółów, w tym tonu i wysokości dźwięku, wzorów mowy, zrozumiałości, wymowy oraz słyszalnych emocji.

Treści Cheapfake

Dźwięki i filmy tworzone przy użyciu GenAI to Deepfake, natomiast materiały Cheapfake są tworzone z pominięciem tych technologii. Są one tworzone ręcznie i mają za cel oszukanie pojedynczych osób lub grup. Zwykle są to iluzje optyczne, dźwiękowe lub tekstowe, mające przekonać nieuważnego odbiorcę na przykład w sytuacji konieczności podjęcia pilnej decyzji lub stresu emocjonalnego. Jak zwraca uwagę Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych, Cheapfake poprzedza erę cyfrową, niebezpieczne podmioty miały więc setki lat na to, by uczyć się od siebie nawzajem i doskonalić możliwości.

Metody tworzenia Cheapfake

  • Fizyczne cięcie i łączenie klisz
  • Podsłuchiwanie lub łączenie fragmentów nagranych fraz lub pełnych zdań
  • Spowolnienie lub przyspieszenie treści wideo lub audio w celu wytworzenia pożądanego efektu lub sugestii.
  • Filmowanie lub nagrywanie sobowtórów lub osób naśladujących mowę osób, pod które ma się podszywać materiał.
  • Tanie obrazy niskiej jakości generowane komputerowo (CGI), technologia przechwytywania ruchu (ang. motion-capture) i zielone ekrany.

Przykłady treści Deepfake i Cheapfake

Złośliwi aktorzy wykorzystują treści Deepfake lub Cheapfake do różnych celów, w tym:

  • Manipulowanie nowymi pracownikami w celu nakłonienia ich do podania informacji firmowych lub danych osobowych
  • Podszywanie się pod celebrytów lub polityków w celu zbierania funduszy lub szerzenia dezinformacji
  • Fałszowanie okoliczności, np. katastrofy, obrażenia lub śmierć, celem wyłudzania odszkodowań
  • Nakłanianie do korzystania z fałszywych stron internetowych, które przypominają prawdziwe witryny
  • Manipulowanie akcjami i inwestycjami przez podszywanie się pod osoby na stanowiskach kierowniczych
  • Wywoływanie poczucia zażenowania lub szkodzenie wizerunkowi osób

Środki ochrony

Można podjąć kilka kroków, by zmniejszyć ryzyko narażenia na treści Deepfake lub Cheapfake. Niektóre z nich, opisanych poniżej, jest zalecanych przez National Cybersecurity Alliance:

  • Monitorowanie połączeń przychodzących z nieznanych numerów i kierowanie ich do poczty głosowej.
  • Uwierzytelnianie wieloskładnikowe na wszystkich kontach online
  • Używanie unikalnych, długich i złożonych haseł
  • Kamera internetowa z fizyczną zasłoną obiektywu.
  • Cyfrowy znak wodny na udostępnianych zdjęciach lub filmach
  • Osobiste weryfikowanie informacji uzyskanych online lub przez telefon (o ile jest to możliwe).
  • Weryfikowanie informacji podanych w wyglądających podejrzanie wiadomościach e-mail zawierających błędy interpunkcyjne, stylistyczne i gramatyczne.

Wykorzystanie zasad zero-trust i rozwiązań do wykrywania technik Deepfake

Podejście zero-trust ma kluczowe znaczenie dla cyberbezpieczeństwa. W kontekście ochrony przed treściami Deepfake podejście to można uznać za plan minimalizacji ryzyka. Na przykład:

  • Wdrożenie i skrupulatne przestrzeganie procesów uwierzytelniania.
  • Proaktywne regulowanie i monitorowanie dostępu użytkowników do danych i sieci.
  • Po wykryciu zagrożenia należy zakładać, że doszło do naruszenia i podjąć działania redukujące „zasięg zniszczeń”.

Ponadto specjalnie opracowane rozwiązania do inspekcji i wykrywania Deepfake mogą pomóc w ochronie tożsamości, dobrego samopoczucia i danych użytkowników. Narzędzia te są niezbędne w dobie stale przyspieszających innowacji AI, ponieważ treści Deepfake są często trudne do wykrycia przez człowieka. „W miarę jak algorytmy syntezy mowy stają się coraz lepsze i bardziej realistyczne, możemy spodziewać się, że zadanie wykrywania stanie się trudniejsze”, czytamy w raporcie National Library of Medicine z 2023 roku poświęconemu temu zagadnieniu. „Trudność w wykrywaniu podróbek mowy potwierdza ich potencjał do nadużyć i sygnalizuje, że potrzebna jest ochrona przed tym zagrożeniem”. 

Powiązane badania

Powiązane artykuły