Treści Deepfake mogą zawierać sfałszowane treści audio, wideo lub tekstowe utworzone przy użyciu generatywnej AI (GenAI). Cyberprzestępcy używają ich do nakłonienia odbiorców do udostępnienia im wrażliwych danych.
Realistyczne filmy Deepfake, które są coraz trudniejsze do wykrycia jako wygenerowane przez AI, stanowią poważne zagrożenie dla bezpieczeństwa danych. Zazwyczaj przedstawiają one znane osoby, takie jak politycy i celebryci, choć mogą być również tworzone w celu uchwycenia podobieństwa innych osób. W zależności od celu mogą też służyć do szerzenia dezinformacji, oszustw, wyłudzania poufnych danych lub pieniędzy.
Filmy Deepfake są generowane za pomocą złożonej analizy treści źródłowych. Niezbędne szczegóły, takie jak rysy, wielkość i ruchy twarzy, odcień skóry, kolor włosów i oczu oraz mowa ciała są wprowadzane do modelu AI w celu wygenerowania jak najdokładniejszego odwzorowania. Dotyczy to również tła; jeśli biuro, sala konferencyjna lub inne miejsce, w którym pojawia się obiekt, są dobrze znane, przestępca może starać się jak najdokładniej je odtworzyć na podstawie źródłowych zdjęć i filmów.
Podobnie jak filmy Deepfake, za pomocą AI mogą być generowane także dźwięki na podstawie danych źródłowych dostępnych w Internecie. Są to zazwyczaj nagrania poczty głosowej, rozmowy telefoniczne, gościnne występy w podcastach i wiadomościach w połączeniu z autentycznymi treściami wideo z dźwiękiem i wizerunkiem konkretnej osoby bądź grupy.
Wygenerowany dźwięk może brzmieć bardzo przekonująco, idealnie dopasowując się do materiału źródłowego, by sprawiać wrażenie jak najbardziej wiarygodnego. Używane przez złośliwych aktorów narzędzia GenAI analizują materiał źródłowy pod kątem kilku kluczowych szczegółów, w tym tonu i wysokości dźwięku, wzorów mowy, zrozumiałości, wymowy oraz słyszalnych emocji.
Dźwięki i filmy tworzone przy użyciu GenAI to Deepfake, natomiast materiały Cheapfake są tworzone z pominięciem tych technologii. Są one tworzone ręcznie i mają za cel oszukanie pojedynczych osób lub grup. Zwykle są to iluzje optyczne, dźwiękowe lub tekstowe, mające przekonać nieuważnego odbiorcę na przykład w sytuacji konieczności podjęcia pilnej decyzji lub stresu emocjonalnego. Jak zwraca uwagę Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych, Cheapfake poprzedza erę cyfrową, niebezpieczne podmioty miały więc setki lat na to, by uczyć się od siebie nawzajem i doskonalić możliwości.
Złośliwi aktorzy wykorzystują treści Deepfake lub Cheapfake do różnych celów, w tym:
Można podjąć kilka kroków, by zmniejszyć ryzyko narażenia na treści Deepfake lub Cheapfake. Niektóre z nich, opisanych poniżej, jest zalecanych przez National Cybersecurity Alliance:
Podejście zero-trust ma kluczowe znaczenie dla cyberbezpieczeństwa. W kontekście ochrony przed treściami Deepfake podejście to można uznać za plan minimalizacji ryzyka. Na przykład:
Ponadto specjalnie opracowane rozwiązania do inspekcji i wykrywania Deepfake mogą pomóc w ochronie tożsamości, dobrego samopoczucia i danych użytkowników. Narzędzia te są niezbędne w dobie stale przyspieszających innowacji AI, ponieważ treści Deepfake są często trudne do wykrycia przez człowieka. „W miarę jak algorytmy syntezy mowy stają się coraz lepsze i bardziej realistyczne, możemy spodziewać się, że zadanie wykrywania stanie się trudniejsze”, czytamy w raporcie National Library of Medicine z 2023 roku poświęconemu temu zagadnieniu. „Trudność w wykrywaniu podróbek mowy potwierdza ich potencjał do nadużyć i sygnalizuje, że potrzebna jest ochrona przed tym zagrożeniem”.
Powiązane badania
Powiązane artykuły