Co to jest Deepfake?

Znaczenie Deepfake

Termin „głębokie fałszerstwo” jest połączeniem „głębokiego uczenia” i „fałszywy” i został wymyślony w 2017 r. przez użytkownika Reddit. Deepfake to fałszywe nagranie obrazu, filmu lub głosu, w którym podobizna jednej osoby zostaje zastąpiona podobieństwem innej. Mają one na celu oszukanie lub zabawę ludzi. Dzięki zaawansowanemu uczeniu maszynowemu, głębokie fałszerstwa mogą wyglądać bardzo realistycznie. Wcześniej usługi „fałszerstwa” były znane przede wszystkim z humorystycznego korzystania z mediów społecznościowych. Jednak ich potencjalne nadużycia szybko stały się oczywiste, a poważne obawy o prywatność, bezpieczeństwo i informacje stanowią obecnie poważne zagrożenie.

Video Deepfake

Realistyczne filmy Deepfake, które są coraz trudniejsze do wykrycia jako wygenerowane przez AI, stanowią poważne zagrożenie dla bezpieczeństwa danych. Zazwyczaj przedstawiają one znane osoby, takie jak politycy i celebryci, choć mogą być również tworzone w celu uchwycenia podobieństwa innych osób. W zależności od celu mogą też służyć do szerzenia dezinformacji, oszustw, wyłudzania poufnych danych lub pieniędzy. 

Filmy Deepfake są generowane za pomocą złożonej analizy treści źródłowych. Niezbędne szczegóły, takie jak rysy, wielkość i ruchy twarzy, odcień skóry, kolor włosów i oczu oraz mowa ciała są wprowadzane do modelu AI w celu wygenerowania jak najdokładniejszego odwzorowania. Dotyczy to również tła; jeśli biuro, sala konferencyjna lub inne miejsce, w którym pojawia się obiekt, są dobrze znane, przestępca może starać się jak najdokładniej je odtworzyć na podstawie źródłowych zdjęć i filmów.

Klonowanie głosu

Podobnie jak filmy Deepfake, za pomocą AI mogą być generowane także dźwięki na podstawie danych źródłowych dostępnych w Internecie. Są to zazwyczaj nagrania poczty głosowej, rozmowy telefoniczne, gościnne występy w podcastach i wiadomościach w połączeniu z autentycznymi treściami wideo z dźwiękiem i wizerunkiem konkretnej osoby bądź grupy. 

Wygenerowany dźwięk może brzmieć bardzo przekonująco, idealnie dopasowując się do materiału źródłowego, by sprawiać wrażenie jak najbardziej wiarygodnego. Używane przez złośliwych aktorów narzędzia GenAI analizują materiał źródłowy pod kątem kilku kluczowych szczegółów, w tym tonu i wysokości dźwięku, wzorów mowy, zrozumiałości, wymowy oraz słyszalnych emocji.

Tajemnice 

Dźwięki i filmy tworzone przy użyciu GenAI to Deepfake, natomiast materiały Cheapfake są tworzone z pominięciem tych technologii. Są one tworzone ręcznie i mają za cel oszukanie pojedynczych osób lub grup. Zwykle są to iluzje optyczne, dźwiękowe lub tekstowe, mające przekonać nieuważnego odbiorcę na przykład w sytuacji konieczności podjęcia pilnej decyzji lub stresu emocjonalnego. Jak zwraca uwagę Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych, Cheapfake poprzedza erę cyfrową, niebezpieczne podmioty miały więc setki lat na to, by uczyć się od siebie nawzajem i doskonalić możliwości.

Podejść do tańszych produktów

  • Fizyczne cięcie i łączenie klisz 
  • Podsłuchiwanie lub łączenie fragmentów nagranych fraz lub pełnych zdań 
  • Spowolnienie lub przyspieszenie treści wideo lub audio w celu wytworzenia pożądanego efektu lub sugestii. 
  • Filmowanie lub nagrywanie sobowtórów lub osób naśladujących mowę osób, pod które ma się podszywać materiał. 
  • Tanie obrazy niskiej jakości generowane komputerowo (CGI), technologia przechwytywania ruchu (ang. motion-capture) i zielone ekrany. 

Jak powstają Deepfakes?

Tworzenie fałszywych plików polega na wykorzystaniu zaawansowanych programów komputerowych o nazwie Generative Adversarial Networks (GAN), aby stworzyć prawdziwe obrazy. Istnieją cztery główne kroki: 

Gromadzenie danych: Po pierwsze, gromadzone są treści multimedialne (obrazy, filmy lub dźwięki) osoby docelowej. Ta kolekcja służy do szkolenia programu komputerowego. 

Szkolenie modelu: GAN jest przeszkolony w zakresie gromadzonych danych. Jedna część GAN tworzy fałszywe obrazy, a druga sprawdza, czy wyglądają one na prawdziwe. 

Udoskonalenie: Techniki takie jak punkty orientacyjne twarzy i rejestrowanie ruchu są wykorzystywane, aby głębokie fałszerstwo wyglądało naturalnie, z realistycznymi wyrazami i ruchami. 

Produkcja końcowa: Gotowy model Deepfake jest następnie połączony z oryginalnymi nośnikami, tworząc bezproblemową i przekonującą zawartość. 

Choć powyższe może brzmieć nieco skomplikowanie, faktem jest, że każdy może dokonać głębokiego fałszerstwa, biorąc pod uwagę ogromną liczbę aplikacji dostępnych publicznie, od DeepFaceLab po DALL-E i Midjourney (choć te ostatnie mają zabezpieczenia).

Dlaczego warto dbać o Deepfakes?

Łatwo jest myśleć o cyberbezpieczeństwie jako o koncepcji abstrakcyjnej, usuniętej z codziennego życia, ale konsekwencje złośliwego, głębokiego fałszerstwa wpływają na jednostkę i całe społeczeństwo:

Twoja prywatność

Deepfakes może naruszyć prywatność użytkownika, tworząc treści bez zgody i często szkodliwe. Jest to szczególnie niepokojące w przypadku głębokiej pornografii, w której twarze osób są nakładane na wyraźne treści bez ich zgody.

Twoje bezpieczeństwo i finanse

Wideorozmowy Deepfake mogą być wykorzystywane do podszywania się pod ludzi, często z zamiarem oszukiwania, aby dać pieniądze lub wrażliwe informacje. Każdy może zostać ofiarą podrobionego oszustwa i ponieść poważne konsekwencje, takie jak oszustwo finansowe i kradzież tożsamości.

Stabilność polityczna

Deepfakes można uzbroić, aby stworzyć zamieszanie polityczne. Produkowane filmy polityków wygłaszających zapalne oświadczenia lub angażujących się w nielegalne działania mogą wpływać na opinię publiczną i zakłócać procesy demokratyczne.

Kwestie prawne i etyczne

Tworzenie i dystrybucja nieprawdziwych fałszerstw budzi poważne wątpliwości natury prawnej i etycznej. Kwestie zgody, własności intelektualnej i prawa do podobizny są w centrum bieżących debat społecznych.

Integralność mediów

Dziennikarze i organizacje medialne stają przed nowymi wyzwaniami w zakresie weryfikacji autentyczności treści. Deepfakes może podważyć wiarygodność serwisów informacyjnych

Zagrożenia i konsekwencje Deepfakes

Deepfakes stwarza kilka zagrożeń dla cyberbezpieczeństwa:

Oszustwa związane z podszywaniem się pod inną osobę i rozmowami wideo

Cyberprzestępcy mogą wykorzystywać głębokie fałszerstwa podczas rozmów wideo do podszywania się pod osoby fizyczne. Bez względu na to, czy jest to przyjaciel, członek rodziny, potencjalny partner, czy rozmowa kwalifikacyjna online — rozmowy wideo stanowią doskonałą okazję dla oszustów do przeprowadzenia głębokiego ataku, podszywania się pod cel i nakłonienia Cię do przekazania pieniędzy lub danych osobowych.

Błędne informacje/dezinformacja

Deepfakes mogą być wykorzystywane do tworzenia przekonujących, ale fałszywych treści, rozpowszechniania dezinformacji. Może to podważyć zaufanie opinii publicznej do mediów, wpłynąć na wybory i zdestabilizować społeczeństwa.

Kradzież tożsamości

Deepfakes może ułatwić kradzież tożsamości, tworząc realistyczne fałszywe tożsamości lub narażając istniejące, co prowadzi do szkód finansowych i utraty reputacji.

Poczta szantażowa i wymuszenie

Złośliwi przestępcy mogą tworzyć szantażujące i wymuszone materiały wideo, wykorzystując siłę fabrycznych dowodów.

Erozja zaufania

Istnienie nieprawdziwych plików może zniszczyć zaufanie do treści cyfrowych. Ludzie zaczynają wątpić w autentyczność legalnych mediów, co prowadzi do szerszego kryzysu zaufania do komunikacji cyfrowej.

Jak znaleźć film Deepfake 

Wykrywanie najciekawszych plików staje się coraz trudniejsze w miarę rozwoju technologii. Niezależnie od tego, czy oglądasz film w Internecie, słuchasz nagrania audio, czy też prowadzisz z kimś rozmowę wideo, obserwuj swój instynkt i zwracaj uwagę na następujące kwestie:

Nienaturalne ruchy twarzy

Deepfakes mogą wykazywać subtelne niespójności w wyrazach twarzy i ruchach. Szukaj nienaturalnych mrugnięć, problemów z synchronizacją ust lub dziwnych tików twarzy.

Niespójne oświetlenie

Zwracaj uwagę na oświetlenie i cienie. Jeśli oświetlenie na twarzy nie pasuje do oświetlenia w pozostałej części sceny, może to być podróbka.

Problemy dźwiękowe

Uważaj na nagłe zmiany tonu głosu i nietypowe pauzy lub intonacje, które nie odzwierciedlają normalnej mowy mówcy. Niespójności w szumach tła lub nagłe zmiany dźwięków otoczenia mogą również wskazywać na głębokie fałszerstwo.

Niewyraźne

Deepfakes często mają niewielkie rozmycie wokół krawędzi twarzy, szczególnie podczas szybkich ruchów.

Niezgodność audiowizualna

Słuchaj rozbieżności między elementami audio i wizualnymi. Niedopasowane ruchy ust i dźwięk mogą być oznaką głębokiego fałszerstwa.

Niespójności kontekstowe

Jeśli treść wydaje się niewłaściwa dla danej osoby lub niewiarygodna z uwagi na okoliczności, może to być podróbka. Na przykład, jeśli osoba, którą dobrze znasz, ma pilną, nietypową prośbę, taką jak pieniądze lub dane osobowe, i czujesz presję, aby działać szybko, jest to sygnał ostrzegawczy. 

Środki ochrony

Można podjąć kilka kroków, by zmniejszyć ryzyko narażenia na treści Deepfake lub Cheapfake. Niektóre z nich, opisanych poniżej, jest zalecanych przez National Cybersecurity Alliance: 

  • Monitorowanie połączeń przychodzących z nieznanych numerów i kierowanie ich do poczty głosowej. 
  • Uwierzytelnianie wieloskładnikowe na wszystkich kontach online 
  • Używanie unikalnych, długich i złożonych haseł 
  • Kamera internetowa z fizyczną zasłoną obiektywu. 
  • Cyfrowy znak wodny na udostępnianych zdjęciach lub filmach 
  • Osobiste weryfikowanie informacji uzyskanych online lub przez telefon (o ile jest to możliwe). 
  • Weryfikowanie informacji podanych w wyglądających podejrzanie wiadomościach e-mail zawierających błędy interpunkcyjne, stylistyczne i gramatyczne. 
  • Wykorzystanie zasad zero-trust i rozwiązań do wykrywania technik Deepfake 

Podejście zero-trust ma kluczowe znaczenie dla cyberbezpieczeństwa. W kontekście ochrony przed treściami Deepfake podejście to można uznać za plan minimalizacji ryzyka. Na przykład: 

  • Wdrożenie i skrupulatne przestrzeganie procesów uwierzytelniania. 
  • Proaktywne regulowanie i monitorowanie dostępu użytkowników do danych i sieci. 
  • Po wykryciu zagrożenia należy zakładać, że doszło do naruszenia i podjąć działania redukujące „zasięg zniszczeń”. 

Ponadto specjalnie opracowane rozwiązania do inspekcji i wykrywania Deepfake mogą pomóc w ochronie tożsamości, dobrego samopoczucia i danych użytkowników. Narzędzia te są niezbędne w dobie stale przyspieszających innowacji AI, ponieważ treści Deepfake są często trudne do wykrycia przez człowieka. „W miarę jak algorytmy syntezy mowy stają się coraz lepsze i bardziej realistyczne, możemy spodziewać się, że zadanie wykrywania stanie się trudniejsze”, czytamy w raporcie National Library of Medicine z 2023 roku poświęconemu temu zagadnieniu. „Trudność w wykrywaniu podróbek mowy potwierdza ich potencjał do nadużyć i sygnalizuje, że potrzebna jest ochrona przed tym zagrożeniem”. 

Przykłady uszkodzeń Deepfakes

Przykład Deepfake

W lutym 2024 r. pewna firma z Hongkongu została oszukiwana podczas wideokonferencji wykorzystującej głębokie fałszerstwa. Zgłoszono, że 25 milionów dolarów zostało przekazanych grupie oszustów, którzy podszali się pod dyrektora finansowego firmy. Podczas wideokonferencji odbyło się kilku innych uczestników, oprócz pracownika, który został oszukany, ale wszyscy uczestnicy byli fałszywymi współpracownikami wygenerowanymi przez Deepfakes, a oszust nie zdał sobie sprawy, że wszyscy z nich byli fałszywi.

Przykład podróbki

W kwietniu 2023 r. w Arizonie w USA doszło do wirtualnego porwania. Anonimowa osoba zażądała, aby kobieta zapłaciła okup w wysokości 1 miliona dolarów za swoją 15-letnią córkę. Kobieta słyszała, jak jej córka krzyczy, krzyczy i pisze przez telefon ze sprawcą. Ujawniono, że córka nie została porwana w tym przypadku, ale była wirtualnym porwaniem. Uważa się, że sklonowany głos utworzony na podstawie głosu córki został w tym przypadku wykorzystany w rozmowie telefonicznej ze sprawcą. Federalna Komisja Handlu Stanów Zjednoczonych wydała ostrzeżenie dotyczące oszustw z użyciem sklonowanych głosów członków rodziny.

Najlepsze oszustwa Deepfake

Oszustwo romantyczne

Wszyscy słyszeliśmy o oszustwach romansowych w Internecie, w których oszuści podszywają się pod kogoś innego, na przykład członka służby wojskowej z zagranicy, i proszą o pieniądze online. Większość z nas uważa, że zna wszystkie sztuczki i nie padnie ofiarą, ale oszuści stosują nowe taktyki wykorzystujące zaawansowaną technologię DeepFake, aby wykorzystać ludzi. 

W przeszłości jednym z sygnałów ostrzegawczych oszustwa był fakt, że oszuści nie dołączą do rozmowy wideo ani nie spotkają się z Tobą osobiście. Jednak dzięki podrobionym aplikacjom do wymiany twarzy oszuści mogą teraz odejść od prowadzenia rozmów wideo — mogą z łatwością zdobyć Twoje zaufanie dzięki fałszywemu obrazowi, który sprawia, że uważasz, że dana osoba podczas rozmowy wideo jest prawdziwa. 

W ten sposób „chłopcy Yahoo” zmodernizowali taktykę. Znani od końca lat 90. chłopcy Yahoo wysyłali fałszywe wiadomości Yahoo, aby przeprowadzać różne oszustwa, takie jak phishing i zaawansowane oszustwa. Dziś chłopcy Yahoo korzystają z fałszywych połączeń wideo opartych na technologii deepfake, zdobywając zaufanie ofiar na stronach randkowych i w mediach społecznościowych. 

Tego typu oszustwa mogą stać się dość kreatywne. W 2022 roku Chikae Ide, artystka z japońskiej mangi, ujawniła, że straciła 75 milionów jenów (prawie pół miliona dolarów) na rzecz fałszywego „Mark Ruffalo” online. Choć na początku była podejrzana, to przekonująca głęboka rozmowa wideo pozwoliła jej uniknąć wątpliwości dotyczących przekazywania pieniędzy.

Oszustwo związane z rekrutacją

Dzięki głębokiej technologii oszuści mogą podszywać się pod KAŻDEGO, na przykład podszywać się pod rekruterów w popularnych witrynach, takich jak LinkedIn.   

Oszuści oferują to, co może się wydawać legalną internetową rozmową kwalifikacyjną. Korzystają z technologii wymiany danych audio i twarzy, aby przekonać Cię, że przesłuchujący pochodzi od legalnego pracodawcy. Po otrzymaniu potwierdzenia oferty pracy należy zapłacić za pakiet startowy i udostępnić swoje dane osobowe, takie jak dane bankowe w celu ustalenia wynagrodzenia. 

Pozują również kandydatów do rozmowy kwalifikacyjnej. FBI ostrzegła, że oszuści mogą wykorzystywać technologię DeepFake i skradzione dane umożliwiające identyfikację osób do tworzenia fałszywych profili kandydatów. Oszuści ubiegają się o pracę zdalną, aby uzyskać dostęp do wrażliwych danych klientów i pracowników firmy, co prowadzi do dalszej eksploatacji.

Oszustwo inwestycyjne

Rozwiązanie Deepfakes jest również powszechnie używane do fałszywych działań wspierających celebrytów w oszustwach inwestycyjnych.  W 2022 r. w Internecie rozesłano filmy z wykorzystaniem kryptowalut, w których Elon Musk rozdawał tokeny. Te głębokie fałszerstwa reklamują zbyt dobre i prawdziwe możliwości inwestycyjne i prowadzą do złośliwych witryn internetowych. Poniżej znajduje się niedawny przykład fałszywego strumienia na żywo w serwisie YouTube głębokiego fałszerstwa Elon Musk promującego możliwości kryptowalutowe airdrop.

Sample Elon Musk Deepfake livestream video on YouTube.

Nawet w przypadku legalnych i popularnych aplikacji mobilnych istnieje prawdopodobieństwo, że będą one podrabiane. Poniżej Elon Musk ponownie promuje „możliwości inwestycji finansowych” w reklamie widzianej w Duolingo. Jeśli padniesz ofiarą oszustwa i klikniesz reklamę, zostaniesz przekierowany na stronę, która po przetłumaczeniu oferuje „Możliwości inwestycji; zainwestuj 250 EUR, zarabiaj od 1000 EUR”. W innych przypadkach złośliwe oprogramowanie może nawet rozpocząć pobieranie po kliknięciu. Zachowaj ostrożność!

A deepfake of Elon Musk in a Duolingo ad.

Rozwiązanie SI Trend Micro

Przejdź do naszego centrum AI, gdzie innowacyjne technologie łączą się z najwyższej klasy zabezpieczeniami. Dowiedz się, jak AI pozwala zespołom ochrony szybki przewidywać i wykrywać zagrożenia. Regularnie sprawdzaj aktualizowane zasoby na temat rewolucji AI w cyberbezpieczeństwie, by wyprzedzać pojawiające się zagrożenia i bezpiecznie wdrażać rozwiązania sztucznej inteligencji.

Powiązane badania

Powiązane artykuły