Was ist Deepfake?

Deepfake-Definition

Der Begriff „Deepfake“ ist eine Mischung aus „Deep Learning“ und „Fake“ und wurde 2017 von einem Reddit-Benutzer geprägt. Eine Deepfake ist eine gefälschte Bild-, Video- oder Sprachaufzeichnung, bei der das Bild einer Person durch das einer anderen Person ersetzt wird. Diese dienen dazu, Menschen zu täuschen oder zu unterhalten. Mit fortschrittlichem maschinellem Lernen können Deepfakes sehr realistisch aussehen. Früher waren Deepfakes vor allem für ihre humorvolle Nutzung in sozialen Medien bekannt. Ihr Missbrauchspotenzial wurde jedoch schnell offensichtlich und Deepfakes sind jetzt ein erhebliches Problem für Datenschutz, Sicherheit und Informationen.

Deepfake-Videos

Realistische, glaubwürdige Aufnahmen, die immer schwerer als KI-generiert erkennbar sind, machen Deepfake-Videos zu einem erheblichen Datensicherheitsrisiko. Diese Videos zeigen in der Regel hochkarätige, bekannte Personen wie Politiker und Prominente, können aber auch andere Personen betreffen. Abhängig vom Ziel des Urhebers können sie dazu verwendet werden, Desinformationen zu verbreiten, eine Person oder ein Unternehmen zu betrügen oder sensible Daten und/oder Geldmittel abzurufen. 

Deepfake-Videos werden durch eine komplexe Analyse der Quellinhalte erstellt. Wesentliche Details wie Gesichtszüge und -bewegungen, Maße, Hautton, Haar- und Augenfarbe sowie Körpersprache werden in die KI eingespeist, um eine möglichst genaue Darstellung zu erzeugen. Dasselbe gilt für den Hintergrund. Wenn das Büro, der Sitzungssaal oder eine andere Umgebung, in der die Person auftritt, bekannt ist, versucht der böswillige Akteur diese Umgebung mithilfe von Originalbildern und -videos möglichst genau nachzubilden.

Sprachklonen

Ähnlich wie bei der Generierung von gefälschten Videoinhalten können auch Audioaufnahmen mithilfe von KI generiert werden, indem online verfügbares Trainingsmaterial genutzt wird. Als Quellen für Referenzdaten dienen in der Regel Sprachnachrichten, Telefonanrufe, Aufzeichnungen von Gastauftritten in Podcasts und Nachrichtensendungen sowie authentische Videoinhalte, die Bilder wichtiger Personen oder Gruppen enthalten. 

Das generierte Audiomaterial kann so bearbeitet werden, dass es äußerst überzeugend und glaubwürdig klingt und dem Quellmaterial sehr nahe kommt. Das von böswilligen Akteuren verwendete generative KI-Tool analysiert diverse wichtige Details wie Tonfall, Tonlage, Sprachmuster, Klarheit, Aussprache und hörbare Emotionen der in den Referenzmaterialien sprechenden Personen.

Cheapfakes

Während Deepfake-Audio- und -Videodateien mittels GenAI erstellt werden, wird bei Cheapfakes auf den Einsatz solcher Technologien verzichtet. Diese werden normalerweise manuell erstellt, um Einzelpersonen oder Gruppen zu täuschen. Dabei handelt es sich tendenziell um optische, akustische oder textbasierte Vorspiegelungen, die auf die Täuschung von Personen abzielen, die nicht ausreichend genau aufpassen, weil in der Situation beispielsweise Dringlichkeit oder emotionaler Stress herrscht. Wie das US-Heimatschutzministerium anmerkt, gab es Cheapfakes bereits vor dem digitalen Zeitalter. Das bedeutet, dass böswillige Akteure jahrhundertelang Zeit hatten, voneinander zu lernen und ihre Fähigkeiten zu verfeinern.

Cheapfake-Ansätze

  • Physisches Schneiden und Montieren von Filmen 
  • Abhören und/oder Montieren von Fragmenten aufgezeichneter Phrasen und/oder ganzer Sätze 
  • Verlangsamen oder Beschleunigen von Video- und/oder Audioinhalten, um einen gewünschten Effekt oder eine gewünschte Suggestion zu erzielen 
  • Filmen und/oder Aufzeichnen von Doppelgängern und/oder Stimmen, die denen von wichtigen Personen ähneln 
  • Billige, minderwertige computergenerierte Bilder (CGI), Motion-Capture-Technologie und Greenscreens

Wie werden Deepfakes hergestellt? 

Bei der Erstellung von Deepfakes werden erweiterte Computerprogramme namens Generative Adversarial Networks (GANs) verwendet, um gefälschte Bilder zu erstellen, die real aussehen. Es gibt vier Hauptschritte: 

Datenerfassung: Zum einen werden Medieninhalte (Bilder, Videos oder Audios) der Zielperson gesammelt. Diese Sammlung wird verwendet, um das Computerprogramm zu schulen. 

Schulung des Modells: Der GAN wird mit den erhobenen Daten geschult. Ein Teil des GAN erstellt gefälschte Bilder, während der andere Teil prüft, ob sie real aussehen. 

Verfeinerung: Techniken wie Gesichtsmarker und Motion Capture werden verwendet, um Deepfake mit realistischen Ausdrücken und Bewegungen natürlich aussehen zu lassen. 

Endproduktion: Der fertige Deepfake wird dann mit den Originalmedien kombiniert, wodurch ein nahtloses und überzeugendes Stück gefälschter Inhalte entsteht. 

Obgleich die oben genannten Dinge etwas komplex klingen, kann jeder angesichts der großen Anzahl an Softwareanwendungen, die der Öffentlichkeit zugänglich sind, von DeepFaceLab bis DALL-E und Midjourney (obwohl letztere Sicherheitsvorkehrungen getroffen hat) Deepfake erstellen. 

Warum sich um Deepfakes kümmern?

Es ist leicht, Cybersicherheit als abstraktes Konzept zu betrachten, das aus dem Alltag entfernt wird – aber die Auswirkungen bösartiger Deepfake-Nutzung betreffen den Einzelnen und die Gesellschaft insgesamt:

Ihre persönliche Privatsphäre

Deepfakes kann Ihre Privatsphäre verletzen, indem es nicht einvernehmliche und oft schädliche Inhalte erstellt. Dies ist besonders besorgniserregend in Fällen von Deepfake-Pornographie, in denen die Gesichter von Einzelpersonen ohne deren Zustimmung expliziten Inhalten überlagert werden.

Ihre Sicherheit und Finanzen

Deepfake-Videoanrufe können verwendet werden, um Menschen zu imitieren, oft mit der Absicht, Sie zu täuschen, Geld oder sensible Informationen zu verschenken. Jeder kann Opfer eines Deep-Fake-Betrugs werden – und schwerwiegende Folgen wie Finanzbetrug und Identitätsdiebstahl erleiden.

Politische Stabilität

Deepfakes können bewaffnet werden, um politische Unruhen zu verursachen. Gefälschte Videos von Politikern, die instruierende Aussagen machen oder sich an illegalen Aktivitäten beteiligen, können die öffentliche Meinung beeinflussen und demokratische Prozesse stören.

Rechtliche und ethische Bedenken

Die Erstellung und Verteilung von Deepfakes wirft erhebliche rechtliche und ethische Fragen auf. Fragen der Zustimmung, des geistigen Eigentums und des Rechts auf das Abbild stehen im Mittelpunkt laufender gesellschaftlicher Debatten.

Medienintegrität

Journalisten und Medienorganisationen stehen bei der Überprüfung der Authentizität von Inhalten vor neuen Herausforderungen. Deepfakes können die Glaubwürdigkeit von Nachrichtenkanälen untergraben

Bedrohungen und Folgen von Deepfakes 

Deepfakes stellen mehrere Bedrohungen für die Cybersicherheit dar:

Identitäts- und Videoanrufbetrug

Cyberkriminelle können Deepfakes während Videoanrufen verwenden, um sich als Einzelpersonen auszugeben. Egal, ob es sich um einen Freund, ein Familienmitglied, einen potenziellen Partner oder ein Online-Bewerbungsgespräch handelt – Videoanrufe bieten dem Betrüger die perfekte Möglichkeit, einen Deep-Fake-Angriff durchzuführen, sich als Ziel auszugeben und Sie dazu zu bringen, Geld oder persönliche Informationen zu geben.

Falschinformation/Desinformation

Deepfakes können verwendet werden, um überzeugende, aber falsche Inhalte zu erstellen und Fehlinformationen/Desinformation zu verbreiten. Dies kann das öffentliche Vertrauen in die Medien untergraben, Wahlen beeinflussen und Gesellschaften destabilisieren.

Identitätsdiebstahl

Deepfakes können Identitätsdiebstahl erleichtern, indem sie realistische gefälschte Identitäten erstellen oder bestehende kompromittieren, was zu finanziellen und Reputationsschäden führt.

Erpressung und Erpressung

Schädliche Akteure können kompromittierende Deepfake-Videos erstellen, um Einzelpersonen zu erpressen oder zu erpressen, indem sie die Macht der erstellten Beweise nutzen.

Erosion des Vertrauens

Das Vorhandensein von Deepfakes kann das Vertrauen in digitale Inhalte untergraben. Menschen beginnen, an der Echtheit legitimer Medien zu zweifeln, was zu einer breiteren Vertrauenskrise in die digitale Kommunikation führt.

So erkennen Sie Deepfake-Videos

Die Erkennung von Deepfakes wird immer schwieriger, da sich die Technologie verbessert. Ob Sie sich ein Video online ansehen, einen Audioclip anhören oder einen Videoanruf mit jemandem führen, folgen Sie Ihren Instinkten und achten Sie auf Folgendes:

Unnatürliche Gesichtsbewegungen

Deepfakes können subtile Unstimmigkeiten bei Mimik und Bewegungen aufweisen. Achten Sie auf unnatürliches Blinzeln, Lippensynchronisierungsprobleme oder ungewöhnliche Gesichts-Tics.

Inkonsistente Beleuchtung

Achten Sie auf Beleuchtung und Schatten. Wenn die Beleuchtung im Gesicht nicht mit der Beleuchtung im Rest der Szene übereinstimmt, könnte dies eine Deepfake sein.

Tonprobleme

Achten Sie auf plötzliche Tonveränderungen und ungewöhnliche Pausen oder Intonationen, die nicht die normale Sprache des Sprechers widerspiegeln. Unstimmigkeiten im Hintergrundrauschen oder plötzliche Verschiebungen in Umgebungsgeräuschen können ebenfalls auf eine Deepfake hinweisen.

Verschwommen

Deepfakes haben oft leichte Unschärfen um die Ränder des Gesichts, insbesondere bei schnellen Bewegungen.

Audio-visuelle Diskrepanzen

Achten Sie auf Diskrepanzen zwischen den Audio- und visuellen Elementen. Ungleiche Lippenbewegungen und Audio können ein Zeichen für Deepfake sein.

Kontextuelle Inkonsistenzen

Wenn der Inhalt für die Person untypisch oder unter den gegebenen Umständen unplausibel erscheint, kann es sich um einen Deepfake handeln. Wenn die Person, die Sie gut kennen, zum Beispiel eine dringende, ungewöhnliche Anfrage hat, wie Geld oder persönliche Informationen, und Sie sich unter Druck gesetzt fühlen, schnell zu handeln, ist dies ein Warnsignal.

Schutzmaßnahmen 

Sie können verschiedene Maßnahmen ergreifen, um das Risiko zu verringern, zum Ziel eines Deepfakes oder Cheapfakes zu werden. Hierzu gehören die folgenden Maßnahmen, die teilweise von der National Cybersecurity Alliance empfohlen werden: 

  • Filtern eingehender Anrufe, die von unbekannten Rufnummern stammen, und Weiterleitung an die Sprachbox 
  • Einrichtung einer Multi-Faktor-Authentifizierung für alle Online-Konten 
  • Verwendung eindeutiger, langer und komplexer Passwörter 
  • Schützen einer Webcam durch einen physischen Verschluss, der das Objektiv abdeckt, während sie nicht genutzt wird 
  • Hinzufügen eines digitalen Wasserzeichens zu Ihren Fotos und/oder Videos, bevor Sie diese weitergeben 
  • Persönliche Bestätigung von Details, die online oder am Telefon mitgeteilt wurden (sofern möglich) 
  • Überprüfung verdächtiger E-Mails auf Details wie Zeichensetzung, Tonfall und Grammatik 
  • Nutzung von Zero-Trust-Prinzipien und Lösungen zur Erkennung von Deepfakes 

Ein Zero-Trust-Ansatz ist für die Cybersicherheit von entscheidender Bedeutung. Wenn es um den Schutz vor Deepfakes geht, können Zero-Trust-Prinzipien als Blaupause für die Risikominimierung gelten. Beispiele: 

  • Sicherstellen, dass Authentifizierungs- und Autorisierungsprozesse vorhanden sind und eingehalten werden 
  • Proaktive Regulierung und Überwachung von Anwenderzugriffen auf Daten und Netzwerke 
  • Bei Erkennung einer Bedrohung von einem Einbruch ausgehen und den „Explosionsradius“ minimieren 

Darüber hinaus können speziell für die Prüfung und Erkennung von Fälschungen entwickelte Lösungen dazu beitragen, die Identitäten, das Wohlbefinden und die Daten der Anwender zu schützen. Im Zeitalter der sich permanent beschleunigenden KI-Innovation sind solche Tools unverzichtbar, da Deepfakes für Menschen manuell häufig nur schwer erkennbar sind. „Je besser und realistischer die Algorithmen für die Sprachsynthese werden, desto schwieriger wird die Erkennung“, heißt es in einem ausführlichen Bericht aus dem Jahr 2023 der National Library of Medicine zu diesem Thema. „Die Schwierigkeit, Sprachfälschungen zu erkennen, belegt ihr Missbrauchspotenzial und zeigt, dass Schutzmaßnahmen gegen diese Bedrohung erforderlich sind.“

Beispiele für Deepfakes Damage 

Deepfake-Beispiel

Im Februar 2024 wurde ein Unternehmen aus Hongkong durch eine Videokonferenz betrogen, die Deepfakes ausnutzte. Es wurde berichtet, dass 25 Millionen US-Dollar an eine Gruppe von Betrügern überwiesen wurden, die sich als Chief Financial Officer des Unternehmens ausgeben. Die Videokonferenz wurde mit mehreren anderen Teilnehmern abgehalten, zusätzlich zu dem Mitarbeiter, der betrogen wurde, aber alle Teilnehmer waren gefälschte Kollegen, die von Deepfakes generiert wurden, und der betrogene Mitarbeiter erkannte nicht, dass alle gefälscht waren.

Beispiel für Cheapfake

Im April 2023 ereignete sich ein virtueller Entführungsvorfall in Arizona, USA. Eine anonyme Person verlangte, dass eine Frau ein Lösegeld von 1 Million US-Dollar für ihre 15-jährige Tochter zahlte. Die Frau hörte Berichten zufolge das Schreien, Schreien und das telefonieren ihrer Tochter mit dem Täter. Es hat sich gezeigt, dass die Tochter in diesem Fall eigentlich nicht entführt wurde, sondern eine virtuelle Entführung war. Man geht davon aus, dass im Telefonat mit dem Täter in diesem Fall eine geklonte Stimme verwendet wurde, die auf der Stimme der Tochter basiert. Tatsächlich hat die US Federal Trade Commission eine Warnung vor Betrug mit geklonten Stimmen von Familienmitgliedern ausgegeben.

Top Deepfake-Betrug

Romantik-Betrug

Wir haben alle schon von Online-Romantikbetrug gehört, bei dem Betrüger sich als jemand anders ausgeben, wie z. B. als Militärdienstmitglied im Ausland, und online nach Geld fragen. Während die meisten von uns glauben, dass wir alle Tricks kennen und nicht zum Opfer fallen werden, setzen Betrüger neue Taktiken ein, die fortschrittliche Deepfake-Technologie verwenden, um Menschen auszunutzen. 

Historisch gesehen ist eines der Warnsignale eines Romantikbetrugs, dass die Betrüger nicht an einem Videoanruf teilnehmen oder Sie persönlich treffen. Mit Deepfake Face-Swapping-Apps können Betrüger jedoch jetzt Videoanrufe tätigen – sie können Ihr Vertrauen leicht gewinnen, indem sie ein gefälschtes Bild verwenden, das Sie glauben lässt, dass die Person, die sich auf dem Videoanruf befindet, real ist. 

So haben die „Yahoo Boys“ ihre Taktiken verbessert. Die Yahoo Boys waren seit den späten 1990er-Jahren bekannt und sendeten betrügerische Yahoo-Mails, um verschiedene Betrugsversuche wie Phishing und erweiterten Gebührenbetrug durchzuführen. Heute nutzen die Yahoo Boys gefälschte Videoanrufe, die auf Deepfake-Technologie basieren und das Vertrauen von Opfern auf Dating-Websites und sozialen Medien gewinnen. 

Diese Arten von Deep-Fake-Romantik-Betrug können ziemlich kreativ werden. Chikae Ide, eine japanische Manga-Künstlerin, hat im Jahr 2022 offengelegt, dass sie 75 Millionen Yen (fast eine halbe Million USD) an einen gefälschten „Mark Ruffalo“ online verloren hat. Obwohl sie anfangs misstrauisch war, wurde ihr Zweifel an der Überweisung von Geld durch den überzeugenden Deep Fake Video Call beseitigt.

Rekrutierungsbetrug

Mit Deepfake-Technologie können Betrüger sich als JEDER ausgeben, zum Beispiel als Personalvermittler auf beliebten Stellenseiten wie LinkedIn ausgeben.   

Betrüger bieten an, was als legitimes Online-Bewerbungsgespräch erscheinen könnte. Sie verwenden Deepfake-Audio- und Face-Swaping-Technologie, um Sie davon zu überzeugen, dass der Interviewer von einem legitimen Arbeitgeber stammt. Sobald Sie die Bestätigung eines Stellenangebots erhalten haben, werden Sie gebeten, für das Starterpaket zu bezahlen und Ihre personenbezogenen Daten, wie z. B. Bankdaten für die Gehaltseinrichtung, weiterzugeben. 

Sie stellen sich auch als Bewerber aus. Das FBI warnte davor, dass Betrüger Deepfake-Technologie und gestohlene PII von Personen verwenden können, um gefälschte Kandidatenprofile zu erstellen. Betrüger bewerben sich für Remote-Jobs mit dem Ziel, auf sensible Kunden- und Mitarbeiterdaten des Unternehmens zuzugreifen, was zu einer weiteren Ausnutzung führt.

Investitionsbetrug

Deepfakes werden auch häufig für die gefälschte Befürwortung von Prominenten bei Investitionsbetrug verwendet.  Im Jahr 2022 wurden Deepfake-Videos mit Elon Musk online verteilt. Diese Deepfakes werben für zu gute bis wahre Investitionsmöglichkeiten und führen zu bösartigen Websites. Unten sehen Sie ein aktuelles Beispiel für einen gefälschten YouTube-Livestream eines Elon Musk Deepfake, der Airdrop-Möglichkeiten für Kryptowährungen fördert.

Sample Elon Musk Deepfake livestream video on YouTube.

Selbst bei legitimen und beliebten mobilen Anwendungen gibt es die Möglichkeit von Deepfakes. Im Folgenden wird Elon Musk in einer Werbung auf Duolingo erneut für „finanzielle Investitionsmöglichkeiten“ werben. Wenn Sie auf den Betrug fallen und auf die Anzeige klicken, gelangen Sie zu einer Seite, die, wenn sie übersetzt wird, „Investitionsmöglichkeiten; investieren Sie 250 €, verdienen Sie sich ab 1.000 €“. In anderen Fällen kann Malware sogar mit dem Herunterladen beginnen, sobald Sie klicken. Seien Sie vorsichtig!

A deepfake of Elon Musk in a Duolingo ad.

Trend Micro KI-Lösung 

Der KI-Hub von Trend bringt innovative Technologie und erstklassige Sicherheit zusammen. Informieren Sie sich, wie KI Sicherheitsteams in die Lage versetzt, Bedrohungen zügig zu prognostizieren, zu antizipieren und zu erkennen. Prüfen Sie regelmäßig, welche aktuellen Ressourcen zum transformativen Einfluss von KI auf die Cybersicherheit es gibt. Sie helfen Ihnen dabei, neuen Bedrohungen einen Schritt voraus zu bleiben und KI-Lösungen sicher zu implementieren.

Weiterführende Forschung

Weiterführende Artikel