Was sind Deepfakes?

Deepfakes sind Ressourcen, die möglicherweise manipulierte Audio-, Video- oder Textinhalte enthalten, die mithilfe generativer KI (GenAI) erstellt wurden. Diese werden von Cyberkriminellen dafür genutzt, ihre Opfer zu manipulieren und dazu zu bringen, vertrauliche Daten preiszugeben.

Deepfake-Videos

Realistische, glaubwürdige Aufnahmen, die immer schwerer als KI-generiert erkennbar sind, machen Deepfake-Videos zu einem erheblichen Datensicherheitsrisiko. Diese Videos zeigen in der Regel hochkarätige, bekannte Personen wie Politiker und Prominente, können aber auch andere Personen betreffen. Abhängig vom Ziel des Urhebers können sie dazu verwendet werden, Desinformationen zu verbreiten, eine Person oder ein Unternehmen zu betrügen oder sensible Daten und/oder Geldmittel abzurufen.

Deepfake-Videos werden durch eine komplexe Analyse der Quellinhalte erstellt. Wesentliche Details wie Gesichtszüge und -bewegungen, Maße, Hautton, Haar- und Augenfarbe sowie Körpersprache werden in die KI eingespeist, um eine möglichst genaue Darstellung zu erzeugen. Dasselbe gilt für den Hintergrund. Wenn das Büro, der Sitzungssaal oder eine andere Umgebung, in der die Person auftritt, bekannt ist, versucht der böswillige Akteur diese Umgebung mithilfe von Originalbildern und -videos möglichst genau nachzubilden.

Klonen von Stimmen

Ähnlich wie bei der Generierung von gefälschten Videoinhalten können auch Audioaufnahmen mithilfe von KI generiert werden, indem online verfügbares Trainingsmaterial genutzt wird. Als Quellen für Referenzdaten dienen in der Regel Sprachnachrichten, Telefonanrufe, Aufzeichnungen von Gastauftritten in Podcasts und Nachrichtensendungen sowie authentische Videoinhalte, die Bilder wichtiger Personen oder Gruppen enthalten.

Das generierte Audiomaterial kann so bearbeitet werden, dass es äußerst überzeugend und glaubwürdig klingt und dem Quellmaterial sehr nahe kommt. Das von böswilligen Akteuren verwendete generative KI-Tool analysiert diverse wichtige Details wie Tonfall, Tonlage, Sprachmuster, Klarheit, Aussprache und hörbare Emotionen der in den Referenzmaterialien sprechenden Personen.

Cheapfakes

Während Deepfake-Audio- und -Videodateien mittels GenAI erstellt werden, wird bei Cheapfakes auf den Einsatz solcher Technologien verzichtet. Diese werden normalerweise manuell erstellt, um Einzelpersonen oder Gruppen zu täuschen. Dabei handelt es sich tendenziell um optische, akustische oder textbasierte Vorspiegelungen, die auf die Täuschung von Personen abzielen, die nicht ausreichend genau aufpassen, weil in der Situation beispielsweise Dringlichkeit oder emotionaler Stress herrscht. Wie das US-Heimatschutzministerium anmerkt, gab es Cheapfakes bereits vor dem digitalen Zeitalter. Das bedeutet, dass böswillige Akteure jahrhundertelang Zeit hatten, voneinander zu lernen und ihre Fähigkeiten zu verfeinern.

Cheapfake-Ansätze

  • Physisches Schneiden und Montieren von Filmen
  • Abhören und/oder Montieren von Fragmenten aufgezeichneter Phrasen und/oder ganzer Sätze
  • Verlangsamen oder Beschleunigen von Video- und/oder Audioinhalten, um einen gewünschten Effekt oder eine gewünschte Suggestion zu erzielen
  • Filmen und/oder Aufzeichnen von Doppelgängern und/oder Stimmen, die denen von wichtigen Personen ähneln
  • Billige, minderwertige computergenerierte Bilder (CGI), Motion-Capture-Technologie und Greenscreens

Beispiele für Deepfakes und Cheapfakes

Böswillige Personen setzen Deepfakes und/oder Cheapfakes für eine Vielzahl von Zwecken ein, unter anderem für folgende:

  • Manipulation neuer Mitarbeiter, damit diese Unternehmens- und/oder personenbezogene Informationen preisgeben
  • Darstellung als Prominente oder Politiker, um an Geld zu kommen und/oder Fehlinformationen zu verbreiten
  • Vortäuschen von Sachlagen wie Katastrophen, Unfällen oder Todesfällen für Versicherungsansprüche
  • Verleiten anderer zur Verwendung gefälschter Websites, die als echt vorgetäuscht werden
  • Manipulieren von Aktien und Investments, indem der Anschein erweckt wird, man sei eine Führungskraft
  • Einzelpersonen in peinliche Situationen bringen und/oder deren Ruf zu schädigen

Schutzmaßnahmen

Sie können verschiedene Maßnahmen ergreifen, um das Risiko zu verringern, zum Ziel eines Deepfakes oder Cheapfakes zu werden. Hierzu gehören die folgenden Maßnahmen, die teilweise von der National Cybersecurity Alliance empfohlen werden:

  • Filtern eingehender Anrufe, die von unbekannten Rufnummern stammen, und Weiterleitung an die Sprachbox
  • Einrichtung einer Multi-Faktor-Authentifizierung für alle Online-Konten
  • Verwendung eindeutiger, langer und komplexer Passwörter
  • Schützen einer Webcam durch einen physischen Verschluss, der das Objektiv abdeckt, während sie nicht genutzt wird
  • Hinzufügen eines digitalen Wasserzeichens zu Ihren Fotos und/oder Videos, bevor Sie diese weitergeben
  • Persönliche Bestätigung von Details, die online oder am Telefon mitgeteilt wurden (sofern möglich)
  • Überprüfung verdächtiger E-Mails auf Details wie Zeichensetzung, Tonfall und Grammatik

Nutzung von Zero-Trust-Prinzipien und Lösungen zur Erkennung von Deepfakes

Ein Zero-Trust-Ansatz ist für die Cybersicherheit von entscheidender Bedeutung. Wenn es um den Schutz vor Deepfakes geht, können Zero-Trust-Prinzipien als Blaupause für die Risikominimierung gelten. Beispiele:

  • Sicherstellen, dass Authentifizierungs- und Autorisierungsprozesse vorhanden sind und eingehalten werden
  • Proaktive Regulierung und Überwachung von Anwenderzugriffen auf Daten und Netzwerke
  • Bei Erkennung einer Bedrohung von einem Einbruch ausgehen und den „Explosionsradius“ minimieren

Darüber hinaus können speziell für die Prüfung und Erkennung von Fälschungen entwickelte Lösungen dazu beitragen, die Identitäten, das Wohlbefinden und die Daten der Anwender zu schützen. Im Zeitalter der sich permanent beschleunigenden KI-Innovation sind solche Tools unverzichtbar, da Deepfakes für Menschen manuell häufig nur schwer erkennbar sind. „Je besser und realistischer die Algorithmen für die Sprachsynthese werden, desto schwieriger wird die Erkennung“, heißt es in einem ausführlichen Bericht aus dem Jahr 2023 der National Library of Medicine zu diesem Thema. „Die Schwierigkeit, Sprachfälschungen zu erkennen, belegt ihr Missbrauchspotenzial und zeigt, dass Schutzmaßnahmen gegen diese Bedrohung erforderlich sind.“ 

Weiterführende Forschung

Weiterführende Artikel