Deepfakes sind Ressourcen, die möglicherweise manipulierte Audio-, Video- oder Textinhalte enthalten, die mithilfe generativer KI (GenAI) erstellt wurden. Diese werden von Cyberkriminellen dafür genutzt, ihre Opfer zu manipulieren und dazu zu bringen, vertrauliche Daten preiszugeben.
Realistische, glaubwürdige Aufnahmen, die immer schwerer als KI-generiert erkennbar sind, machen Deepfake-Videos zu einem erheblichen Datensicherheitsrisiko. Diese Videos zeigen in der Regel hochkarätige, bekannte Personen wie Politiker und Prominente, können aber auch andere Personen betreffen. Abhängig vom Ziel des Urhebers können sie dazu verwendet werden, Desinformationen zu verbreiten, eine Person oder ein Unternehmen zu betrügen oder sensible Daten und/oder Geldmittel abzurufen.
Deepfake-Videos werden durch eine komplexe Analyse der Quellinhalte erstellt. Wesentliche Details wie Gesichtszüge und -bewegungen, Maße, Hautton, Haar- und Augenfarbe sowie Körpersprache werden in die KI eingespeist, um eine möglichst genaue Darstellung zu erzeugen. Dasselbe gilt für den Hintergrund. Wenn das Büro, der Sitzungssaal oder eine andere Umgebung, in der die Person auftritt, bekannt ist, versucht der böswillige Akteur diese Umgebung mithilfe von Originalbildern und -videos möglichst genau nachzubilden.
Ähnlich wie bei der Generierung von gefälschten Videoinhalten können auch Audioaufnahmen mithilfe von KI generiert werden, indem online verfügbares Trainingsmaterial genutzt wird. Als Quellen für Referenzdaten dienen in der Regel Sprachnachrichten, Telefonanrufe, Aufzeichnungen von Gastauftritten in Podcasts und Nachrichtensendungen sowie authentische Videoinhalte, die Bilder wichtiger Personen oder Gruppen enthalten.
Das generierte Audiomaterial kann so bearbeitet werden, dass es äußerst überzeugend und glaubwürdig klingt und dem Quellmaterial sehr nahe kommt. Das von böswilligen Akteuren verwendete generative KI-Tool analysiert diverse wichtige Details wie Tonfall, Tonlage, Sprachmuster, Klarheit, Aussprache und hörbare Emotionen der in den Referenzmaterialien sprechenden Personen.
Während Deepfake-Audio- und -Videodateien mittels GenAI erstellt werden, wird bei Cheapfakes auf den Einsatz solcher Technologien verzichtet. Diese werden normalerweise manuell erstellt, um Einzelpersonen oder Gruppen zu täuschen. Dabei handelt es sich tendenziell um optische, akustische oder textbasierte Vorspiegelungen, die auf die Täuschung von Personen abzielen, die nicht ausreichend genau aufpassen, weil in der Situation beispielsweise Dringlichkeit oder emotionaler Stress herrscht. Wie das US-Heimatschutzministerium anmerkt, gab es Cheapfakes bereits vor dem digitalen Zeitalter. Das bedeutet, dass böswillige Akteure jahrhundertelang Zeit hatten, voneinander zu lernen und ihre Fähigkeiten zu verfeinern.
Böswillige Personen setzen Deepfakes und/oder Cheapfakes für eine Vielzahl von Zwecken ein, unter anderem für folgende:
Sie können verschiedene Maßnahmen ergreifen, um das Risiko zu verringern, zum Ziel eines Deepfakes oder Cheapfakes zu werden. Hierzu gehören die folgenden Maßnahmen, die teilweise von der National Cybersecurity Alliance empfohlen werden:
Ein Zero-Trust-Ansatz ist für die Cybersicherheit von entscheidender Bedeutung. Wenn es um den Schutz vor Deepfakes geht, können Zero-Trust-Prinzipien als Blaupause für die Risikominimierung gelten. Beispiele:
Darüber hinaus können speziell für die Prüfung und Erkennung von Fälschungen entwickelte Lösungen dazu beitragen, die Identitäten, das Wohlbefinden und die Daten der Anwender zu schützen. Im Zeitalter der sich permanent beschleunigenden KI-Innovation sind solche Tools unverzichtbar, da Deepfakes für Menschen manuell häufig nur schwer erkennbar sind. „Je besser und realistischer die Algorithmen für die Sprachsynthese werden, desto schwieriger wird die Erkennung“, heißt es in einem ausführlichen Bericht aus dem Jahr 2023 der National Library of Medicine zu diesem Thema. „Die Schwierigkeit, Sprachfälschungen zu erkennen, belegt ihr Missbrauchspotenzial und zeigt, dass Schutzmaßnahmen gegen diese Bedrohung erforderlich sind.“
Weiterführende Forschung
Weiterführende Artikel