Cyber-Kriminalität
Gefährliche Propaganda mit Deep Fake
Erst kürzlich warnten wir vor „virtuellem Kidnapping“, nun geht es erneut um das Missbrauchspotenzial von generativer künstlicher Intelligenz – Deep Fake-Videos. An einem konkreten Beispiel zeigen wir die Gefahr und Erkennungsmöglichkeiten auf.
Kürzlich postete der ZDF-Moderator Christian Sievers auf X (vormals Twitter) ein Video, in dem er höchst selbst im Rahmen einer Sendung des „heute journals“ eine Online-Betrugsmasche bewirbt. „Höchst selbst“ ist dabei relativ: Zwar entsprechen Stimme und Aussehen dem echten Christian Sievers, erzeugt wurde das Ganze allerdings durch Computer. Er selbst hat damit nichts zu tun und warnt deshalb vor der beworbenen unseriösen Geldanlage. Die dahinterstehende Technik nennt sich „Deepfake“ und das BSI hat schon vor zwei Jahren dazu ein interessantes Erklärvideo veröffentlicht. Das Thema ist brisant und darf nicht aus dem Fokus der Öffentlichkeit verschwinden.
Schon länger gibt es Befürchtungen, dass mittels Deepfakes Videos von Politikern erzeugt werden könnten, die den Menschen irgendeinen Unsinn erzählen. So wie im aktuellen Beispiel gehen Experten davon aus, dass diese Videos auf Social Media-Kanälen gepostet werden. Die Sorge: Menschen werden sie nicht als Fake erkennen und Dementis der Betroffenen als Lügen abtun. Dies ist angesichts zunehmend faktenloser Diskussionen in sozialen Medien eine durchaus realistische Befürchtung. Jedoch haben Politiker eine relativ hohe Reichweite, und die Diskussion um mögliche Fälschungen findet dann offen statt.
Das Szenario im Fall Sievers wird zukünftig vermutlich die häufigere Variante sein: Denn für die Erzeugung eines Deepfakes benötigt man Sprach- und Bildaufnahmen des gefälschten Opfers. Und die gibt es von Menschen, die im Verhältnis oft zu sehen und zu hören sind, zur Genüge. Dazu gehören neben Politikern eben auch Fernsehmoderatoren, Influencer, Sportler, Pressesprecher von Unternehmen und viele mehr. Sie alle können mittels Deepfakes dazu „verleitet“ werden, Dinge zu sagen oder zu tun. Die Glaubwürdigkeit so erzeugter Videos ist dann abhängig vom Vertrauen, das man persönlich in diese Person hat – und ihren Möglichkeiten, mit hoher Reichweite zu dementieren. Das macht es so schwierig.
Schleichwerbung im heute journal?
Das Video leitet mit der Erkennungsmelodie und Ansprache durch Herrn Sievers ein und wird weitergeführt in einen vom Computer erzeugten Pitch für eine vermutlich auf Kryptowährungs-Scam basierende Betrugsmethode. „Mit dem Einsatz von Betrag X können Sie ein Vermögen machen!“ Dieser klassischste aller Abzockersprüche ist nicht sofort als solcher zu identifizieren, wenn er von vertrauenswürdigen Institutionen oder Personen kommt. Das wird hier genutzt. Schließlich hat man es ja durchaus schon erlebt, dass Prominente für Aktien, Geldanleihen oder ähnliches werben. Da übersieht man vielleicht schon einmal, dass in Nachrichtensendungen des öffentlich-rechtlichen Rundfunks in Deutschland keine Schleichwerbung erlaubt ist.
Wie kann man trotzdem solche „gefakten“ Videos erkennen?
Vorsicht: Deepfakes
- Deepfake-Videos in deutscher Sprache sind für die künstliche Intelligenz im Moment noch deutlich schwieriger zu erzeugen als im Englischen. Das liegt an den vielen Sonderregeln, Betonungen und Feinheiten, die der Schrecken aller Schüler sind und das Erlernen unserer Sprache auch für den Computer erschweren. Und so lässt es sich oft noch heraushören, wenn irgendetwas nicht stimmt, auch wenn man den Grund dafür möglicherweise nicht benennen kann. Achten Sie auf Betonungen und Sprache! Bleibt ein ungutes Gefühl, ist es möglicherweise Fake.
- Aus böswilliger Absicht erzeugte Deepfake-Videos werden praktisch ausschließlich über soziale Netzwerke verteilt. Sie sollten deshalb allem, was in solchen Medien ausgetauscht wird, ein besonderes hohes Misstrauen entgegenbringen. Suchen Sie im Internet nach möglichen Quellen und Beweisen für die Aussage. Fragen Sie zur Not bei der betroffenen Person selbst nach!
Ein wichtiger Punkt zur Erkennung von Betrug kann nicht oft genug wiederholt werden: Praktisch immer wird nach Geld oder Daten gefragt, wobei der Verwendungszweck durchaus auch glaubwürdig klingen kann. Beispielsweise sollen Sie Aktienanlagen tätigen, „die garantiert Gewinne abwerfen“ oder Bankkonten verifizieren, damit diese nicht gesperrt werden. Allein in den USA wurden Opfer im Jahre 2022 in sogenannten Investment-Scam-Aktivitäten um mehr als drei Milliarden US-Dollar betrogen, so das FBI. Deepfakes von bekannten Persönlichkeiten werden dabei eine zunehmend größere Rolle spielen. Seien Sie deshalb gerade bei der Geldanlage äußerst vorsichtig!
Dieser Beitrag (wie auch schon frühere) ist zuerst im connect professional Security Awareness Newsletter erschienen. Interessenten können sich hier kostenlos für den Newsletter anmelden.