Cyberbedrohungen
ChatGPT und die Zukunft der IT-Security
Die Software ChatGPT mit ihren bislang unerreichten KI-Fähigkeiten sorgt einerseits für Euphorie, andererseits weckt sie Ängste, auch in der IT-Security. Welche neuen Bedrohungen werden Kriminelle damit erzeugen und wie darauf reagieren -- eine Analyse.
Die Software ChatGPT von Open AI schlägt hohe Wellen und wird von manchen mit dem Erscheinen der Suchmaschine Google verglichen. Der Chatbot beantwortet mit Hilfe von KI sehr eloquent unterschiedlichste Fragen, schreibt Vorträge, Gedichte und vieles mehr. Daher sollte es niemand überraschen, dass Kriminelle – wie immer bei neuen Technologien -- bereits darüber nachdenken, wie sie diese Fähigkeiten für ihre Zwecke nutzen können. Nun, wie gefährlich ist das für die IT-Security, und wie gut sind wir darauf vorbereitet?
Tatsächlich deutlich besser, als es die Horrormeldungen der letzten Jahre und insbesondere der letzten Zeit vermuten lassen. IT-Security setzt künstliche Intelligenz in ihren Lösungen seit Auftreten der Massen-Spams (ca. 2005) ein, und genauso alt ist die Frage, ob die „bösen Gegner“ auch auf die Idee kommen, KI für ihre Zwecke zu verwenden. 2015/16 mit der ersten großen Ransomware-Welle wanderte die KI auf die Endgeräte und ermöglichte es damit, die Arbeitsweise der Technik vor Ort zu analysieren. Das Problem ist nun, ob es Angreifern gelingen könnte, unsere Technologie auszutricksen, z.B. durch eine offline trainierte, hochdynamische KI. Aber auch eine weitere Frage beschäftigt die Sicherheitsexperten bereits eine ganze Weile. Welche Auswirkungen hat die KI auf bestehende und neue Angriffsschemata?
Eine gemeinsame Studie von Europol, Unicri und Trend Micro hat dies untersucht. Für die Open AI-Software kämen diesen Ergebnissen zufolge noch besser erzeugte Social Engineering-Mittel wie Phishing oder BEC infrage. Aktuell haben auch weitere Sicherheitsforscher mit der derzeit gehypten KI erzeugte Betrüger-Mails untersucht, und sehr bedrohliche Ergebnisse erhalten. Auch scheinen die Kriminellen bereits in Untergrundforen über Wege zu diskutieren, ChatGPT ins Dark Web zu bringen.
Die Rolle von ChatGPT
Klar ist, ChatGPT hat nicht die Rolle der legendären „Büchse der Pandora“ inne, die nun geöffnet wurde, sondern stellt lediglich die erste Stufe einer vorhersehbaren Entwicklung dar, die früher oder später dazu führen wird, dass KI in der Cyberkriminalität verwendet wird. Für die Macher von Open AI mag die Veröffentlichung der vorläufige Höhepunkt einer langen Entwicklung sein, für die IT aber beginnt damit die Reise erst. ChatGPT zeigt neue Möglichkeiten und wird verschiedene Andere zu Ähnlichem inspirieren. Die dahinterstehende Technologie wird für eine breite Öffentlichkeit verfügbar sein und als Baustein größerer Lösungen kostengünstig und sinnvoll eingesetzt werden. Eine für die IT übliche und auch positive Entwicklung. Die Rückseite der Medaille ist, dass auch Kriminelle darauf zugreifen werden und die Technik effizient nutzen können.
Phishing/Angriffsmails
Phishing-Mails gehören zum Standardprogramm der meisten Angriffsvarianten, um einen ersten Ansatzpunkt für weitere kriminelle Aktivitäten zu schaffen. Und das ist oft gar nicht so einfach. Deshalb gibt es auch einen eigenen Dienstleistungssektor im digitalen Untergrund, der so genanntes „Access-as-a-Service“ mit guter Qualität bietet -- eine Frage des Preises, mehr nicht. Das Problem der Kriminellen ist, dass sowohl Technik als auch menschliche Intuition in der Lage ist, Attacken abzufangen, weshalb sie entweder in Masse (milliardenfach) gestartet werden oder, unter hohem Aufwand, mit menschlicher Interaktion.
KI zur Steigerung der Effektivität klingt für diese Tätergruppe sehr verlockend. Der aktuelle Stand der Technik mit ChatGPT kann dabei unterstützen, Mails glaubwürdiger zu formulieren. Es entfallen die häufig in Sicherheitsschulungen genannten Ausdrucks- und Rechtschreibfehler, und neue Inhalte können schneller generiert werden, so dass die Mails „attraktiver“ erscheinen.
Aber „bessere“ Phishing-Mails sind nicht die Sorgen, die Sicherheitsforscher beschäftigen, wenn sie über den Einsatz von KI im Rahmen von Access-as-a-Service nachdenken. Vielmehr befürchtet man, dass es gelingen könnte, eine KI so zu erstellen, dass sie in der Lage ist, eine interessante Kommunikation mit einem Opfer zu führen und damit den aktuell enormen Aufwand bei gezielten Angriffen zu reduzieren. Gelingt dies, sind künftige Phishing-Mails nicht mehr von echter Geschäftskommunikation zu unterscheiden. Die Opfer werden dann mit persönlichen Angriffen konfrontiert, in welche z.B. über soziale Medien verfügbares Wissen integriert ist. Die Angriffsvariante Emotet hat bereits vorgeführt, welche Effekte dies haben kann, indem sie ihre Angriffsmail als Antwort auf eine zuvor vom Opfer tatsächlich versendete Mail schrieb, zum Glück noch ohne KI-Unterstützung – mit generisch erzeugten Inhalten. Dynamite Phishing, wie diese Methode bezeichnet wird, erwies sich bereits jetzt als äußerst effektiv.
Scams
Die Fortschritte der KI in den letzten Jahren sind vor allem bezüglich Sprache und zwischenmenschliche Kommunikation zu beobachten. Das Besondere an ChatGPT ist auch, dass die Software nicht nur Bestehendes verwendet, sondern für Menschen interessante, neue Inhalte generiert. Damit liegt die Vermutung nahe, dass sie in diesem Bereich von Cyberkriminellen eingesetzt wird. Zwischenmenschliche Kommunikation gibt es bei allen Scam-Varianten. Im Unternehmensbereich ist dies z.B. die Methode Business E-Mail Compromise (BEC), bei der einem Mitarbeiter vorgegaukelt wird, er kommuniziere mit seinem Chef oder einem wichtigen Kunden. Und auch im privaten Bereich gibt es verschiedenste Varianten, wie diverse Romance Scams oder den berüchtigten „Prinzen aus Nigeria“. Kurz, das Opfer wird in einer direkten, häufig längeren Kommunikation überzeugt, am Ende unbedacht Geld an den Täter zu überweisen. Mit den aktuellen Möglichkeiten von ChatGPT dürften Mails kulturell optimiert werden, etwa mit Poesie.
Allerdings ist es auch hier eher die weitere Ausbaustufe, die Sorge bereitet. Das Erste, was fallen dürfte, sind Sprachbarrieren. Schon heute ist die KI auch in Deutsch erhältlich. Bisherige Übersetzungsmöglichkeiten können Wörter oder Sätze eindeutschen, aber nur schlecht den kulturellen Hintergrund einer Person übertünchen. Eine KI kann dies übernehmen. Schon heute gibt es verwandte Techniken im Bereich Deep Fakes, die es erlauben, die Gesichter von Menschen in Echtzeit auszutauschen und damit eine Identifikation über Video zu erschweren.
Darüber hinaus gibt es viele erprobte Betrugsschemata. Eine KI kann deshalb leicht mit erfolgreichen Fällen trainiert werden und daraus lernen, wie man Menschen am besten überzeugt. Täter können damit nicht nur ihre Effizienz steigern, sondern auch die Anzahl an Opfer, die sie parallel angreifen. Aber eine auf Betrug spezialisierte KI kann noch zu ganz anderen Einsatzszenarien führen, die wir heute noch gar nicht abschätzen können.
Malware-Erstellung
Die ChatGPT kann auch Software/Code entwickeln und debuggen. Daher gibt es die theoretische Möglichkeit, auch Malware zu erzeugen. In Proof-of-Concept-Versuchen wurde dies bereits nachgewiesen. Zwar passen die Entwickler von Open AI ihre Policies regelmäßig an, um das zu verhindern, dennoch gibt es immer wieder Beispiele, wie es dennoch funktioniert.
Noch gibt es Hürden: Der erstellte Code funktioniert zwar, fordert aber eine genaue Beschreibung durch den Anfrager. Auch wird darüber diskutiert, dass durch die KI erzeugter Code derzeit gerade bei der Softwareentwicklung noch nicht überzeugt. ChatGPT dürfte entschlossenen Cyberkriminellen deshalb heut tatsächlich noch relativ wenig nutzen. Allerdings ist auch hier die Ausbaustufe absehbar. Es ist klar, dass über kurz oder lang Angriffssoftware durch KI geschrieben wird. Damit wird beispielsweise der Zeitraum zwischen Entdeckung einer Schwachstelle, Patch derselben und Cyberangriff darauf, auf wenige Minuten reduziert -- und das sogar für technisch eher unbegabte Kriminelle. All das sind aber bekannte Herausforderungen, für die es im Bereich der Security Lösungen gibt. Schon jetzt ist die Branche mit täglich mehr als 300.000 neuen bösartigen Dateien pro Tag konfrontiert. Wir sprechen von Zero Days und wenigen Stunden Zeit, und längst hat auch bei uns die KI die Arbeit übernommen, vor allem Unbekanntes an der Art des Vorgehens zu identifizieren.
KI vs KI – es gewinnt KI
Spannend wird aber der Kampf Maschine gegen Maschine: Also ein Cyberangriff durch eine KI, den eine verteidigende KI bekämpft. Frage: Könnte eine KI einen Angriff entwickeln, der von einer verteidigenden KI nicht erkannt würde? Theoretisch ja (1), praktisch schwierig (2) und nach heutigen Maßstäben auch eigentlich nicht notwendig (3):
- Tritt KI gegen KI an, werden beide das Vorgehen der anderen erlernen und dann Lücken in der Deckung finden, soweit die Theorie. Dies bedeutet, dass mal die eine, mal die andere gewinnt. Die Frage würde an den „Rändern“ entschieden. Wieviel Zeit hat der Angreifer? Wie viele False/Positive-Erkennungen darf sich die Verteidigung erlauben? Die tatsächlichen Möglichkeiten werden von Security-Herstellern in ihren eigenen Lösungen untersucht, um auch hier Fehler zu erkennen und auszumerzen. Feldversuche zu KI gegen KI finden deshalb bereits statt und liefern auch schon Erkenntnisse.
- Um die Chance der Angriffs-KI zu erhöhen, müsste sie in der Lage sein, immer wieder ohne Konsequenzen die Verteidigung anzugreifen. Ein solches Verfahren ist im Labor bzw. Offline-Einsatz möglich. Hat ein Security Hersteller beispielsweise den vollen Funktionsumfang seiner KI auf einem Offline-Endgerät im Einsatz, kann eine Angreifer-KI so lange trainiert werden, bis sie einen Weg daran vorbei gefunden hat. Tatsächlich geht der Trend in Richtung XDR (eXtended Detection & Response). Man verlässt sich nicht mehr auf Punktlösungen, sondern hat verschiedene Technologieebenen, die zusammenspielen und sich mit zentralen Knotenpunkten austauschen. Dadurch sind die Versuche einer Angriffs-KI begrenzt. Wird sie gefunden, isoliert man den betroffenen Rechner. Weitere Versuche gibt es nicht oder müssen wieder aufwändig eingerichtet werden.
- Aber warum gibt es dennoch so viele erfolgreiche Angriffe, wenn doch die Verteidigungstechnologie „so gut“ ist? Weil Stand heute die meisten Unternehmen Security immer noch wie vor zehn Jahren betreiben und Angreifer auch ohne KI ausreichend Erfolg haben. Nach einer im Mai 2022 veröffentlichten Umfrage von Trend Micro haben z.B. Ransomware-Akteure eine 85% Erfolgswahrscheinlichkeit, Daten zu verschlüsseln, wenn sie einen Kunden infiltriert haben. In 74% der Fälle wurden diese nachweislich auch gestohlen. Das ist einer der Gründe, warum das oben erwähnte Access-as-a-Service als Geschäftsmodell boomt. Das Risiko nach Zugang noch entdeckt zu werden ist gering. Viele Organisationen sind darauf fokussiert, Angriffe am Eintrittspunkt abzuwehren (Protection/Schutz). Ist doch etwas durchgekommen, fehlt dann der Überblick. Sicherheitslösungen arbeiten oft weitestgehend unabhängig voneinander, wenn sie nicht sogar nur „Alibi“-Funktion haben, Stichwort Compliance. KI könnte die Arbeit der Akteure vereinfachen und vor allem beschleunigen.
Fazit
ChatGPT hat diese Entwicklung nicht angestoßen, sondern lediglich der Öffentlichkeit demonstriert, was in wissenschaftlichen Kreisen schon längst diskutiert wird. Man kann davon ausgehen, dass der Einsatz von KI vor allem bei der Erstinfektion eine Rolle spielen wird. Hier konkurriert Access-as-a-Service um Kunden, und die KI kann enorme Aufwände minimieren oder den Erfolg von Massenangriffen verbessern. Noch mehr als früher müssen in der Konsequenz Unternehmen davon ausgehen, dass es Angreifer schaffen werden, ihre primären Verteidigungsmechanismen auszuhebeln. Für Schulungsmaßnahmen stehen hier vor allem der Bereich BEC und andere Betrugsmaschen im Vordergrund. Achten Sie auf Prozesse, die verhindern, dass Menschen nicht unter Druck auf eigene Entscheidungen angewiesen sind. Gehen Sie davon aus, dass Verbrecher bedeutende Personen nicht nur nachahmen, sondern auch in Bild und Ton täuschen echt imitieren können und sogar teilweise über interne Informationen verfügen. Bauen Sie deshalb Prozesse, an die sich jeder Mitarbeiter inklusive der Geschäftsführung halten muss, vor allem im Geldtransfer.
Sie wird sicher in einigen Basisanwendungen zum Einsatz kommen, aber nach wie vor wird es hier ausschließlich davon abhängen, ob ein Opfer seine Cyberverteidigung erfolgreich organisiert hat oder ihm der Überblick abhandengekommen ist.
Die logische Konsequenz: Spuren des Angriffes so früh wie möglich zu entdecken (Detection) und Gegenmaßnahmen (Response) zu koordinieren. Möglichst umfassend (eXtended), da zunehmend davon auszugehen ist, dass es immer schwerer sein wird, die Spuren rechtzeitig vor einer Ausbreitung zu identifizieren. An dieser grundsätzlichen Strategie (XDR) ändert auch der Einsatz von KI auf Gegnerseite nichts. Allerdings könnte die Anzahl der Fälle in denen Detection & Response-Maßnahmen nötig werden, deutlich zunehmen.