Cyber-Kriminalität
Hype vs. Realität: KI im Cyberuntergrund, Teil 1
Generative künstliche Intelligenz übt Faszination nicht nur im legalen Bereich aus, sondern auch auf den cyberkriminellen Untergrund. Was bieten die Akteure mit Chatbots an: etwa Deaktivierung von Zensurbeschränkungen, aber nichts Bahnbrechendes.
Generative künstliche Intelligenz (KI) hat in letzter Zeit eine erstaunliche Karriere in der Branche hingelegt, da die Medien ständig darüber berichten und fast wöchentlich neue bahnbrechende Anwendungen auf den Markt kommen. Aber sehen wir die gleiche Art von Umbruch mit dieser Technologie auch im kriminellen Untergrund? Nein.
Der cyberkriminellen Welt sind KI-Anwendungen nicht fremd und KI wurde schon missbraucht, bevor generative Modelle zum Industrietrend wurden. In einem gemeinsam mit Europol und UNICRI veröffentlichten Bericht untersuchten wir, wie der kriminelle Untergrund KI ausnutzt. „Malicious Uses and Abuses of Artificial Intelligence“ erschien 2020, nur eine Woche nach der Ankündigung von GPT-3 (Generative Pre-trained Transformer-3).
Seither hat die KI-Technologie ihren Siegeszug angetreten. Die IT-Branche hat einen regelrechten Boom neuer großer Sprachmodelle (LLMs) und Tools erlebt, die entweder versuchen, mit ChatGPT zu konkurrieren oder die von OpenAI hinterlassenen Lücken zu füllen. Diese Technologien fördern quelloffene oder spezialisierte Modelle sowie neue Forschung und Anwendungen zur Verbesserung und sogar zum Angriff auf LLMs.
Es wäre zu erwarten, dass der kriminelle Untergrund die Innovationen aufgreift und neue, gefährliche Anwendungen entwickelt. Ein Großteil der Presse scheint diese Theorie zu unterstützen. Aber ist dies wirklich der Fall? Das Interesse an generativer KI im Untergrund ist sicherlich dem allgemeinen Markthype gefolgt. Das zeigt sich daran, dass es in Untergrundforen immer mehr Bereiche gibt, die sich mit dem Thema befassen, wie z. B. das englische Hack Forums, das jetzt einen Bereich mit dem Namen „Dark AI“ hat.
Doch die dort diskutierten Themen sind weit entfernt von bahnbrechenden Neuerungen. Die Diskussionen drehen sich eher um mögliche neue Wege zur Aufhebung der Zensurbeschränkungen von ChatGPT, um die Frage nach neuen kriminellen Alternativen zu ChatGPT oder wie die Funktionalität am besten ausgenutzt werden kann.
ChatGPT soll den Code verbessern
Malware-Entwickler nutzen ChatGPT in der Regel, um Code-Schnipsel schneller zu generieren. Sie fragen ChatGPT typischerweise nach bestimmter Funktionalität. Anschließend bauen sie die von der KI generierten Codes in Malware oder andere Komponenten ein.
Es gibt viele Beispiele von Malware-Entwicklern, die behaupten, ChatGPT für ihre Kreationen verwendet zu haben. Im Cracked.io-Forum bot ein Benutzer einen „SoundCloud-Viewbot“ an, der angeblich fast vollständig von ChatGPT aus einzelnen Eingaben generiert und vom Benutzer zusammengesetzt wurde.
Sowohl „gute“ als auch „böswillige“ Entwickler setzen auf ChatGPT, um ihren Code zu verfeinern oder um einfach einen Basiscode zu erstellen, den sie später optimieren oder verfeinern können.
Angebot von ChatGPT als Feature
ChatGPT eignet sich am besten für die Erstellung von glaubhaften Texten, die in Spam- und Phishing-Kampagnen eingesetzt werden können. Wir fanden in einigen cyberkriminellen Produkten eine ChatGPT-Schnittstelle, die es ermöglicht, Spam- und Phishing-Mail-Kopien zu erstellen. So gibt es etwa die Spam-Handling Software GoMailPro, die AOL Mail, Gmail, Hotmail, Outlook, ProtonMail, T-Online und Zoho Mail unterstützt, die nun mit ChatGPT ausgestattet wurde. Die KI-Software unterstützt viele Sprachen, ein großer Vorteil für Spammer, die somit mehr Opfer erreichen können.
Jailbreak von ChatGPT gegen Zensurbeschränkungen
ChatGPT ist so programmiert, dass es auf illegale und kontroverse Themen nicht antwortet, eine Einschränkung, die die Art der Fragen, die man dem Tool stellen kann, stark beeinflusst. Illegale oder bösartige Themen sind jedoch genau die Bereiche, zu denen Kriminelle Ratschläge benötigen. Daher versuchen einige in dieser Community, ChatGPT-Prompts zu erstellen, zu finden und zu teilen, die die Zensurbeschränkungen des Chatbots umgehen können.
Ein in der „Dark AI“-Sektion des Hack Forums beliebtes Thema ist „DAN 7.0 [FFEN]“. Hier werden ChatGPT-Jailbreak-Prompts diskutiert und ausgetauscht. FFEN steht für „Freedom From Everything Now“ und ist ein Jailbreak-Prompt, der eine Art ChatGPT Alter Ego erstellt und Antworten ermöglicht, bei denen alle ethischen Einschränkungen aufgehoben sind.
Es gibt auch weitere Prompts, die ein Alter Ego erstellen ohne Zensurbeschränkung, so etwa „Trusted Evil Confidant“. Es existiert eine ganze Seite mit Jailbreak-Prompts, über deren Qualität Nutzer abstimmern können.
OpenAI, der Entwickler von ChatGPT, reagiert normalerweise auf Jailbreak-Versuche und deaktiviert diese. Es ist ein ständiges Katz- und Mausspiel: Sobald neue Updates für den LLM bereitstehen, werden Jailbreaks deaktiviert. Die Kriminellen reagieren und erstellen neue Jailbreaks, um wieder einen Schritt voraus zu sein.
Weitere kriminelle Chatbots
Etwa seit Juni lässt sich das Aufkommen von vorgeblich auf Kriminelle zugeschnittenene Sprachmodellen in Untergrundforen erkennen.
Sie alle scheinen ähnliche Problemstellungen der Cyberkriminellen anzusprechen: das Interesse an Anonymität und die Möglichkeit, die Zensur zu umgehen und bösartigen Code zu generieren. Einige Sprachmodelle scheinen jedoch seriöser zu sein als andere, und es ist schwierig zu erkennen, welche von ihnen tatsächlich LLMs sind, die mit benutzerdefinierten Daten trainiert wurden. Sie könnten aber auch nur ein Wrapping für ein Jailbreak-Prompts sein. In diesem Fall wären diese Tools nur eine clevere Möglichkeit, Kunden zu betrügen.
Der Aufstieg und Fall von WormGPT
WormGPT wurde auf Hack Forums angekündigt und ist angeblich im März entwickelt worden. Nach Angaben des Verkäufers bestand das Ziel darin, schnelle und stabile Antworten zu generieren, eine unbegrenzte Anzahl von Zeichen zu haben, die Zensur zu umgehen und einen starken Fokus auf den Datenschutz zu legen. Nachdem es auf großes Interesse stieß, wurde es im Juni über einen Werbe-Post in dem Hack Forums offiziell für die Öffentlichkeit freigegeben.
In der Ankündigung werden Funktionen von WormGPT vorgestellt, wie z. B. die Unterstützung „mehrerer KI-Modelle“, das Speichern von Gesprächskontext und sogar eine bevorstehende Code-Formatierungsfunktion.
Der Chatbot kostet 100 € pro Monat oder 550 € pro Jahr, wobei sogar eine private Einrichtungsoption für 5.000 € erhältlich ist. Der Autor behauptet, dass WormGPT ein trainiertes, vollständig angepasstes System sei, frei von jeglichen Einschränkungen durch OpenAI. Anfang August dann wurde der Verkauf des Services gestoppt, angeblich wegen übermäßiger Medienaufmerksamkeit und dadurch schlechter Werbung. Trotz aller Kontroversen nehmen wir an, dass WormGPT wahrscheinlich das einzige Beispiel eines tatsächlich angepassten LLMs war.
Im nächsten Teil zeigen wir weitere Tools, die aber entweder gar nicht existierten oder Fake waren.