Detection and Response
Cybersicherheits-Policies für generative KI
Nur wenige Monate nach ihrer Markteinführung scheint generative KI bereits ein fester Bestandteil der IT-Werkzeuge in Unternehmen zu werden. Doch ohne KI-Sicherheits-Policies können sich die Vorteile schnell ins Gegenteil verkehren.
Das Potenzial von KI zur Lösung einer Reihe von Problemen ist ein Dauerbrenner in den Diskussionen. Gleichzeitig aber wird vor den Risiken der neuen Technologie für die Sicherheit der Unternehmens-IT und für die menschliche Zivilisation allgemein gewarnt. So geschehen am 30. Mai 2023, als das Center for AI Safety einen offenen Brief veröffentlichte, der von mehr als 350 Wissenschaftlern und Wirtschaftsführern unterzeichnet war und vor den extremsten potenziellen Gefahren der KI warnte.
Zumindest für den Schutz der Unternehmens-IT lässt sich mit der richtigen Kombination aus Cybersicherheits-Policies und fortschrittlichen Tools sorgen und damit eine Grundlage für den Umgang mit der sich weiter entwickelnden Komplexität der KI schaffen. Es gibt einige diesbezügliche Risiken, über die sich CISOs Gedanken machen sollten:
- die Fähigkeit der KI, sich als Menschen auszugeben und ausgeklügelte Phishing-Methoden anzuwenden;
- die mangelnde Klarheit über das Eigentum an Daten, die in öffentliche KI-Plattformen eingegeben und aus ihnen generiert werden;
- und die völlige Unzuverlässigkeit, wozu nicht nur von der KI erzeugte schlechte Informationen gehören, sondern auch KI, die durch Informationen aus dem Internet und anderen Quellen „vergiftet“ wird.
Was können CISOs tun, um die KI-Sicherheit ihrer Organisationen zu verbessern?
Gute Policies sind die Grundlage für KI-Sicherheit
IT-Sicherheitsverantwortliche haben in den letzten zehn Jahren schmerzhaft erfahren müssen, dass das Verbot der Nutzung bestimmter Software und Geräte in der Regel nicht funktioniert, ja sogar das Risiko für das Unternehmen erhöhen kann. Wenn eine Anwendung oder Lösung bequem genug ist - oder wenn das, was von der Organisation genehmigt wurde, nicht alles tut, was die Benutzer brauchen oder wollen - finden Mitarbeiter einen Weg, bei den Tools zu bleiben, die sie bevorzugen. So entsteht das Problem der Schatten-IT.
Angesichts der Tatsache, dass ChatGPT innerhalb von nur zwei Monaten nach dem Start mehr als 100 Millionen Nutzer zählte, kann man davon ausgehen, dass diese und andere generative KI-Plattformen bereits gut in die Arbeitsabläufe der Menschen integriert sind und sich nicht mehr aus dem Alltag verbannen lassen, ohne ein „Schatten-K“"-Problem zu schaffen, das gefährlicher ist als alle bisherigen Umgehungslösungen. Außerdem treiben viele Unternehmen die Einführung von KI als Mittel zur Produktivitätssteigerung voran und würden sich nun schwer tun, deren Einsatz zu verhindern.
CISOs müssen also den Menschen Zugang zu KI-Tools gewähren und diesen mit vernünftigen Policies für deren Nutzung versehen. Im Internet kursieren erste Beispiele für solche Policies für große Sprachmodelle wie ChatGPT sowie Ratschläge zur Bewertung von KI-Sicherheitsrisiken. Allerdings gibt es noch keine Standardansätze. Selbst die IEEE hat das Thema noch nicht vollständig im Griff, und die Qualität der online verfügbaren Informationen verbessert sich zwar stetig, ist aber nicht durchweg zuverlässig. Jedes Unternehmen, das nach Modellen für die KI-Sicherheitspolitik sucht, sollte sehr selektiv vorgehen.
Vier Überlegungen für KI-Sicherheits-Policies
Angesichts der vorhandenen Risiken sind der Schutz der Privatsphäre und der Integrität von Unternehmensdaten offensichtliche Ziele für die KI-Sicherheit. Folglich sollte jede Unternehmens-Policy mindestens Folgendes beinhalten:
- Verbieten Sie die Weitergabe sensibler oder privater Informationen an öffentliche KI-Plattformen oder Lösungen von Drittanbietern außerhalb der Kontrolle des Unternehmens. Solange es nicht mehr Klarheit gibt, sollten Unternehmen alle Mitarbeiter, die ChatGPT und andere öffentliche generative KI-Tools nutzen, anweisen, die von ihnen geteilten Informationen so zu behandeln, als würden sie sie auf einer öffentlichen Website oder sozialen Plattform veröffentlichen, riet kürzlich Gartner.
- Die Datenströme nicht miteinander mischen. Behalten Sie klare Trennungsregeln für verschiedene Arten von Daten bei, so dass persönlich identifizierbare Informationen und alles, was dem gesetzlichen oder behördlichen Schutz unterliegt, niemals mit Daten kombiniert wird, die der Öffentlichkeit zugänglich gemacht werden können. Dazu kann es erforderlich sein, ein Klassifizierungsschema für Unternehmensdaten zu erstellen, falls ein solches nicht bereits existiert.
- Validieren oder überprüfen Sie alle von einer KI-Plattform generierten Informationen, um zu bestätigen, dass sie wahr und korrekt sind. Das Risiko für ein Unternehmen, mit KI-Ergebnissen an die Öffentlichkeit zu gehen, die offenkundig falsch sind, ist sehr hoch. Plattformen, die Zitate und Fußnoten erzeugen können, sollten dazu verpflichtet werden, und diese Referenzen müssen überprüft werden. Andernfalls sollten alle Behauptungen, die in KI-generierter Text aufstellt, auf Richtigkeit überprüft werden, bevor der Inhalt verwendet wird.
- Einführung - und Anpassung - einer Zero-Trust-Haltung. Zero Trust ist eine robuste Möglichkeit zur Verwaltung der Risiken, die mit dem Zugriff von Benutzern, Geräten und Anwendungen auf die IT-Ressourcen und Daten des Unternehmens verbunden sind. Das Konzept hat in dem Maße an Bedeutung gewonnen, in dem sich Unternehmen mit der Auflösung der traditionellen Grenzen von Unternehmensnetzwerken auseinandersetzen müssen. Die Fähigkeit von KI, vertrauenswürdige Entitäten zu imitieren, wird Zero-Trust-Architekturen wahrscheinlich in Frage stellen, was die Kontrolle nicht vertrauenswürdiger Verbindungen sogar noch wichtiger macht.
Die Wahl der richtigen Werkzeuge
KI-Sicherheits-Policies lassen sich technologisch unterstützen und durchsetzen. Neu entwickelte KI-Tools sollen dabei helfen, KI-generierte Betrügereien und Scams, plagiierte Texte und andere Missbräuche zu erkennen. Diese werden schließlich zur Überwachung der Netzwerkaktivitäten eingesetzt werden und quasi als Radarpistolen oder Rotlichtkameras fungieren, um bösartige KI-Aktivitäten zu erkennen.
Bereits heute können Unternehmen erweiterte Erkennungs- und Reaktionslösungen (Extended Detection and Response, XDR) einsetzen, um abweichende Verhaltensweisen in der IT-Umgebung zu überwachen. XDR nutzt KI und maschinelles Lernen, um riesige Mengen an Telemetriedaten zu verarbeiten und die Einhaltung von Netzwerknormen in großem Umfang zu überwachen. XDR ist zwar keine kreative, generative KI wie ChatGPT, aber ein trainiertes Tool, das spezifische Sicherheitsaufgaben mit hoher Präzision und Zuverlässigkeit ausführen kann.
Andere Arten von Überwachungs-Tools wie Security Information and Event Management (SIEM), Application Firewalls und Lösungen zur Verhinderung von Datenverlusten können ebenfalls unterstützen, um das Web-Browsing und die Softwarenutzung der Benutzer zu managen und die Informationen zu überwachen, die die IT-Umgebung des Unternehmens verlassen - und so Risiken und potenzielle Datenverluste zu minimieren.
Kenne deine Risikogrenzen
Neben der Festlegung intelligenter Unternehmens-Policies für die KI-Sicherheit und der umfassenden Nutzung aktueller und neuartiger Tools sollten Unternehmen auch genau festlegen, welches Risiko sie bereit sind, in Kauf zu nehmen, um die Vorteile der KI-Funktionen zu nutzen. Ein von der Society for Human Resource Management veröffentlichter Artikel empfiehlt, dass Unternehmen ihre Risikotoleranz formell festlegen, um Entscheidungen darüber zu treffen, wie umfassend KI eingesetzt werden kann - und wofür.