APT und gezielte Angriffe
Policy als Grundlage für KI-Sicherheit
Generative KI wird zum festen Bestandteil der IT-Tools von Unternehmen. CISOs müssen daher möglichst schnell KI-Sicherheitsrichtlinien und -technologien einführen, die sehr reale und aktuelle Risiken mindern können. Was ist dabei wichtig?
Mit der richtigen Kombination aus Cybersicherheitsrichtlinien und fortschrittlichen Tools können Unternehmen die Grundlage für den Umgang mit der sich immer komplexer gestaltenden KI legen.
Am 30. Mai 2023 veröffentlichte das Center for AI Safety einen offenen Brief, unterzeichnet von mehr als 350 Wissenschaftlern und Wirtschaftsführern, der vor den potenziellen Gefahren der KI warnte. Und wenn die klügsten Köpfe hinter einer neuen Technologie fordern, die Abschwächung deren Risiken zur globalen Priorität zu machen, sollte man dem Ruf folgen.
Die Furcht vor dem hypothetisch absolut Schlimmsten kann eine gefährliche Ablenkung von den KI-Risiken sein, mit denen wir es bereits heute zu tun haben, wie z. B. interne Vorurteile und erfundene Fakten. Letzteres sorgte kürzlich für Schlagzeilen, als sich herausstellte, dass die von der KI generierten Schriftsätze eines Anwalts völlig erfundene Fälle enthielten.
Einige der unmittelbaren KI-Sicherheitsrisiken, über die sich CISOs Gedanken machen sollten, sind die Fähigkeit der KI, sich als Person auszugeben und ausgeklügelte Phishing-Methoden anzuwenden sowie die Unklarheit über das Eigentum an Daten, die in öffentliche KI-Plattformen eingegeben und aus diesen generiert werden. Zudem sind nicht nur von KI erzeugte Informationen häufig unzuverlässig, sondern es geht auch von KI eine Gefahr aus, die durch schlechte Informationen „vergiftet“ wird, die sie aus dem Internet und anderen Quellen aufnimmt.
Was können CISOs tun, um die KI-Sicherheit ihrer Organisationen zu verbessern?
Anleitung für eine KI-Sicherheitsrichtlinie
IT-Sicherheitsverantwortliche haben in den letzten zehn Jahren auf die harte Tour gelernt, dass das Verbot der Nutzung bestimmter Software und Geräte in der Regel nach hinten losgeht und sogar das Risiko für das Unternehmen erhöhen kann. Wenn eine Anwendung oder Lösung bequem genug ist - oder wenn das, was vom Unternehmen genehmigt wurde, nicht alles tut, was die Benutzer brauchen oder wollen - finden die Menschen einen Weg, bei den Tools zu bleiben, die sie bevorzugen: das Problem der Schatten-IT.
Wenn man bedenkt, dass ChatGPT innerhalb von nur zwei Monaten nach dem Start mehr als 100 Millionen Nutzer zählte, kann man davon ausgehen, dass auch andere generative KI-Plattformen bereits fest in die Arbeitsabläufe integriert sind. Diese aus dem Unternehmen zu verbannen, könnte ein „Schatten-KI“-Problem schaffen, das gefährlicher ist als alle bisherigen Ausweichlösungen. Außerdem treiben viele Unternehmen die Einführung von KI als Mittel zur Produktivitätssteigerung voran und würden sich nun schwer tun, deren Einsatz zu verhindern. Wenn die Policy beschließt, nicht zugelassene KI zu verbieten, sollte sie erkannt und möglicherweise gesperrt werden.
CISOs müssen also den Menschen Zugang zu KI-Tools gewähren, doch dies begleitet von vernünftigen Richtlinien für deren Nutzung. Im Internet kursieren erste Beispiele für solche Richtlinien für große Sprachmodelle wie ChatGPT sowie Ratschläge zur Bewertung von KI-Sicherheitsrisiken. Es gibt jedoch noch keine Standardansätze. Selbst die IEEE hat das Thema noch nicht vollständig im Griff, und die Qualität der online verfügbaren Informationen verbessert sich zwar stetig, ist aber nicht durchweg zuverlässig. Jedes Unternehmen, das nach Modellen für die KI-Sicherheitspolitik sucht, sollte sehr selektiv vorgehen.
Angesichts der beschriebenen Risiken sind der Schutz der Privatsphäre und der Integrität von Unternehmensdaten offensichtliche Ziele für die KI-Sicherheit. Jede Unternehmensrichtlinie sollte mindestens Folgendes beinhalten:
- Unterbinden Sie die Weitergabe sensibler oder privater Informationen an öffentliche KI-Plattformen oder Lösungen von Drittanbietern außerhalb der Kontrolle des Unternehmens. „So lang es nicht mehr Klarheit gibt, sollten Unternehmen alle Mitarbeiter, die ChatGPT und andere öffentliche generative KI-Tools nutzen, anweisen, die von ihnen geteilten Informationen so zu behandeln, als würden sie sie auf einer öffentlichen Website oder sozialen Plattform veröffentlichen“, riet kürzlich Gartner.
- Richten Sie eine strikte Trennung der Datenströme ein. Behalten Sie klare Trennregeln für verschiedene Arten von Daten bei, so dass persönlich identifizierbare Informationen und alles, was dem gesetzlichen oder behördlichen Schutz unterliegt, niemals mit Daten kombiniert wird, die der Öffentlichkeit zugänglich gemacht werden können. Dies kann die Erstellung eines Klassifizierungsschemas für Unternehmensdaten erforderlich machen, falls ein solches nicht bereits existiert.
- Validieren oder überprüfen Sie alle von einer KI-Plattform generierten Informationen, um bestätigen zu können, dass sie wahr und korrekt sind. Das Risiko für ein Unternehmen, mit KI-Ergebnissen, die offenkundig falsch sind, an die Öffentlichkeit zu gehen, ist enorm und kann sowohl den Ruf als auch die Finanzen schädigen. Plattformen, die Zitate und Fußnoten erzeugen können, sollten dazu verpflichtet werden, dies auch zu tun. Diese Angaben sollten überprüft werden. Auch alle Behauptungen, die in einem KI-generierten Text aufgestellt werden, müssen überprüft werden, bevor der Inhalt verwendet wird. „Obwohl generative KI [ChatGPT] den Anschein erweckt, komplexe Aufgaben zu erfüllen, verfügt es über keinerlei Wissen über die zugrunde liegenden Konzepte“, warnt Gartner. „Das Tool macht einfach nur Vorhersagen.“
- Einführung - und Anpassung - eines Zero-Trust-Ansatzes. Zero Trust ist eine robuste Methode zur Verwaltung der Risiken, die mit dem Zugriff von Benutzern, Geräten und Anwendungen auf die IT-Ressourcen und Daten des Unternehmens verbunden sind. Das Konzept hat in dem Maße an Bedeutung gewonnen, in dem sich Unternehmen mit der Auflösung der traditionellen Grenzen von Unternehmensnetzwerken auseinandersetzen müssen. Die Fähigkeit von KI, vertrauenswürdige Entitäten zu imitieren, wird Zero-Trust-Architekturen wahrscheinlich in Frage stellen, was die Kontrolle nicht vertrauenswürdiger Verbindungen sogar noch wichtiger macht. Die aufkommenden Bedrohungen durch KI machen die Wachsamkeit von Zero Trust entscheidend.
Die Wahl der richtigen Werkzeuge
KI-Sicherheitsrichtlinien können mit Technologie untermauert und durchgesetzt werden. Neue KI-Tools sind in Entwicklung. Sie unterstützen dabei, KI-generierte Scams und Schemata, plagiierte Texte und andere Missbräuche zu erkennen. Diese werden schließlich zur Überwachung der Netzwerkaktivitäten eingesetzt werden und quasi als Radarpistolen oder Rotlichtkameras fungieren, um bösartige KI-Aktivitäten zu erkennen.
Bereits heute können erweiterte Erkennungs- und Reaktionslösungen (Extended Detection and Response, XDR) von der Norm abweichende Verhaltensweisen in der IT-Umgebung eines Unternehmens überwachen. XDR nutzt KI und maschinelles Lernen, um riesige Mengen an Telemetriedaten (d. h. aus der Ferne erfasste Daten) zu verarbeiten, und so Netzwerknormen in großem Umfang zu überwachen. XDR ist zwar keine kreative generative KI wie ChatGPT, aber ein trainiertes Tool, das spezifische Sicherheitsaufgaben mit hoher Präzision und Zuverlässigkeit ausführen kann.
Andere Arten von Überwachungs-Tools wie Security Information and Event Management (SIEM), Application Firewalls und Lösungen zur Verhinderung von Datenverlusten dienen ebenfalls dazu, um das Browsing und die Softwarenutzung der Benutzer zu verwalten und die Informationen zu überwachen, die die IT-Umgebung des Unternehmens verlassen - und so Risiken und potenzielle Datenverluste zu minimieren.
Kenne deine Grenzen
Neben intelligenten Unternehmensrichtlinien für die KI-Sicherheit und der umfassenden Nutzung aktueller und neuartiger Tools sollten Unternehmen auch genau festlegen, welches Risiko sie bereit sind, in Kauf zu nehmen, um die Vorteile von KI-Funktionen zu nutzen. Die Society for Human Resource Management empfiehlt Unternehmen, ihre Risikotoleranz formell festzulegen, um Entscheidungen darüber zu treffen, wie umfassend KI eingesetzt werden kann - und wofür.