Cyberbedrohungen
Rogue KI, die längerfristige Cyberbedrohung
„Rogue KI“ stellt eine längerfristige Bedrohung dar, denn solche Systeme handeln gegen die Interessen ihrer Schöpfer. Hier ist der ganzheitliche Ansatz von Zero-Trust gefragt, der jede von KI-Modellen verwendete Daten- und Computerebene schützt.
Yoshua Bengio, einer der „Paten“ der künstlichen Intelligenz, hat die mittlerweile allgegenwärtige Technologie mit einem Bären verglichen. Wenn wir dem Bären beibringen schlau zu agieren, um aus seinem Käfig zu entkommen, haben wir keine Kontrolle mehr über ihn. Alles, was wir danach tun können, ist zu versuchen, einen besseren Käfig zu bauen.
Dies sollten wir uns im Hinblick auf die Tools der generativen KI merken. Ihre Einführung, sowohl als eigenständige Services als auch in unzähligen Integrationen mit bestehenden Produkten, verläuft rasant. Doch es ist noch nicht zu spät, die damit verbundenen steigenden Risiken zu mindern – aber wir müssen schnell handeln.
Rogue AI verstehen
Während die meisten KI-bezogenen Cyberbedrohungen, die heute für Schlagzeilen sorgen, von Betrügern und organisierten Kriminellen ausgehen, richten Sicherheitsexperten ihr langfristiges Augenmerk auf sogenannte „Rogue AI“.
Der Begriff „Rogue KI“ bezieht sich auf Systeme der künstlichen Intelligenz, die gegen die Interessen ihrer Schöpfer, Nutzer oder ganz allgemein der Menschheit handeln. Heutige Angriffe wie Betrug und Deepfakes sind zwar besorgniserregend, aber nicht die einzige Art von KI-Bedrohung, auf die wir uns vorbereiten sollten. Sie werden in einem Katz-und-Maus-Spiel aus Aufdeckung und Umgehung erhalten bleiben. Rogue-KI ist ein neues Risiko, bei dem Ressourcen eingesetzt werden, die nicht auf das eigentliche Ziel ausgerichtet sind. Sie lässt sich in drei Kategorien einteilen: bösartig, versehentlich oder unterwandert. Jede Art hat unterschiedliche Ursachen und potenzielle Folgen; das Verständnis der Unterschiede hilft, die Bedrohungen durch Rogue-KI zu mindern.
Bösartige Rogues werden von Angreifern eingesetzt, um die Rechenressourcen anderer zu nutzen und ihre eigenen Ziele damit zu verfolgen. Die KI tut das, wozu sie entwickelt wurde, und zwar für schädliche Zwecke.
Versehentliche Rogues werden durch menschliches Versagen oder inhärente technologische Einschränkungen verursacht. Fehlkonfigurationen, unsachgemäßes Testen von Modellen und eine unzureichende Berechtigungskontrolle können dazu führen, dass ein KI-Programm falsche Antworten (wie Halluzinationen) liefert, über größere Systemberechtigungen als beabsichtigt verfügt und sensible Daten falsch handhabt.
Manipulierte Rogues nutzen vorhandene KI-Bereitstellungen und -Ressourcen. Ein Angreifer manipuliert ein vorhandenes KI-System, um es für seine eigenen Zwecke zu missbrauchen. Prompt Injections und Jailbreaks sind aufkommende Techniken, mit denen LLMs manipuliert werden. Das KI-System wird so verändert, dass es anders funktioniert, als es ursprünglich konzipiert wurde.
Der Bau eines Käfigs
Die von Rogue KI ausgehenden Bedrohungen sind komplex und erfordern eine Sicherheitsphilosophie, die alle relevanten Faktoren berücksichtigt: Identität, Anwendung, Arbeitslast, Daten, Gerät, Netzwerk und mehr. Beim Bau eines neuen Käfigs für diesen KI-Bären geht es nicht nur darum, herauszufinden, wann etwas schiefgelaufen ist – es geht darum, die Sicherheit zu verstärken, um dafür zu sorgen, dass jede von KI-Modellen verwendete Daten- und Computerebene geschützt ist. Dies ist ein Kernprinzip der Zero-Trust-Sicherheit, die bei dieser neuen Technologie von entscheidender Bedeutung ist, um auf die nächste Generation von Bedrohungen und Schwachstellen vorbereitet zu sein. Zu den Sicherheitsmaßnahmen sollten verschlüsselte, authentifizierte und überwachte Daten, Infrastruktur und Kommunikation gehören, die von KI-Services genutzt werden.
Strenge Richtlinien und Überwachungsmaßnahmen verhindern eine unkontrollierte Ressourcennutzung. Die Überprüfung von KI-Systemen im Einsatz deckt Fehlausrichtungen bei der Nutzung von KI-Daten oder -Ressourcen auf. Die Erkennung von Anomalien bei der KI-Nutzung bleibt eine letzte Verteidigungslinie, wenn es um völlig Unerwartetes geht.