Cyberbedrohungen
Riegel vor ungebremste Nutzung der AI
Manche bezeichnen die Anforderungen an AI-Systeme im AI Act der EU als Innovationskiller. Weit gefehlt! Es geht „nur“ um den verantwortungsvollen Umgang mit AI-Technologie, sowohl auf Seiten der Entwickler, Hersteller, Betreiber als auch Anwender.
Die EU hat mit dem AI-Act das weltweit erste rechtlich verbindliche Regelwerk auf den Weg gebracht. Obwohl von einigen Kritikern als Innovationskiller im Bereich AI bezeichnet, kodifiziert der AI-Act im Wesentlichen nur das Rechtsverständnis der EU im Bereich AI.
Im Ergebnis lässt sich festhalten, dass aufgrund der Technologiedefinition der EU auf den ersten Blick unerwartet viele Technologien unter das Regelwerk fallen. Diese Sichtweise macht vielleicht sogar den Aspekt des „Technology Killers“ nachvollziehbar. Doch im weiteren Verlauf des Werks kommt die Einteilung in Risikoklassen hinzu: Hochrisiko, beschränktes und minimales Risiko sowie unzulässige Systeme. Die meisten AI-Systeme, die heute im Einsatz sind, sind keine Hochrisikosysteme und damit eigentlich nicht betroffen. Aber selbst für Hochrisikosysteme bestehen die entsprechenden Pflichten im Wesentlichen in dem, was man von einem verantwortungsvollen Umgang mit AI erwarten sollte - nur sind sie jetzt im AI-Act kodifiziert.
Für die meisten Anwendungsfälle gibt es keine Einschränkungen für Nutzer oder Betreiber. Für den Rest werden Dinge verlangt, die eigentlich selbstverständlich sein sollten. Und für die explizit verbotenen Anwendungsbereiche gibt es einen guten Grund.
Die Auswirkungen des AI-Acts auf die Cybersicherheit sind also überraschend gering. Und Hersteller, Betreiber, Bevollmächtigte, Importeure und Händler von Cybersicherheitslösungen unterliegen in der Regel nur sehr wenigen Verpflichtungen. Natürlich empfiehlt es sich für alle Beteiligten, über den Wortlaut des Gesetzes hinauszublicken und die Absicht dahinter zu berücksichtigen. Dies bedeutet z.B. auch beim Betrieb von AI-Systemen mit minimalem Risiko die Qualitäts- und Compliance-Kriterien von Hochrisikosystemen anzuwenden - wenn auch nicht im gesamtem Umfang so zumindest die Dokumentation - allgemein und bzgl. der Risikoklasse.
Eigentlich unzulässige Systeme, die dem Rechtsverständnis der EU offen widersprechen, sind in Extremfällen der Strafverfolgung zulässig. Aber auch hier in engen Grenzen, die durch richterliche Anordnungen gedeckt sein müssen, und nicht einfach gegen den Bürger eingesetzt werden dürfen. Letztlich also auch „nur“ eine Kodifizierung des Rechtsverständnisses der EU.
Aus Sicht der Entwickler sollte weder die Entwicklung risikoreicher Systeme noch der streng eingeschränkte Einsatz nicht zugelassener Systeme eine unüberwindbare Hürde darstellen. Vielmehr gilt es, mögliche Risiken und Minderungsmaßnahmen zu dokumentieren und die Konformität entsprechend zu erklären. Zumal der Betrieb von Hochrisikosystemen in einer Sandbox während der Entwicklung die Anforderungen weiter lockert.
Die Regeln im AI Act betreffen darüber hinaus auch den Bereich des Datenschutzes und den Schutz der EU-Bürgerinnen und Bürger vor dem Einsatz von AI-Technologien - sei es durch Unternehmen oder auch Mitgliedstaaten! Gerade der Bereich des Datenschutzes ist aber natürlich vielen Unternehmen außerhalb der EU ein Dorn im Auge. Sie gehen nach dem Prinzip vor: Erst einmal alles sammeln, was geht, und wenn man erwischt wird einfach „Entschuldigung“ sagen. Auf welcher Seite der Diskussion man als Bürger steht, bleibt jedem selbst überlassen. Der rechtliche Rahmen, den die EU vorgibt, ist jedoch mehr als eindeutig.
Jenseits der EU
Blickt man über die Grenzen der EU hinaus, so ist der „konforme“ Betrieb von AI ein allgemeines Thema. Das amerikanische NIST hat mit dem „AI Risk Management Framework“ eine Reihe von Richtlinien/Empfehlungen für den Betrieb/Evaluierung von AI-Systemen veröffentlicht. Diese sind zwar nicht unmittelbar rechtsverbindlich, es ist aber davon auszugehen, dass diese Richtlinien mittelfristig die vertraglichen Regelungen - insbesondere im nordamerikanischen Raum - beeinflussen werden.
Darüber hinaus gab es in der Vergangenheit durchaus Veröffentlichungen des NIST, die z.B. durch Executive Order rechtlich verbindlich wurden - zumindest für staatliche Organisationen. Aber auch die ISO als internationales Pendant zum amerikanischen NIST hat mit der ISO/IEC 42001 entsprechende Standards im Programm. Auch das Secure Controls Framework das insbesondere bei gleichzeitigen Audits gegen verschiedene Gesetze/Normen/Anforderungskataloge zum Einsatz kommt, hat mit der Domäne „AAT“ (Artificial & Autonomous Technologies) bereits frühzeitig über 60 Controls definiert, die im Rahmen von Audits geprüft werden können.