Künstliche Intelligenz (KI) ist eine Technologie, mit der Computer und Maschinen menschliche Fähigkeiten nachahmen können. Dazu gehören Lernen, Verstehen, Problemlösung, Entscheidungsfindung, Kreativität und unabhängiges Handeln.
Unternehmen nutzen KI, um Innovationen voranzutreiben, ihren Teams mehr Möglichkeiten an die Hand zu geben und Betriebsabläufe auf vielfältige Weise zu optimieren. Je nach Implementierung werden KI-Funktionen häufig durch prädiktive Analysen, Machine Learning (ML) und weitere Funktionen verstärkt. Zu den Anwendungsfällen von KI gehören unter anderem:
Die Hardware, die wir nutzen, um Innovationen voranzutreiben, Prozesse zu optimieren und tägliche Abläufe zu verwalten, verändert sich. Fortschrittliche Architekturen wie RISC-Maschinen (Reduced Instruction Set Computing) – meist als ARM-Entwicklung bezeichnet – und CISC-Architekturen (Complex Instruction Set Computing) wie x86 spielen in der Computerbranche eine entscheidende Rolle. Apple, Microsoft, Broadcom, Intel und andere Unternehmen investieren massiv in KI-Technologien und haben damit das Zeitalter der KI-PCs eingeläutet. Diese Systeme sind dafür optimiert, ein breites Spektrum KI-gestützter Aufgaben zu bewältigen. Dazu gehören die Spracherkennung, die Verarbeitung natürlicher Sprache und Machine Learning. KI-spezifische Hardware beschleunigt viele dieser Aufgaben auf den Geräten. Sie ermöglicht eine leistungsstarke KI-Inferenz und sogar das KI-Training auf Alltagsgeräten.
Um Deep Learning zu ermöglichen und KI-Modelle zu trainieren, nutzen Unternehmen die Leistung und den großen Durchsatz von KI-Rechenzentren. Diese Einrichtungen beherbergen große Mengen an Hardware, darunter Grafikprozessoren (GPUs) und KI-Beschleunigungssysteme. In einem kürzlich erschienenen Forbes-Artikel zur Leistungsfähigkeit von KI-Rechenzentren heißt es, dass diese „eine beträchtliche Rechenleistung liefern," insgesamt jedoch enorme Mengen an Strom verbrauchen und hochmoderne Kühlungslösungen erfordern“.
SOCs (Security Operations Centers) können KI nutzen, um Ressourcen effizienter zuzuweisen und Risiken zu mindern. Durch Deep Learning, Automatisierung und weitere Funktionen können diese die Risikoerkennung und Reaktionsmaßnahmen beschleunigen. Dies gilt insbesondere, wenn sie eine Cybersicherheitsplattform nutzen, die Lösungen konsolidiert und KI integriert, um die Abläufe weiter zu optimieren.
Da Tools wie ChatGPT, OpenAI und Microsoft Copilot leicht zugänglich sind, versuchen böswillige Akteure fortlaufend, auf vertrauliche Daten zuzugreifen. In einigen Fällen besteht ihr Ziel darin, KI-Tools so zu manipulieren, dass ihr Verhalten dem beabsichtigten Zweck zuwiderläuft. Zu den wichtigsten KI-Sicherheitsrisiken zählen Rogue AI, Betrugsautomatisierung und eine unzureichende Datenverwaltung.
Unternehmen müssen mit Cyberkriminellen nicht nur Schritt halten, sondern ihnen einen Schritt voraus sein. Dazu müssen sie die risikobewusste und gesetzeskonforme Einführung von KI-Technologie sicherstellen. Ein wesentlicher Teil dieser Strategie besteht darin, ein besseres Gespür für die Sicherheitsrisiken von KI zu entwickeln.
Eine risikoorientierte Richtlinie, die Hinweise zur korrekten Nutzung von KI liefert, bildet einen wichtigen Orientierungspunkt für Mitarbeiter. Indem diese Vorschriften eingehalten und stets auf dem neuesten Stand gehalten werden, können Sie das Risiko für Ihr Unternehmen minimieren. Für die Compliance und effektive Datensicherheit ist es wichtig, über die richtigen Richtlinien und Verfahren zu verfügen. Beispiele staatlicher und branchenbezogener Regulierungsbehörden und die Zusammenarbeit mit Kollegen können Sie bei der Ausarbeitung Ihrer eigenen KI-Richtlinie unterstützen.
Deepfakes werden mit der Weiterentwicklung generativer KI-Technologie (GenAI) immer überzeugender. Bedrohungsakteure nutzen sie, um Einzelpersonen oder Gruppen zu manipulieren und glauben zu lassen, die generierten Bilder, Videos oder Texte seien authentisch und vertrauenswürdig. Dadurch stellen Deepfakes ein erhebliches Risiko für die Datensicherheit dar. Unabhängig davon, ob KI eine Rolle spielt oder nicht, bleiben die Absichten der Cyberkriminellen in allen Fällen identisch – Irreführung, Diebstahl und/oder Betrug.
Das Wissen um die Funktionsweise von KI-Implementierungen – auch die Nutzung und potenzielle Aufbewahrung von Daten – trägt dazu bei, wirksame Maßnahmen für die Cybersicherheit festzulegen. Während Unternehmen weiterhin KI nutzen und damit innovativ tätig sind, passen sich böswillige Akteure entsprechend an, um Schwachstellen auszunutzen. Da sich die Bedrohungslandschaft parallel zur KI ständig weiterentwickelt, müssen Unternehmen ihre KI-Implementierungen proaktiv absichern.
Wenn Sie eigene KI-Systeme entwickeln, empfiehlt OWASP außerdem Folgendes (unabhängig davon, ob Sie Ihre Modelle selbst trainieren):
Weitere Details und technische Einblicke finden Sie in der OWASP-Übersicht zur KI-Sicherheit.
Die Nutzung von GenAI ML-Funktionen für die Datenanalyse und für kreative Ergebnisse bringt neue Risiken mit sich. „Für die Sicherheit der Daten bei Machine Learning muss auch die Datenintegrität bei der Übertragung und während der Verarbeitung berücksichtigt werden“, heißt es in einem Artikel der Global Cybersecurity Alliance (GCA) zur Sicherheit von ML-Daten. „Eine unzureichende Datenintegrität kann Modellergebnisse verfälschen. Dies kann zu ungenauen oder voreingenommenen Entscheidungen mit potenziell weitreichenden Folgen führen.“
Im folgenden Artikel sind proaktive Schritte detailliert beschrieben:
KI-Modelle sind Strukturen, die aus einer Architektur und Parameterwerten bestehen. Das System bearbeitet damit Aufgaben wie das Erstellen von Prognosen oder des Generieren von Inhalten. Dies wird als Inferenz bezeichnet. Diese Aufgaben reichen vom Beantworten von Abfragen über das Erkennen von Mustern in Daten bis hin zum Erkennen von Verhaltensweisen und mehr. KI-Modelle durchlaufen normalerweise einen Trainingslauf, in dem sie die besten Parameterwerte für eine effektive Inferenz erlernen.
Abhängig von den Bedürfnissen, Zielen, Compliance-Anforderungen und auch dem Budget Ihres Unternehmens können Sie für eine Implementierung eine breite Palette idealer KI-Modelle in Betracht ziehen. Zu beachten ist jedoch, dass jedes KI-Modell ein bestimmtes Risiko birgt und außerdem unterschiedliche KI-Modelltypen zu berücksichtigen sind.
Ein Großteil der am weitesten verbreiteten und etablierten KI-Technologie, die wir heute haben, wird als klassische oder enge KI bezeichnet. Diese kann sich an die Anfragen und/oder Bedürfnisse der Anwender anpassen. Sie kann jedoch nur vorgegebene Aufgaben ausführen, die häufig nur ein Fachgebiet betreffen. Beispiele für eine enge KI sind textbasierte Chatbots in Customer Support Portals, virtuelle Assistenten wie Siri oder Google Assistant und Spracherkennungssoftware mit automatischer Übersetzungsfunktion.
Gemäß dem Daten- und KI-Team von IBM gibt es zwei funktionale Kategorien enger KI:
Wie der Begriff nahelegt, kann eine reaktive Maschine nur die Informationen nutzen, die Sie ihr im jeweiligen Moment zuführen. Sie kann zwar aktiv mit ihrer Umgebung und den Anwendern interagieren, kann sich jedoch nicht eigenständig verbessern, da sie sich die erhaltenen Informationen nicht merken kann. In Streaming- und Social Media-Plattformen integrierte Empfehlungssysteme nutzen reaktive maschinelle KI. Das gleiche gilt für Tools zur Durchführung prädiktiver Analysen von Echtzeitdaten.
Limited-Memory-KI nutzt frühere und aktuelle Daten, um Sie zu unterstützen. Die Begrenzung bezieht sich darauf, dass die von Ihnen bereitgestellten Daten nicht langfristig gespeichert werden können und im Wesentlichen im Kurzzeitspeicher verweilen. Die Daten, auf die der Zugriff möglich ist, werden jedoch genutzt, um die Leistung und Fähigkeiten kontinuierlich zu optimieren. Mit anderen Worten: Die Umgebung und Ihr Input tragen dazu bei, die KI im Hinblick auf die besten Antworten zu trainieren. Virtuelle Assistenten fallen beispielsweise in diese Kategorie.
Während die enge KI in zahlreichen Implementierungen zum Einsatz kommt, erhalten auch Frontier-AI-Modelle – generell als GenAI bezeichnet – viel Aufmerksamkeit und Investitionen. Dabei handelt es sich um noch fortschrittlichere, experimentelle und zukunftsorientierte KI-Modelle. GenAI ist darauf ausgelegt, Inhalte entweder aus Prompt-Eingaben oder durch den Zugriff auf vorhandene Daten zu generieren. Herausragende Beispiele sind GPT-4 und Google Gemini Ultra.
Der Artificial Intelligence Index Report 2024 der Stanford University schätzt, dass die Trainingskosten für Frontier AI „beispiellose Ausmaße“ erreicht haben. Allein für Google Gemini Ultra belaufen sich die Kosten auf 191 Millionen US-Dollar. Darüber hinaus heißt es dort, dass die Industrie ein wichtiger Treiber der Frontier-AI-Forschung sei. Im Jahr 2023 hat sie 51 bemerkenswerte Machine-Learning-Modelle hervorgebracht, während es im akademischen Bereich nur 15 waren. Im gleichen Zeitraum sind jedoch 21 Modelle aus der Zusammenarbeit zwischen Industrie und Wissenschaft hervorgegangen. Der Bericht führt außerdem auf, dass trotz rückläufiger privater Investitionen im Jahr 2022 die GenAI-Finanzierung auf 25,2 Milliarden US-Dollar angestiegen ist. Alle großen Akteure vermelden umfangreiche Finanzierungsrunden.
„Klassische KI zeichnet sich durch Mustererkennung aus, generative KI besticht durch Mustererstellung. „Klassische KI kann Daten analysieren und Ihnen mitteilen, was sie sieht. Generative KI kann dieselben Daten nutzen, um etwas völlig Neues zu erschaffen“, fasst Autor Bernard Marr den Unterschied in The Difference Between Generative AI and Traditional AI: An Easy Explanation for Everyone (Forbes) zusammen. „Sowohl generative KI als auch klassische KI spielen bei der Gestaltung unserer Zukunft eine wichtige Rolle, da beide einzigartige Möglichkeiten eröffnen. Für Unternehmen und Privatpersonen, die in unserer dynamischen digitalen Landschaft ihren Vorsprung halten wollen, ist die Nutzung dieser fortschrittlichen Technologien von entscheidender Bedeutung.“
Ein Algorithmus ist eine Reihe schrittweiser Anweisungen zur Lösung eines Problems oder zur Durchführung einer Aufgabe. Er definiert eine Abfolge von Operationen, die von einem Computer ausgeführt werden.
Deep Learning ist eine ML-Teilmenge. Dabei lernen Algorithmen, die aus der Struktur und Funktion der neuronalen Netzwerke des menschlichen Gehirns abgeleitet sind, anhand großer Datenmengen. „Deep“ bezieht sich auf die Vielzahl der Schichten, in denen diese künstlichen Neuronen organisiert sind. Deep Learning eignet sich hervorragend für Aufgaben wie Bild- und Spracherkennung, die Verarbeitung natürlicher Sprache und die Erkennung komplexerer Muster.
Das System KI-Agent ist darauf ausgelegt, seine Umgebung wahrzunehmen und Maßnahmen zu ergreifen, um seine Chancen zum Erreichen bestimmter Ziele zu maximieren. Mithilfe von Sensoren sammelt es Informationen und setzt Algorithmen ein, um Entscheidungen zu treffen, Maßnahmen zu ergreifen und Auswirkungen zu bewerten. Dabei lernt das System und passt sich häufig im Laufe der Zeit an.
Dieser Begriff bezeichnet Inhalte, die mithilfe von KI-Techniken wie Deep Learning erstellt oder bearbeitet wurden. Hierzu gehören generierte Bilder, Video- und Audiodateien, die überzeugend Elemente der realen Welt simulieren und so die Grenze zwischen Authentizität und Simulation verwischen.
LLMs bzw. große Sprachmodelle sind KI-Modelle mit Milliarden an Parametern, beispielsweise GPT-4. Sie werden anhand riesiger Datensätze dafür trainiert, menschenähnliche Texte zu bearbeiten und zu generieren. Mögliche Einsatzgebiete sind diverse sprachbezogene Aufgaben und Anwendungen. Die derzeit dominierende Architektur für LLMs sind Transformer.
Dabei handelt es sich in der Regel um ein Deep-Learning-Modell, das anhand eines umfangreichen Datensatzes trainiert wurde und dann für viele verschiedene Aufgaben verwendet werden kann. LLMs sind Beispiele für Basismodelle, die auf Sprache, Code, Bilder, Audio oder eine Kombination dieser Modalitäten spezialisiert oder multimodal sind. Basismodelle können auch für spezielle Anwendungen wie Chatbots optimiert werden.
Weiterführende Forschung
Weiterführende Artikel