Cyberbedrohungen
Generative KI sicher nutzen
Generative KI-Tools wie ChatGPT erfreuen sich wachsender Beliebtheit, wenn auch nicht offiziell als Tool im Unternehmen. Lassen Sie deshalb eine gewisse Vorsicht bei ihrer Nutzung walten. Wir liefern zur Sensibilisierung einige erste Anregungen dazu.
Der Hype rund um die künstliche Intelligenz ist ungebrochen. Kaum ein Tag vergeht ohne neue Nachrichten zu ChatGPT, Microsoft Copilot oder Google Gemini. Im Arbeitsalltag deutscher Unternehmen scheinen die neuen technologischen Möglichkeiten bisher aber erst sehr begrenzt angekommen zu sein. Wie das Statistische Bundesamt berichtet, nutzt in Deutschland nur jedes achte Unternehmen (zwölf Prozent) KI-Tools. Zu den größten Hindernissen (bei 48 Prozent der Unternehmen) zählen dabei Bedenken hinsichtlich der Wahrung des Datenschutzes und der Privatsphäre.
So lauten zumindest die offiziellen Zahlen. Angesichts der großen medialen Aufmerksamkeit gerade bezüglich der generativen KI-Modelle stellt sich allerdings die Frage nach der Dunkelziffer. Ob nicht doch auch in den restlichen 88 Prozent der Unternehmen der eine oder die andere Mitarbeitende schon einmal dienstliche E-Mails von ChatGPT hat verfassen lassen? Oder Grafiken mittels Adobe Firefly erstellt?
Unternehmen sind jedenfalls gut beraten, sich mit der Sicherheit von KI-Werkzeugen zu befassen. Sie sollten ihren Mitarbeitenden klare Richtlinien an die Hand geben, welche Tools sie nutzen dürfen, zu welchen Zwecken und wie. Neben der Sicherheit der Systeme sollten dabei auch Überlegungen zu Compliance, Datenschutz und Datensicherheit eine Rolle spielen.
Als sinnvolle Ergänzung zu solchen Policies und Schulungen bringen gerade die ersten Security-Anbieter ergänzende Sicherheitslösungen für GenKI-Tools auf den Markt. Diese können sowohl bei der Nutzung öffentlicher Werkzeuge als auch für solche, die in privaten Clouds gehostet werden, zusätzlichen Schutz bieten.
Sie sollten bei der Nutzung solcher Werkzeuge jedoch immer eine gewisse Vorsicht walten lassen. Dies gilt sowohl für den privaten Einsatz als auch ganz besonders für die berufliche Nutzung.
- Fragen Sie unbedingt bei Ihrer IT-Abteilung nach, bevor Sie solche Tools nutzen! Die Experten können Ihnen sagen, welche Tools zugelassen sind und unter welchen Bedingungen Sie diese einsetzen dürfen. Möglicherweise hat ihr Unternehmen auch bereits eigene KI-Tools, die besonders abgesichert sind.
- Geben Sie auf keinen Fall personenbezogene Daten, urheberrechtliche geschütztes Material oder vertrauliche Informationen (Betriebsgeheimnisse etc.) in öffentliche KI-Tools ein. Diese Systeme nutzen alle Informationen, mit denen sie „gefüttert“ werden, um weiter zu lernen. Daher besteht ein großes Risiko, dass die Informationen auf diesem Weg auch anderen Nutzern angezeigt werden. Neben dem Verlust der Daten kann dies auch juristische Folgen nach sich ziehen.
- Auch in der „anderen Richtung“ ist Vorsicht geboten: Prüfen Sie stets alle Daten nach, die Sie aus generativen KI-Tools erhalten. Die Systeme neigen dazu, zu „halluzinieren“ und täuschend echt wirkende, aber tatsächlich falsche Informationen auszugeben. Zudem können Sie auch bewusst in dieser Hinsicht manipuliert werden. (Es gilt das Prinzip: „Was reinkommt, kann auch wieder rauskommen.“)
Wenn Sie einige grundlegende Sicherheitsmaßnahmen und – sofern vorhanden – die Richtlinien Ihres Unternehmens zum KI-Einsatz beachten, können ChatGPT und Co. viele Aufgaben erleichtern – und auch noch Spaß machen.
Dieser Beitrag (wie auch schon frühere) ist zuerst im connect professional Security Awareness Newsletter erschienen. Interessenten können sich hier kostenlos für den Newsletter anmelden.