KI-Tools sind aus dem Unternehmensalltag nicht mehr wegzudenken – und das ist gut so. Die Produktivitätsgewinne sind real, die Zeitersparnis messbar. Doch während Mitarbeitende längst mit KI arbeiten, hinkt die organisatorische Steuerung oft hinterher. Shadow KI ist weniger ein Sicherheitsproblem als vielmehr ein Governance-Gap, den es zu schliessen gilt.
Die Risiken sind real: Amazon warnte seine Mitarbeitende, nachdem ChatGPT-Antworten verdächtige Parallelen zu vertraulichen Informationen aufwiesen, die vermutlich als Trainingsdaten verwendet wurden. Bei ChatGPT und Grok wurden über 370.000 „geteilte“ Conversations durch Suchmaschinen indexiert – Nutzer teilten unwissentlich sensible Daten öffentlich, darunter Passwörter, medizinische Anfragen und Unternehmensinformationen.
Diese Vorfälle sind keine Einzelfälle, sondern symptomatisch für einen Trend: Mitarbeitende nutzen KI-Tools pragmatisch und effizient, aber die Sicherheitsinfrastruktur hält nicht Schritt.
Wer nutzt was mit welchen Daten?
Kurz gesagt: Alle Bereiche nutzen KI. Marketing erstellt Content, Entwickler schreiben Code, HR formuliert Stellenanzeigen, das Management bereitet Entscheidungen vor. Bis zu 75% der Mitarbeitenden setzen bereits KI-Tools ein – meist pragmatisch und ergebnisorientiert, aber häufig ohne abgestimmte Prozesse der einer entsprechenden Sensibilisierung.
Dabei fliesst eine breite Palette an Daten in die Tools: Kundendaten und Vertragsinformationen, Quellcode und Systemarchitekturen, strategische Pläne und Finanzdaten. Oft sind es keine bewussten Verstösse, sondern pragmatische Entscheidungen im Arbeitsalltag – eine E-Mail wird optimiert, ein Code-Snippet debuggt, eine Präsentation überarbeitet. Vertrauliche Informationen fliessen dabei nebenbei mit.

Transparenz und Kontrolle
Moderne KI Security Lösungen machen Shadow KI sichtbar und steuerbar. Sie analysieren den Netzwerkverkehr in Echtzeit und erkennen, welche KI-Anwendungen tatsächlich genutzt werden – von ChatGPT über GitHub Copilot bis hin zu weniger bekannten Tools.
Auf dieser Basis lassen sich granulare Richtlinien umsetzen, die ähnlich wie DLP-Lösungen funktionieren: Der Upload klassifizierter Dokumente kann verhindert, Warnungen bei sensiblen Eingaben ausgelöst und genehmigte Enterprise-Versionen nahtlos zugelassen werden. Das Ergebnis sind keine pauschalen Verbote, sondern differenzierte Ansätze, die produktive KI-Nutzung mit Datenschutz vereinen.

Pragmatische Governance statt Verbote
Die Lösung liegt nicht im Verhindern, sondern im Ermöglichen unter klaren Rahmenbedingungen:
- Transparenz schaffen
Erhebung der tatsächlich genutzten Tools durch Dialog statt Kontrolle - Sichere Alternativen bereitstellen
Enterprise-Versionen oder selbst gehostete Lösungen mit implementierten Guardrails, die technisch erzwingen, was Richtlinien vorgeben - Klare Richtlinien
Einfache Regeln, wann welches Tool für welche Daten geeignet ist - Enablement
Schulungen für produktive und sichere Nutzung - AVV abschliessen
Verträge zur Auftragsverarbeitung mit zugelassenen Anbietern
Selbst gehostete KI-Lösungen bieten dabei maximale Kontrolle: Modelle laufen in der eigenen Infrastruktur, Daten verlassen nie das Unternehmen, und Guardrails können auf Systemebene durchgesetzt werden – von Content-Filtern über Zugriffskontrollen bis zu automatischen Redaktionen sensibler Informationen.
Shadow KI ist keine Bedrohung, sondern ein Signal: Mitarbeitende suchen Werkzeuge, die ihnen helfen, besser zu arbeiten. Unternehmen, die jetzt Governance-Strukturen schaffen statt Verbote auszusprechen, sichern sich einen Wettbewerbsvorteil. Die Frage ist nicht, ob KI genutzt wird, sondern wie Unternehmen den Rahmen dafür schaffen, dass dies produktiv und sicher geschieht.
Weiterführende Infos
- 8 Real World Incidents Related to AI
- IBM Report: 13% Of Organizations Reported Breaches Of AI Models Or Applications, 97% Of Which Reported Lacking Proper AI Access Controls
- 🩸ChatGPT Privacy Leak: Thousands of Conversations Now Publicly Indexed by Google
- Hundreds of thousands of Grok chats exposed in Google results
- DeepSeek Cyber Attack: Timeline, Impact, and Lessons Learned
- 77% of Employees Leak Data via ChatGPT, Report Finds
- List of companies that train AI models using their user data – Jetwriter AI