← Alle Beiträge

Ihre Mitarbeiter nutzen ChatGPT. Sie wissen es nur nicht.

Das Problem ist nicht, dass Teams KI nutzen. Das Problem ist, was dabei an Unternehmensdaten abfließt — und dass niemand einen Plan dafür hat.

Irgendwann im Laufe des letzten Jahres hat sich in den meisten Unternehmen eine stille Veränderung vollzogen. Mitarbeiter im Vertrieb lassen Angebote von ChatGPT formulieren. Die Buchhaltung nutzt es, um Rechnungstexte zu übersetzen. Das Marketing lässt Kampagnentexte generieren. Die Personalabteilung formuliert Stellenausschreibungen. In keinem dieser Fälle hat jemand die IT-Abteilung gefragt.

Was dabei passiert, ist kein theoretisches Risiko. Es ist ein konkreter Datenabfluss, der in diesem Moment stattfindet — in Unternehmen, die glauben, dass KI bei ihnen noch kein Thema ist.

Die Analogie mit dem Fotokopierer

Um das Ausmaß verständlich zu machen, hilft ein Vergleich. Stellen Sie sich vor, jeder Mitarbeiter hätte Zugang zu einem Kopierer, der jedes Dokument, das kopiert wird, automatisch an einen externen Dienstleister in den USA weiterleitet. Keinen bösartigen Dienstleister — einen seriösen. Aber einen, der sich vertraglich vorbehält, die kopierten Dokumente zur Verbesserung seiner eigenen Produkte zu nutzen. Kein Unternehmen würde so einen Kopierer aufstellen. Aber genau das passiert, wenn Mitarbeiter die kostenlose Version von ChatGPT mit Unternehmensdaten füttern.

Die kostenlosen Versionen der meisten KI-Tools — ChatGPT, Gemini, und andere — nutzen eingegebene Daten standardmäßig zum Training. Das steht in den Nutzungsbedingungen, die niemand liest. Jeder Prompt, der Kundendaten, Finanzkennzahlen, Vertragsinhalte oder interne Strategiepapiere enthält, landet potenziell in einem Trainingsdatensatz, über den das Unternehmen keine Kontrolle hat.

Was konkret passiert

In einem mittelständischen Unternehmen, mit dem ich kürzlich gearbeitet habe, hat eine kurze Analyse der Browser-Logs ergeben, dass innerhalb eines Monats 340 Anfragen an die ChatGPT-Weboberfläche gestellt wurden — von 12 verschiedenen Nutzern. Die IT-Leitung wusste von keiner einzigen davon.

Das ist kein Fehlverhalten der Mitarbeiter. Es ist eine rationale Reaktion auf ein nützliches Werkzeug. Die Produktivitätsgewinne durch KI-Tools sind real und oft erheblich. Ein Vertriebsmitarbeiter, der ein individuelles Angebot in zehn Minuten statt in einer Stunde formuliert, tut genau das, was man von einem leistungsorientierten Mitarbeiter erwartet. Das Problem liegt nicht beim Nutzer, sondern beim Fehlen einer Struktur.

Die DSGVO-Dimension

Sobald personenbezogene Daten in ein KI-Tool eingegeben werden, greifen die Regeln der Datenschutzgrundverordnung. Der Verantwortliche — also das Unternehmen, nicht der einzelne Mitarbeiter — muss sicherstellen, dass eine Rechtsgrundlage für die Verarbeitung vorliegt, dass die Daten nicht ohne Einwilligung an Dritte weitergegeben werden, und dass Betroffenenrechte gewahrt bleiben.

In der Praxis heißt das: Wenn ein Mitarbeiter einen Kundenvertrag in ChatGPT einfügt, um eine Zusammenfassung zu erstellen, und dieser Vertrag Name, Adresse und Vertragsbedingungen einer natürlichen Person enthält, dann liegt eine Übermittlung personenbezogener Daten an OpenAI vor — einen Auftragsverarbeiter in den USA, mit dem das Unternehmen in aller Regel keinen Auftragsverarbeitungsvertrag (AVV) abgeschlossen hat.

Das ist kein Edge Case. Das ist der Normalfall.

Was eigentlich nötig ist

Die Lösung ist weder ein Verbot noch eine 50-seitige KI-Richtlinie, die niemand liest. Was funktioniert, ist ein pragmatischer Rahmen, der aus drei Elementen besteht.

Erstens: Transparenz. Welche KI-Tools werden im Unternehmen bereits genutzt? Nicht welche genehmigt sind — welche tatsächlich genutzt werden. Ohne diese Bestandsaufnahme ist jede Richtlinie Fiktion.

Zweitens: Kanalisierung. Statt die Nutzung zu verbieten, wird sie in sichere Bahnen gelenkt. Enterprise-Versionen von KI-Tools — ChatGPT Team, Claude for Business, Azure OpenAI — bieten vertragliche Zusicherungen, dass eingegebene Daten nicht zum Training verwendet werden. Der Aufpreis ist gering im Vergleich zum Risiko. Alternativ lassen sich für besonders sensible Anwendungsfälle lokale Modelle betreiben, die das Unternehmen nie verlassen.

Drittens: Sensibilisierung. Nicht als Compliance-Schulung, die alle absitzen, sondern als konkrete Anleitung: Welche Daten dürfen in welches Tool? Was muss vorher anonymisiert werden? Wo liegt die Grenze? Drei einfache Regeln reichen oft aus, wenn sie verständlich formuliert und leicht einzuhalten sind.

Der Fehler ist nicht, dass Mitarbeiter KI nutzen. Der Fehler ist, dass Unternehmen so tun, als würde es nicht passieren.

Die KI-Verordnung kommt hinzu

Ab August 2026 greifen die ersten Durchsetzungsregeln des EU AI Act für bestimmte Anwendungskategorien. Für die meisten mittelständischen Unternehmen ist die unmittelbare Betroffenheit überschaubar — Hochrisiko-KI-Systeme sind in klassischen KMUs selten. Aber die Verordnung schafft eine neue Erwartungshaltung: Wer KI einsetzt, muss nachweisen können, wie und unter welchen Bedingungen das geschieht. Dokumentation, Risikoklassifizierung, menschliche Aufsicht — das sind Anforderungen, die sich einfacher erfüllen lassen, wenn die Grundstruktur bereits steht, als wenn man im Nachhinein beginnt.

Das bedeutet: Die Arbeit, die jetzt in eine vernünftige KI-Governance investiert wird, zahlt doppelt — einmal in reduziertem Datenschutzrisiko heute, einmal in Compliance-Readiness morgen.

Worum es am Ende geht

Die spannendere Beobachtung hinter all dem ist eine organisatorische. Unternehmen, die KI-Nutzung erfolgreich strukturieren, bauen dabei etwas auf, das über Compliance hinausgeht: eine Fähigkeit, neue Technologien kontrolliert in bestehende Abläufe zu integrieren. Die DSGVO-konforme KI-Nutzung ist dafür ein guter Anfang, weil sie einen konkreten, messbaren Anlass bietet. Aber das Muster — Bestandsaufnahme, Kanalisierung, Befähigung — funktioniert für jede technologische Veränderung.

Der Mittelstand hat einen strukturellen Vorteil gegenüber Konzernen: kürzere Entscheidungswege, weniger Bürokratie, schnellere Umsetzung. Diesen Vorteil auch bei der KI-Integration zu nutzen, anstatt abzuwarten, bis die Regulierung einen dazu zwingt — das wäre die klügere Variante.