Im letzten Beitrag habe ich KI mit einem Elefanten verglichen, der durch einen Raum navigiert. Er findet einen Weg, er erreicht das Ziel, aber er nimmt nicht immer denselben Pfad. Wer diesen Elefanten beobachtet, reagiert fast immer mit demselben Reflex: „Gleiche Frage, unterschiedliche Antworten — also unzuverlässig." Es klingt logisch. Es ist trotzdem falsch.
Wer den letzten Beitrag gelesen hat, ahnt vielleicht schon, warum. Die Variation ist kein Defekt. Sie ist eine Eigenschaft. Und der Unterschied zwischen diesen beiden Aussagen ist nicht akademisch — er bestimmt, ob Sie KI sinnvoll einsetzen oder es aus den falschen Gründen unterlassen.
Selbstkonsistenz vs. Unsicherheit
Der Elefant folgt bei jeder Durchquerung denselben Regeln. Er berücksichtigt den Raum, die Hindernisse, sein Ziel. Was variiert, ist der konkrete Pfad — nicht die Methode. Das ist ein entscheidender Punkt, weil die meisten Menschen „zuverlässig" mit „deterministisch" verwechseln. Deterministisch bedeutet: gleicher Input, immer gleicher Output. Zuverlässig bedeutet: der Output ist konsistent nützlich, auch wenn er variiert.
In der Statistik unterscheidet man zwei Arten von Unsicherheit. Epistemische Unsicherheit entsteht durch unvollständiges Wissen — sie lässt sich durch mehr Daten oder bessere Modelle reduzieren. Aleatorische Unsicherheit ist dem System inhärent — sie gehört zur Natur der Sache. Wenn Sie einen Würfel werfen, können Sie die Physik noch so gut verstehen: Das Ergebnis bleibt stochastisch. Bei einem Sprachmodell ist die Situation ähnlich, nur komplexer. Die Variation im Output ist teilweise epistemisch (das Modell weiß nicht alles), teilweise aleatorisch (es gibt schlicht mehrere valide Antworten auf dieselbe Frage).
Machen Sie ein Gedankenexperiment: Sie stellen fünf erfahrenen Unternehmensberatern dieselbe strategische Frage. Erwarten Sie fünf identische Antworten? Natürlich nicht. Sie erwarten fünf informierte Perspektiven, die denselben Problemraum aus unterschiedlichen Winkeln beleuchten. Wenn Berater A eine Marktanalyse betont und Berater B die Organisationsstruktur in den Vordergrund stellt, nennen Sie das nicht Inkonsistenz — Sie nennen es Analyse. Genau das passiert, wenn ein Sprachmodell bei wiederholter Abfrage leicht unterschiedliche Antworten liefert.
Die praktische Konsequenz: Nutzen Sie die Variation, statt sie zu fürchten. Lassen Sie den Elefanten mehrmals durch den Raum laufen. Vergleichen Sie die Pfade. Wo sie konvergieren, haben Sie hohe Konfidenz. Wo sie divergieren, haben Sie eine Stelle gefunden, die menschliche Einschätzung erfordert. Das ist kein Workaround — das ist eine Methode. In der Forschung heißt sie Self-Consistency, und sie funktioniert besser als jeder Einzeldurchlauf.
Sie können auch am Regler drehen: Der Parameter „Temperature" steuert, wie stark das Modell variiert. Niedrige Temperature bedeutet konservativere, vorhersagbarere Antworten. Hohe Temperature bedeutet kreativere, breitere Exploration. Für eine Vertragszusammenfassung wählen Sie niedrige Temperature. Für eine Strategieanalyse wählen Sie hohe Temperature und lassen mehrfach laufen. Das ist keine Unzuverlässigkeit — das ist Konfiguration.
Das eigentliche Problem ist nicht, dass KI unzuverlässig ist. Das Problem ist, dass Menschen deterministische Antworten von einem probabilistischen System erwarten — und die Abweichung für einen Fehler halten.
Der zweite Reflex: Datenschutz
An diesem Punkt kommt der zweite Reflex: Alles schön und gut, aber Datenschutz. Die DSGVO. Personenbezogene Daten. Wer so argumentiert, hat meistens recht, dass es ein relevantes Thema ist — aber die Schlussfolgerung „also können wir KI nicht einsetzen" ist trotzdem falsch.
Die DSGVO formuliert Prinzipien: Zweckbindung, Datenminimierung, Transparenz, Speicherbegrenzung. Das sind keine Verbote. Das sind Designanforderungen. Ein System, das diese Prinzipien erfüllt, darf personenbezogene Daten verarbeiten — unabhängig davon, ob es mit Algorithmen, Tabellen oder KI arbeitet. Die Frage ist nicht „Darf ich KI nutzen?", sondern „Wie muss ich KI nutzen, damit die Anforderungen erfüllt sind?"
Und hier beginnt die Unterscheidung, die fast niemand macht: Training und Nutzung sind zwei grundverschiedene Vorgänge. Das Training eines Sprachmodells geschieht auf historischen Daten — Büchern, Artikeln, öffentlich zugänglichen Texten. Dieser Prozess ist abgeschlossen, bevor Sie das Modell nutzen. Ihre Unternehmensdaten waren daran nicht beteiligt.
Die Nutzung — also Ihre Eingabe, Ihr Prompt — ist ein separater Vorgang. Bei kommerziellen Enterprise-Versionen gilt: Ihre Eingaben werden verarbeitet, nicht gespeichert. Sie fließen nicht ins Training zurück. OpenAI, Anthropic und andere Anbieter bieten explizite Data Processing Agreements (DPAs) an, die genau das vertraglich zusichern. Diese DPAs sind DSGVO-konform gestaltbar, einschließlich Standardvertragsklauseln für den transatlantischen Datentransfer.
Wenn selbst das nicht ausreicht — etwa weil Sie in einem regulierten Sektor arbeiten oder besonders sensible Daten verarbeiten — gibt es weitere Hebel. PII-Masking entfernt personenbezogene Daten aus dem Prompt, bevor er das Modell erreicht. Lokale Modelle laufen vollständig auf Ihrer eigenen Infrastruktur, ohne dass Daten Ihr Netzwerk verlassen. Private Cloud-Instanzen bei Anbietern wie Azure oder AWS geben Ihnen volle Kontrolle über den Verarbeitungsort. Keine dieser Lösungen ist theoretisch — sie werden heute in Unternehmen eingesetzt, von Kanzleien bis zu Versicherungen.
Aber sprechen wir über das tatsächliche Risiko. Es sitzt nicht in der IT-Abteilung, die sorgfältig eine Enterprise-Lösung evaluiert. Es sitzt im Vertrieb, im Marketing, in der Buchhaltung — überall dort, wo Mitarbeitende die kostenlose Version von ChatGPT öffnen und Kundendaten, Vertragsentwürfe oder Finanzberichte eingeben. Ohne DPA. Ohne Datenschutzfolgenabschätzung. Ohne dass irgendjemand davon weiß.
Diese unkontrollierte Schatten-Nutzung ist das eigentliche DSGVO-Problem. Nicht die gesteuerte, abgesicherte Einführung von KI im Unternehmen. Jedes Unternehmen, das KI offiziell verbietet, ohne Alternativen anzubieten, erzeugt genau dieses Risiko — weil die Mitarbeitenden die Tools trotzdem nutzen. Nur eben ohne Governance, ohne Logging, ohne Kontrolle.
Was wirklich auf dem Spiel steht
Beide Einwände — „unzuverlässig" und „Datenschutz" — folgen demselben Muster. Sie identifizieren ein reales Phänomen (Variation, Datenverarbeitung), ziehen daraus eine falsche Schlussfolgerung (also nicht nutzbar) und übersehen dabei das größere Risiko (Kontrollverlust durch Nicht-Handeln).
Die Variation eines Sprachmodells ist handhabbar — durch Methodik, Konfiguration und menschliche Supervision. Die DSGVO-Konformität ist herstellbar — durch technische und vertragliche Maßnahmen, die heute verfügbar und erprobt sind. Was nicht handhabbar ist: eine Organisation, die so tut, als würde KI nicht existieren, während ihre Mitarbeitenden längst Fakten schaffen.
Das größere Risiko ist nicht, KI einzusetzen. Es ist, so zu tun, als würde es nicht passieren — und damit die Kontrolle darüber abzugeben, wie es passiert. Wer heute keine bewusste Entscheidung über KI-Nutzung trifft, hat trotzdem eine getroffen. Sie lautet: jeder für sich, ohne Regeln, ohne Schutz.
Im nächsten Beitrag: Warum die gesamte Debatte an der falschen Stelle ansetzt.