← Alle Begriffe

KI-Unsicherheit

Die inhärente Unzuverlässigkeit von KI-Ausgaben — ein zentrales Risiko beim produktiven Einsatz von Sprachmodellen.

KI-Unsicherheit bezeichnet die Tatsache, dass KI-Systeme — insbesondere große Sprachmodelle — keine deterministischen, garantiert korrekten Ausgaben liefern. Dasselbe Modell mit denselben Eingaben kann unterschiedliche Ergebnisse produzieren, und es gibt keine eingebaute Sicherheit, dass die Ausgabe faktisch korrekt ist.

Welche Konsequenzen hat das für den Unternehmenseinsatz?

KI-Unsicherheit bedeutet, dass KI-Ausgaben grundsätzlich nicht blind vertraut werden darf — insbesondere in Entscheidungsprozessen mit rechtlichen, finanziellen oder sicherheitsrelevanten Konsequenzen. Menschliche Überprüfung und Validierung sind in vielen Anwendungskontexten Pflicht, nicht Kür.

Unternehmen sollten KI-Systeme so einsetzen, dass die Unsicherheit explizit gemacht wird: Konfidenz-Scores, Quellenangaben (wie bei RAG) und klare Prozesse für die Überprüfung kritischer Ausgaben reduzieren das Risiko. Der EU AI Act fordert für Hochrisiko-KI explizit menschliche Aufsicht — genau aus diesem Grund.