Halluzination
Wenn ein KI-Modell plausibel klingende, aber faktisch falsche Informationen generiert.
Eine Halluzination bezeichnet im KI-Kontext die Generierung von Inhalten, die zwar grammatisch und stilistisch korrekt wirken, aber faktisch falsch oder frei erfunden sind. Der Begriff ist metaphorisch — das Modell »halluziniert« keine Bilder, sondern produziert Text, der keinen Bezug zur Realität hat.
Warum passiert das?
Large Language Models erzeugen Text auf Basis statistischer Wahrscheinlichkeiten. Sie haben kein Verständnis von Wahrheit, sondern optimieren auf Plausibilität. Wenn die Trainingsdaten lückenhaft sind oder die Frage außerhalb des Trainierten liegt, füllt das Modell die Lücke mit dem wahrscheinlichsten — nicht dem richtigen — Text.
Halluzinationen sind einer der Hauptgründe, warum der Einsatz von KI in sensiblen Bereichen eine menschliche Kontrolle erfordert.