← Alle Begriffe

Bias (KI-Verzerrung)

Systematische Fehler in KI-Systemen, die bestimmte Gruppen bevorzugen oder benachteiligen — oft durch verzerrte Trainingsdaten.

Bias bezeichnet im KI-Kontext systematische Verzerrungen in den Ausgaben eines Modells. Diese entstehen meist durch unrepräsentative Trainingsdaten, fehlerhafte Datenaufbereitung oder durch den gesellschaftlichen Kontext, in dem die Daten erhoben wurden.

Warum ist Bias ein unternehmerisches Risiko?

KI-Systeme mit Bias können diskriminierende Entscheidungen treffen — zum Beispiel bei der Bewerberauswahl, der Kreditvergabe oder der Preisfindung. Das ist nicht nur ein ethisches Problem, sondern auch ein rechtliches: Der EU AI Act und das AGG (Allgemeines Gleichbehandlungsgesetz) setzen klare Grenzen.

Unternehmen, die KI in personalrelevanten oder kundenbezogenen Prozessen einsetzen, sollten Bias-Tests zu einem festen Bestandteil ihrer KI-Governance machen. Regelmäßige Audits sind kein nice-to-have, sondern werden zunehmend zur regulatorischen Pflicht.