KI-Modelle können systematische Verzerrungen enthalten – z. B. bei Hautfarbe, Geschlecht oder Sprache –, wenn die Trainingsdaten nicht repräsentativ sind. Bias ist ein zentrales Problem in der KI-Ethik und kann zu diskriminierenden Ergebnissen führen.