
Ein KI-System für Personalvermittlung sortierte automatisch alle Frauen über 55 und alle Männer über 60 aus. Über 200 qualifizierte Bewerberinnen und Bewerber — abgelehnt, ohne dass ein Mensch ihre Unterlagen je gesehen hätte. Kein bösartiger Algorithmus, keine bewusste Diskriminierung. Einfach ein System, das aus historischen Daten gelernt hatte, wer "typischerweise" eingestellt wird. Der Fall iTutorGroup landete 2023 vor der US-amerikanischen EEOC (Equal Employment Opportunity Commission) und endete mit einem Vergleich über 365.000 Dollar. Er ist kein Einzelfall — er ist die Regel.
KI-Bias — auf Deutsch etwa "algorithmische Verzerrung" — beschreibt systematische Fehler in KI-Systemen, die bestimmte Personengruppen benachteiligen. Das Tückische: Bias ist fast nie beabsichtigt. Er entsteht aus Daten, Designentscheidungen und blinden Flecken — oft unsichtbar für die Entwickler selbst.
Die wichtigsten Formen:
Die gemeinsame Eigenschaft: Kein Entwickler hat beschlossen, Frauen, Ältere oder Minderheiten zu diskriminieren. Der Bias entsteht aus der Struktur der Daten und der Logik der Optimierung. Und genau das macht ihn so gefährlich — er wirkt objektiv, ist es aber nicht.
Der Online-Bildungsanbieter iTutorGroup setzte ein KI-System ein, das Bewerbungen automatisch vorsortierte. Das System lehnte weibliche Bewerberinnen ab 55 und männliche Bewerber ab 60 systematisch ab — über 200 qualifizierte Kandidaten wurden allein aufgrund ihres Alters aussortiert. Die EEOC klagte erfolgreich auf Altersdiskriminierung. Der Fall zeigte: Auch wenn kein Mensch bewusst diskriminiert, kann ein Algorithmus illegale Entscheidungen treffen.
Amazon entwickelte ein KI-System zur Bewertung von Bewerbungen, das auf zehn Jahren Einstellungsdaten trainiert wurde. Das Ergebnis: Das System bewertete Lebensläufe mit dem Wort "women's" (wie in "women's chess club") systematisch schlechter. Absolventinnen reiner Frauenuniversitäten erhielten niedrigere Scores. Amazon stoppte das System 2018 — aber erst nachdem interne Tests die Diskriminierung aufgedeckt hatten. Wie viele ähnliche Systeme laufen unbemerkt?
Eine 2019 in Science veröffentlichte Studie von Obermeyer et al. deckte auf, dass ein weit verbreiteter Algorithmus im US-Gesundheitswesen schwarze Patienten systematisch benachteiligte. Das System nutzte Gesundheitsausgaben als Proxy für Gesundheitsbedarf — übersah aber, dass schwarze Patienten aufgrund struktureller Ungleichheit historisch weniger Zugang zu Gesundheitsversorgung hatten und daher niedrigere Ausgaben aufwiesen. Ergebnis: Bei gleicher Krankheitslast erhielten schwarze Patienten seltener Zugang zu Zusatzprogrammen.
Mehrere Studien haben gezeigt, dass KI-basierte Bewerbungssysteme Lebensläufe mit typisch afroamerikanischen Namen signifikant schlechter bewerten. Eine Untersuchung der University of Washington fand 2024 heraus, dass Lebensläufe mit Namen wie Jamal oder Lakisha bei ansonsten identischen Qualifikationen deutlich niedrigere Matching-Scores erhielten. Das System hatte aus historischen Einstellungsdaten gelernt, in denen diese Namen seltener zu Einladungen führten — und reproduzierte die Diskriminierung.
Bias betrifft nicht nur Bilderkennung und Recruiting — er ist auch in der Textanalyse allgegenwärtig. Und oft besonders schwer zu erkennen:
Sentimentanalyse-Modelle, die überwiegend auf Standardsprache trainiert wurden, bewerten Texte in African American Vernacular English (AAVE) systematisch negativer. Ausdrücke, die in AAVE neutral oder positiv sind, werden als negativ klassifiziert — weil das Modell sie nicht kennt oder mit negativen Kontexten in den Trainingsdaten assoziiert. Dasselbe Phänomen zeigt sich bei deutschen Dialekten und soziolektischen Varietäten.
Topic-Modelling-Algorithmen reproduzieren die Stereotype ihrer Trainingsdaten. Wenn in den zugrundeliegenden Texten Frauen häufiger im Kontext von Familie und Männern häufiger im Kontext von Karriere erwähnt werden, übernimmt das Modell diese Assoziation — und verstärkt sie möglicherweise in seinen Ergebnissen.
Große Sprachmodelle (LLMs) assoziieren bestimmte Namen mit bestimmten Berufen, Eigenschaften und sozialen Schichten. Studien haben gezeigt, dass GPT-Modelle bei der Textgenerierung systematisch unterschiedliche Adjektive verwenden, je nachdem ob der beschriebene Name europäisch, arabisch oder asiatisch klingt. Diese Assoziationen fließen in jede nachgelagerte Textanalyse ein.
Eine viel zitierte Studie der University of Reading fand, dass 94% der KI-generierten akademischen Arbeiten von Prüfern nicht als solche erkannt wurden. Dieses Unsichtbarkeitsproblem betrifft KI-Bias in ähnlicher Weise: Die meisten biased Entscheidungen werden nie entdeckt.
Warum? Weil die Betroffenen nicht wissen, dass ein Algorithmus über sie entschieden hat. Weil die Entscheider dem System vertrauen ("Der Algorithmus ist objektiv"). Weil Bias sich in Aggregaten versteckt — die Benachteiligung einzelner Gruppen fällt erst auf, wenn man gezielt danach sucht. Und weil die Unternehmen, die diese Systeme einsetzen, oft weder die Kapazität noch den Anreiz haben, nach Bias zu suchen.
Das Ergebnis ist ein System, das Diskriminierung im industriellen Massstab automatisiert — effizient, konsistent und nahezu unsichtbar.
Bias ist kein Problem, das man einmal löst und dann abhakt. Es erfordert kontinuierliche Aufmerksamkeit und systematische Prozesse:
Die Gesetzgebung beginnt aufzuholen:
Die Richtung ist klar: Unternehmen werden zunehmend für die Entscheidungen ihrer Algorithmen haftbar gemacht. Wer heute nicht in Bias-Erkennung und -Vermeidung investiert, riskiert morgen Klagen, Bussgelder und Reputationsschäden.
Algorithmische Diskriminierung ist kein Fehler, den man einmal behebt und dann vergisst. Daten ändern sich, Gesellschaften ändern sich, und Bias findet immer neue Wege in Systeme hinein. Die Vorstellung, man könne ein KI-System einmal "entbiasen" und dann beruhigt einsetzen, ist gefährlich — sie erzeugt genau die falsche Sicherheit, die Bias unsichtbar macht.
Was stattdessen nötig ist: eine Kultur der kontinuierlichen Prüfung, der Transparenz und der Bereitschaft, unbeqüme Fragen zu stellen. Funktioniert unser System für alle gleich gut? Wen benachteiligen wir möglicherweise, ohne es zu wissen? Und sind wir bereit, kurzfristige Effizienz für langfristige Fairness zu opfern?
Die Antworten auf diese Fragen entscheiden darüber, ob KI ein Werkzeug für Fortschritt wird — oder ein Mechanismus, der bestehende Ungleichheit zementiert und skaliert.


Der EU AI Act ist in Kraft. Was müssen Unternehmen beachten? Risikostufen, Fristen, Pflichten — ein praktischer Leitfaden.
David
13. April 2026

1,5 Milliarden Dollar Vergleich, geklagte Künstler, neue Gesetze: Wie das Urheberrecht die KI-Branche verändert.
David
7. April 2026

KI-Rechenzentren verbrauchen 1.050 TWh Strom bis 2026. Was bedeutet der Energiehunger der KI für Klima und Umwelt?
David
23. März 2026