Bias in KI-Systemen: Probleme, Ursachen und Lösungen
Künstliche Intelligenz steckt heute in zahlreichen digitalen Anwendungen – in Suchmaschinen, bei Bewerbungen oder im Gesundheitswesen. Doch KI ist nicht neutral. Sie kann Vorurteile aus KI-Trainings übernehmen und Entscheidungen beeinflussen. Das nennt man Bias oder Verzerrung.
Bias entsteht, wenn KI-Systeme bestimmte Gruppen benachteiligen oder bevorzugen, etwa aufgrund von Geschlecht, Herkunft oder Alter. Das Problem liegt also in den verzerrten Daten, mit denen die Maschine gefüttert wird. Eine Art verzerrter Kreislauf, den es bei der Entwicklung von KI-Systemen zu durchbrechen und zu korrigieren gilt – insbesondere bei Hochrisiko-KI.
Ursachen für Bias in KI
- Datenbasis: Wenn die Daten, mit denen die KI trainiert wird, verzerrt sind, übernimmt die KI diese Verzerrungen.
- Auswahlfehler: Oft sind bestimmte Gruppen in den Trainingsdaten unterrepräsentiert.
- Fehlerhafte Annahmen: Entwicklungsteams treffen Entscheidungen, die unbeabsichtigt Vorurteile verstärken.
- Technische Grenzen: Algorithmen sind oft nicht in der Lage, komplexe soziale Zusammenhänge richtig einzuordnen.
- Mangelnde Diversität in Teams: Wenn Entwicklungsteams nicht vielfältig sind, bleiben viele Blickwinkel außen vor.
Beispiele für Bias
Ein bekanntes Beispiel ist ein KI-System zur automatischen Bewertung von Bewerbungen, das männliche Kandidaten bevorzugte – weil es auf alten Daten trainiert wurde, in denen Männer häufiger eingestellt wurden. Auch bei der Gesichtserkennung in den Bereichen Sicherheit oder Strafverfolgung gibt es Probleme: Systeme erkennen helle Hauttöne besser als dunkle. Das führt dazu, dass People of Color häufiger falsch identifiziert oder gar nicht erkannt werden – ähnlich wie beim Racial Profiling.
Was lässt sich dagegen tun?
KI-Systeme müssen mit vielfältigen und ausgewogenen Daten trainiert, unbalancierte Daten müssen ausgeglichen werden. Das können sogenannte Oversampling- oder Resampling-Techniken. KI-Entwicklungsteams sollten interdisziplinär und divers aufgestellt sein. Das ist natürlich schwierig, wenn aktuell in den Vereinigten Staaten Diversitätsprogramme in Tech-Unternehmen komplett gestrichen werden. Die Gefahr von Bias nimmt dann zu.
Außerdem ist Transparenz wichtig: Welche Daten wurden genutzt? Wie trifft die KI Entscheidungen (XAI)? Regelmäßige Tests auf Diskriminierung sowie Feedback-Schleifen helfen, Probleme früh zu erkennen. Es gibt Tools wie Fairness Indicators, die messen, ob ein Modell Gruppen unterschiedlich behandelt.
In diesen Punkten hilft auch der EU AI Act. Ein zentrales Anliegen der Verordnung ist es, dass KI-Systeme von Beginn an die Grundrechte respektieren und keine ungerechtfertigten Benachteiligungen verursachen. KI ist generell als unterstützendes, nicht als autonomes Werkzeug zu verstehen.

Miriam Harringer, Redakteurin
Weitere Artikel des Autoren
- Datenschützer prüfen DeepSeek
- Neue Arbeitgeberpflicht: KI-Kompetenz verstehen und fördern
- Ethik und Innovation vereint: Der AI Act am Weltmarkt
- WhatsApp-Communitys im Unternehmen nutzen: Vorsicht vor datenschutzrechtlichen Risiken
- Ein Blick auf die Ausnahmen verbotener KI-Praktiken
- Meta muss zahlen: Tracking digitaler Bewegungen in Business Tools