Bias bei KI-Modellen: Diskriminierung durch die Maschine und ihre Ursachen
Geschrieben von Kemal Webersohn, veröffentlicht am 04.12.2025Künstliche Intelligenz (KI) entscheidet zunehmend unseren Alltag. Sobald Verzerrungen (Bias) entstehen, produziert die Technik ungerechte Ergebnisse. Dieser Beitrag klärt, wie Bias entsteht, warum er Datenschutzrisiken birgt und wie Sie ihn reduzieren.
Was ist Bias und wie entsteht er?
Bias bezeichnet in der KI eine Verzerrung, die ungleiche Entscheidungen verursacht. Die Ursache liegt meist in veralteten oder unausgewogenen Trainingsdaten. Bilden historische Daten gesellschaftliche Ungleichheit ab oder repräsentieren sie bestimmte Gruppen unzureichend, lernt das Modell diese Fehler mit. Ein klassisches Beispiel: Ein Bewerbungsprozess benachteiligt Menschen einer bestimmten Ethnie, weil die Trainingsdaten diese Gruppe zuvor selten als „geeignet“ klassifizierten.
Warum ist Bias ein Risiko für die DSGVO-Compliance?
Verzerrte KI-Systeme verstoßen oft gegen geltendes Recht. Behandelt eine KI personenbezogene Daten ungleich, verletzt dies den Grundsatz der Richtigkeit gemäß Art. 5 Abs. 1 lit. d DSGVO.
Denn der Grundsatz der Richtigkeit verlangt, dass personenbezogene Daten sachlich richtig und erforderlichenfalls auf dem neuesten Stand sind. Ein Bias (Verzerrung) in KI-Systemen kann diesen Grundsatz auf zwei Ebenen verletzen:
1. Unrichtige Ergebnisse (Output-Ebene):
Wenn eine KI aufgrund von Bias eine falsche Schlussfolgerung über eine Person zieht (z. B. eine fälschlicherweise negative Kreditwürdigkeit aufgrund des Wohnorts oder der Ethnie), entsteht ein neues personenbezogenes Datum (das Scoring-Ergebnis), das sachlich falsch ist. Die KI ordnet der Person eine Eigenschaft zu, die sie in der Realität nicht hat. Damit verstößt die Verarbeitung gegen das Gebot der Richtigkeit.
2. Verzerrte Datengrundlage (Input-Ebene):
Bias entsteht oft durch historische Daten, die veraltete gesellschaftliche Muster abbilden (z. B. „Frauen in Führungspositionen sind selten“). Werden solche Daten ungeprüft als „Fakt“ für das Training genutzt, verarbeitet das System Daten, die den aktuellen Sachverhalt nicht mehr korrekt abbilden. Das System lernt aus „unrichtigen“ (weil nicht repräsentativen oder veralteten) Zusammenhängen.
Da Betroffene gemäß Art. 16 DSGVO ein Recht auf Berichtigung falscher Daten haben, führt Bias zu einem direkten Konflikt: Ein KI-System, das aufgrund seiner Programmierung (Black Box) systematisch falsche Ergebnisse liefert, lässt sich oft nicht einfach im Einzelfall „korrigieren“, was das Risiko eines Rechtsverstoßes erhöht. Zudem fordert Art. 22 Abs. 2 DSGVO in Verbindung mit Erwägungsgrund 71, dass mathematische oder statistische Verfahren so gewählt werden müssen, dass Fehlerwahrscheinlichkeiten minimiert und Diskriminierung verhindert werden – was bei Bias gerade nicht der Fall ist.
Wie lassen sich Verzerrungen erkennen und beheben?
Das BSI empfiehlt in seinem Whitepaper, Bias systematisch zu erfassen. Nutzen Sie folgende Maßnahmen zur Reduktion:
- Datenanalyse: Prüfen Sie Trainingsdaten vorab auf Ungleichgewichte.
- Überwachung: Führen Sie Kontrollinstanzen in die KI ein.
- Früherkennung: Identifizieren und beheben Sie Fehler im System, bevor Schaden entsteht.
Fazit: Fairness als Basis für vertrauenswürdige KI
Bias in KI-Systemen gefährdet Fairness, Datenschutz und Sicherheit gleichermaßen. Unternehmen tragen die Verantwortung, diese Verzerrungen frühzeitig zu eliminieren und eine rechtskonforme Anwendung zu sichern.
Als Expertinnen und Experten für Datenschutz und IT-Sicherheit unterstützt die WS Datenschutz GmbH Sie dabei, KI-Projekte von Beginn an sicher und DSGVO-konform aufzusetzen.
Sprechen Sie uns gerne an, bei Fragen zu Bias bei KI-Modellen: Diskriminierung durch die Maschine und ihre Ursachen


Kemal Webersohn,
Geschäftsführer der WS Datenschutz GmbH und seit über zehn Jahren im Datenschutz und in der Informationssicherheit tätig.
Er schreibt außerdem auf unserem Blog zu Themen rund um Datenschutz, Informationssicherheit und die KI-Verordnung.
Weitere Artikel
- Warum Sie Ihr Mobiltelefon nicht am Arbeitsrechner aufladen sollten
- Start-ups und der EU AI Act: Chancen, Hürden, Handlungsempfehlungen
- Neues Datenschutzabkommen zwischen EU und USA in Kraft
- Wie schnell ein Notizzettel zu einem Papierdatenträger wird
- EuGH-Urteil: Cookies nur bei aktiver Zustimmung
- KI-Risikobewertung und Einstufung nach dem EU AI Act: Jetzt Fragebogen ausfüllen
Verwandte Artikel
- Der Digitale Omnibus: Opfert die EU den Datenschutz für KI und Big Tech?
- Was bedeutet Verarbeitung gemäß Art. 4 Nr. 2 DSGVO?
- Chatkontrolle in der EU wird freiwillig
- Ab wann muss ich eine Datenschutzpanne der Aufsichtsbehörde melden?
- KI-Transkription bei Videocalls: Das müssen Sie beachten
- Ohne Einheit droht Chaos: Warum KI-Regeln transatlantisch werden müssen