Bias bei KI-Modellen: Diskriminierung durch die Maschine und ihre Ursachen

Geschrieben von Kemal Webersohn, veröffentlicht am 04.12.2025

Künstliche Intelligenz (KI) entscheidet zunehmend unseren Alltag. Sobald Verzerrungen (Bias) entstehen, produziert die Technik ungerechte Ergebnisse. Dieser Beitrag klärt, wie Bias entsteht, warum er Datenschutzrisiken birgt und wie Sie ihn reduzieren.

Was ist Bias und wie entsteht er?

Bias bezeichnet in der KI eine Verzerrung, die ungleiche Entscheidungen verursacht. Die Ursache liegt meist in veralteten oder unausgewogenen Trainingsdaten. Bilden historische Daten gesellschaftliche Ungleichheit ab oder repräsentieren sie bestimmte Gruppen unzureichend, lernt das Modell diese Fehler mit. Ein klassisches Beispiel: Ein Bewerbungsprozess benachteiligt Menschen einer bestimmten Ethnie, weil die Trainingsdaten diese Gruppe zuvor selten als „geeignet“ klassifizierten.

Warum ist Bias ein Risiko für die DSGVO-Compliance?

Verzerrte KI-Systeme verstoßen oft gegen geltendes Recht. Behandelt eine KI personenbezogene Daten ungleich, verletzt dies den Grundsatz der Richtigkeit gemäß Art. 5 Abs. 1 lit. d DSGVO.

Denn der Grundsatz der Richtigkeit verlangt, dass personenbezogene Daten sachlich richtig und erforderlichenfalls auf dem neuesten Stand sind. Ein Bias (Verzerrung) in KI-Systemen kann diesen Grundsatz auf zwei Ebenen verletzen:

1. Unrichtige Ergebnisse (Output-Ebene):

Wenn eine KI aufgrund von Bias eine falsche Schlussfolgerung über eine Person zieht (z. B. eine fälschlicherweise negative Kreditwürdigkeit aufgrund des Wohnorts oder der Ethnie), entsteht ein neues personenbezogenes Datum (das Scoring-Ergebnis), das sachlich falsch ist. Die KI ordnet der Person eine Eigenschaft zu, die sie in der Realität nicht hat. Damit verstößt die Verarbeitung gegen das Gebot der Richtigkeit.

2. Verzerrte Datengrundlage (Input-Ebene):

Bias entsteht oft durch historische Daten, die veraltete gesellschaftliche Muster abbilden (z. B. „Frauen in Führungspositionen sind selten“). Werden solche Daten ungeprüft als „Fakt“ für das Training genutzt, verarbeitet das System Daten, die den aktuellen Sachverhalt nicht mehr korrekt abbilden. Das System lernt aus „unrichtigen“ (weil nicht repräsentativen oder veralteten) Zusammenhängen.

Da Betroffene gemäß Art. 16 DSGVO ein Recht auf Berichtigung falscher Daten haben, führt Bias zu einem direkten Konflikt: Ein KI-System, das aufgrund seiner Programmierung (Black Box) systematisch falsche Ergebnisse liefert, lässt sich oft nicht einfach im Einzelfall „korrigieren“, was das Risiko eines Rechtsverstoßes erhöht. Zudem fordert Art. 22 Abs. 2 DSGVO in Verbindung mit Erwägungsgrund 71, dass mathematische oder statistische Verfahren so gewählt werden müssen, dass Fehlerwahrscheinlichkeiten minimiert und Diskriminierung verhindert werden – was bei Bias gerade nicht der Fall ist.

Wie lassen sich Verzerrungen erkennen und beheben?

Das BSI empfiehlt in seinem Whitepaper, Bias systematisch zu erfassen. Nutzen Sie folgende Maßnahmen zur Reduktion:

  • Datenanalyse: Prüfen Sie Trainingsdaten vorab auf Ungleichgewichte.
  • Überwachung: Führen Sie Kontrollinstanzen in die KI ein.
  • Früherkennung: Identifizieren und beheben Sie Fehler im System, bevor Schaden entsteht.

Fazit: Fairness als Basis für vertrauenswürdige KI

Bias in KI-Systemen gefährdet Fairness, Datenschutz und Sicherheit gleichermaßen. Unternehmen tragen die Verantwortung, diese Verzerrungen frühzeitig zu eliminieren und eine rechtskonforme Anwendung zu sichern.

Als Expertinnen und Experten für Datenschutz und IT-Sicherheit unterstützt die WS Datenschutz GmbH Sie dabei, KI-Projekte von Beginn an sicher und DSGVO-konform aufzusetzen.

Sprechen Sie uns gerne an, bei Fragen zu Bias bei KI-Modellen: Diskriminierung durch die Maschine und ihre Ursachen

Kemal Webersohn

Geschäftsführung
Christian Scholtz

Christian Scholtz

Geschäftsführung