KI-Modelle mit systemischem Risiko: Kontrollierte Angriffe zur Risikoermittlung

Die neue KI-Verordnung bringt strengere Anforderungen für KI-Modelle mit allgemeinem Verwendungszweck und potenziell systemischem Risiko. Gemeint sind großskalige Systeme wie Sprachmodelle (z. B. GPT-4), Bildgeneratoren (z. B. DALL·E) oder multimodale Modelle, die Sprache, Bilder und strukturierte Daten verarbeiten können.

Sie finden Anwendung in Chatbots, automatisierter Text- und Codegenerierung, der Medienproduktion, Kundenkommunikation sowie in sensiblen Bereichen wie Medizin, Justiz oder Personalentscheidungen. So vielfältig ihre Einsatzmöglichkeiten sind, so real sind auch die Risiken etwa durch fehlerhafte Inhalte, diskriminierende Ergebnisse oder missbräuchliche Nutzung.

Risikoanalyse als systematisches Fundament

Die KI-Verordnung verlangt gem. Art. 55 mehr als nur eine oberflächliche Bewertung. Anbieter müssen strukturierte und nachvollziehbare Verfahren etablieren, um Risiken zu identifizieren, zu klassifizieren und zu bewerten.

Dabei geht es nicht nur um technische Schwachstellen, sondern um das gesamte Wirkungsspektrum des Modells:

  • Welche unbeabsichtigten Auswirkungen können entstehen?
  • Welche Gruppen könnten benachteiligt werden?
  • Wo droht Missbrauch oder Fehlinterpretation von KI-generierten Inhalten?

Das umfasst eine angemessene Risikoanalyse

Eine Risikoanalyse gemäß Art. 55 lit. a KI-Verordnung sollte insbesondere folgende Dimensionen abdecken:

  • Funktionale Risiken: Gibt es Anwendungsbereiche, in denen das Modell instabil, fehleranfällig oder schwer kontrollierbar ist?
  • Ethik und Fairness: Produziert das Modell diskriminierende, voreingenommene oder gesellschaftlich problematische Inhalte?
  • Missbrauchspotenzial: Lässt sich das Modell zweckentfremden, etwa zur Erzeugung manipulativer Inhalte, Deepfakes oder zur automatisierten Täuschung?
  • Interaktion mit sensiblen Bereichen: Welche Risiken entstehen bei Anwendungen im Gesundheitswesen, in der Justiz, Bildung oder öffentlichen Verwaltung?

Die Analyse muss dokumentiert und bei Bedarf regelmäßig aktualisiert werden, insbesondere bei Modifikationen, neuen Anwendungsfällen oder geänderten Nutzungskontexten.

Vom Prüfprozess zur Verantwortungskultur

Die Risikoanalyse ist somit kein reiner Compliance-Akt, sondern ein zentrales Element einer verantwortungsvollen KI-Entwicklungskultur. Sie zwingt Anbieter dazu, sich intensiv mit der realen Wirkung ihrer Modelle auseinanderzusetzen – nicht nur aus Sicht der Funktionalität, sondern auch im Hinblick auf gesellschaftliche Werte, Rechtsstaatlichkeit und Grundrechte.

Gleichzeitig entsteht so ein strukturierter Dialog zwischen Entwicklern, Regulierungsbehörden und der Öffentlichkeit. Risiken werden nicht verdrängt, sondern frühzeitig benannt, eingeordnet und entschärft.

Artikel 55 lit. a der KI-Verordnung macht damit klar: Verantwortung beginnt mit Wissen. Eine gründliche, belastbare Risikoanalyse ist das Fundament für sichere und vertrauenswürdige KI-Systeme. Wer KI-Modelle mit potenziell systemischem Einfluss entwickelt, muss ihre Risiken nicht nur kennen, sondern aktiv managen.