KI-Modelle mit systemischem Risiko: Kontrollierte Angriffe zur Risikoermittlung
Geschrieben von Laura Stöhr, veröffentlicht am 31.07.2025Die neue KI-Verordnung bringt strengere Anforderungen für KI-Modelle mit allgemeinem Verwendungszweck und potenziell systemischem Risiko. Gemeint sind großskalige Systeme wie Sprachmodelle (z. B. GPT-4), Bildgeneratoren (z. B. DALL·E) oder multimodale Modelle, die Sprache, Bilder und strukturierte Daten verarbeiten können.
Sie finden Anwendung in Chatbots, automatisierter Text- und Codegenerierung, der Medienproduktion, Kundenkommunikation sowie in sensiblen Bereichen wie Medizin, Justiz oder Personalentscheidungen. So vielfältig ihre Einsatzmöglichkeiten sind, so real sind auch die Risiken etwa durch fehlerhafte Inhalte, diskriminierende Ergebnisse oder missbräuchliche Nutzung.
Risikoanalyse als systematisches Fundament
Die KI-Verordnung verlangt gem. Art. 55 mehr als nur eine oberflächliche Bewertung. Anbieter müssen strukturierte und nachvollziehbare Verfahren etablieren, um Risiken zu identifizieren, zu klassifizieren und zu bewerten.
Dabei geht es nicht nur um technische Schwachstellen, sondern um das gesamte Wirkungsspektrum des Modells:
- Welche unbeabsichtigten Auswirkungen können entstehen?
- Welche Gruppen könnten benachteiligt werden?
- Wo droht Missbrauch oder Fehlinterpretation von KI-generierten Inhalten?
Das umfasst eine angemessene Risikoanalyse
Eine Risikoanalyse gemäß Art. 55 lit. a KI-Verordnung sollte insbesondere folgende Dimensionen abdecken:
- Funktionale Risiken: Gibt es Anwendungsbereiche, in denen das Modell instabil, fehleranfällig oder schwer kontrollierbar ist?
- Ethik und Fairness: Produziert das Modell diskriminierende, voreingenommene oder gesellschaftlich problematische Inhalte?
- Missbrauchspotenzial: Lässt sich das Modell zweckentfremden, etwa zur Erzeugung manipulativer Inhalte, Deepfakes oder zur automatisierten Täuschung?
- Interaktion mit sensiblen Bereichen: Welche Risiken entstehen bei Anwendungen im Gesundheitswesen, in der Justiz, Bildung oder öffentlichen Verwaltung?
Die Analyse muss dokumentiert und bei Bedarf regelmäßig aktualisiert werden, insbesondere bei Modifikationen, neuen Anwendungsfällen oder geänderten Nutzungskontexten.
Vom Prüfprozess zur Verantwortungskultur
Die Risikoanalyse ist somit kein reiner Compliance-Akt, sondern ein zentrales Element einer verantwortungsvollen KI-Entwicklungskultur. Sie zwingt Anbieter dazu, sich intensiv mit der realen Wirkung ihrer Modelle auseinanderzusetzen – nicht nur aus Sicht der Funktionalität, sondern auch im Hinblick auf gesellschaftliche Werte, Rechtsstaatlichkeit und Grundrechte.
Gleichzeitig entsteht so ein strukturierter Dialog zwischen Entwicklern, Regulierungsbehörden und der Öffentlichkeit. Risiken werden nicht verdrängt, sondern frühzeitig benannt, eingeordnet und entschärft.
Artikel 55 lit. a der KI-Verordnung macht damit klar: Verantwortung beginnt mit Wissen. Eine gründliche, belastbare Risikoanalyse ist das Fundament für sichere und vertrauenswürdige KI-Systeme. Wer KI-Modelle mit potenziell systemischem Einfluss entwickelt, muss ihre Risiken nicht nur kennen, sondern aktiv managen.
Sprechen Sie uns gerne an, bei Fragen zu KI-Modelle mit systemischem Risiko: Kontrollierte Angriffe zur Risikoermittlung


Laura Stöhr,
Juristin mit Schwerpunkt Datenschutzrecht. Sie unterstützt unsere Consultants durch wissenschaftliche Arbeit zu aktuellen rechtlichen Fragestellungen.
Auf unserem Blog schreibt sie über Themen rund um Datenschutz, die KI-Verordnung und Informationssicherheit.
Weitere Artikel
- Cyber-Risiko-Check: Wirkungsvoller Schutz für Klein- und Kleinstunternehmen
- Spionage-Apps: So erkennen und stoppen Sie Spyware auf Ihrem Smartphone
- Beteiligungsrechte des Betriebsrats: Wie das Hinweisgeberschutzgesetz die Arbeitnehmer stärkt
- nv-format: Der Digital Personal Data Protection Act 2023 Indiens
- EuGH-Urteil zum Bonitätsscoring: Was bedeutet das für Verbraucher und Wirtschaft?
- Widerruf oder Widerspruch nach DSGVO: Was ist der Unterschied?