Was ist die Grundrechte-Folgenabschätzung gem. Art. 27 KI-VO?
Der Einsatz hochriskanter KI-Systeme kann tiefgreifende Auswirkungen auf die Grundrechte von Menschen haben – und auf Datenschutz, Gleichbehandlung oder Meinungsfreiheit. Um Risiken vorzubeugen, verpflichtet Artikel 27 der EU-KI-Verordnung (KI-VO) Betreiber von hochriskanten KI-Systemen dazu, eine Grundrechte-Folgenabschätzung durchzuführen, bevor das System zum Einsatz kommt.
Artikel 27 betrifft insbesondere öffentliche Stellen und Einrichtungen, die hochrisikobehaftete KI-Systeme im Zusammenhang mit der Erbringung öffentlicher Dienstleistungen nutzen wollen – beispielsweise in den Bereichen Bildung, Sozialleistungen, Migration, Biometrie oder Strafverfolgung. Aber auch Versicherungs- und Bankensektoren müssen bei Anwendung von beispielsweise KI-Scoring-Systemen eine Grundrechte-Folgenabschätzung durchführen. (1)
Bevor solche Systeme in den Betrieb gehen, müssen Betreiber eine dokumentierte Analyse bei der zuständigen Marktüberwachungsbehörde vorlegen, in der sie bewerten:
- Welche Grundrechte betroffen sein könnten,
- welche Risiken oder Schäden für gewisse Personengruppen durch die Nutzung entstehen können,
- welche potenziellen Maßnahmen zur Vermeidung oder Minderung dieser Risiken getroffen werden.
Diese Grundrechte-Folgenabschätzung ist zwar zunächst ein einmaliger Akt, aber auch als Teil eines kontinuierlichen Prozesses zu verstehen. Sie muss aktualisiert werden, wenn sich die Systemfunktion oder der Anwendungskontext wesentlich ändert.
Ziel ist es, die Auswirkungen auf die betroffenen Personen zu verstehen und zu begrenzen – zum Beispiel durch Anpassung der Systemeinstellungen, menschliche Aufsicht oder den Ausschluss besonders sensibler Daten.
Die Ergebnisse der Folgenabschätzung müssen dokumentiert und – soweit zulässig – transparent veröffentlicht werden.
Mit Artikel 27 verankert die KI-VO ein klares Signal: Der Schutz der Grundrechte steht im Zentrum jeder verantwortungsvollen KI-Nutzung.
(Quelle:
1 Vgl.: Martini/Wendehorst/I. Eisenberger KI-VO Art. 27 Rn. 1-14)
Veröffentlicht am 8. August 2025

Miriam Harringer, Redakteurin
Weitere Artikel des Autoren
- Trustworthy AI by Design Art. 17 KI-VO: Was bedeutet Qualitätsmanagement bei KI-Systemen?
- AI Slops in rechtlicher Grauzone: Wenn schlechte KI-Inhalte das Netz überschwemmen
- Neueste Angriffe auf die IT-Sicherheit: Mit diesen Maßnahmen beugen Sie vor
- Wer muss eine Datenschutz-Folgenabschätzung laut Art. 26. Abs. 9 KI-VO durchführen?
- Art. 26 Abs. 11 KI-VO: Hochrisiko-KI entscheidet mit? Betreiber muss betroffene Personen informieren!
- 2-Faktor-Authentifizierung von Microsoft Azure wird verpflichtend