KI-Risikobewertung und Einstufung nach dem EU AI Act: Jetzt Fragebogen ausfüllen

Der EU AI Act etabliert erstmals einen einheitlichen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz in Europa. Unternehmen müssen ihre KI-Systeme nun einer Risikokategorie zuordnen. Doch wonach richtet sich diese Kategorisierung?

Risikobasierte Einstufung von KI

Der EU AI Act unterscheidet vier Risikokategorien:

  1. Verbotene KI-Praktiken: Hierunter fallen KI-Anwendungen, die unzulässig in Grundrechte eingreifen, etwa manipulative Systeme oder solche, die Social Scoring betreiben. Sie sind in der EU komplett untersagt.
  2. Hochrisiko-KI: Dazu gehören KI-Systeme, die in sensiblen Bereichen zum Einsatz kommen, beispielsweise in der Medizin (z. B. Diagnosetools), Strafverfolgung (z. B. Identifizierung von Tatverdächtigen), Justiz (z. B. Entscheidungshilfen bei Urteilen), Bildung (z. B. Bewertungssysteme) oder Beschäftigung (z. B. Automatisierte Rekrutierungstools). Für sie gelten strenge Anforderungen an Transparenz, Datenqualität, menschliche Aufsicht sowie Robustheit.
  3. Begrenzt risikobehaftete KI: Diese Systeme können potenziell Einfluss auf Nutzerinnen und Nutzer haben, jedoch ohne massiv in deren Rechte einzugreifen. Beispiele sind Chatbots im Kundenservice, Empfehlungssysteme für Videos oder Musik. Hauptaugenmerk liegt auf Transparenz, etwa dem Hinweis, dass User mit einer KI interagieren.
  4. Geringes Risiko: Hierzu zählen interne Analysetools oder harmlose Automatisierungen, die nur minimale Vorgaben erfüllen müssen.

Fazit: Sorgfältige Einstufung nötig

Eine sorgfältige Einstufung der von Ihnen verwendeten KI-Systeme ist nach dem EU AI Act Pflicht. Unser strukturierter Fragebogen hilft, die korrekte Kategorie frühzeitig zu erkennen, notwendige Maßnahmen zu treffen und langfristig zuverlässige KI-Services bereitzustellen.

Füllen Sie jetzt unseren Fragebogen aus, um eine Risikokategorisierung vorzunehmen.