Von der Theorie zur Praxis: Beispiele für die Umsetzung des EU AI Act
Geschrieben von Miriam Harringer, veröffentlicht am 23.09.2025Seit Inkrafttreten des EU AI Act stehen Unternehmen in Europa vor der Aufgabe, ihre KI-Anwendungen an den neuen Rechtsrahmen anzupassen. Die Verordnung stellt klare Anforderungen an Sicherheit, Transparenz und Rechenschaftspflicht – besonders bei Hochrisiko-Systemen. Drei Beispiele zeigen, wie Unternehmen aus verschiedenen Branchen die Vorgaben des EU AI Act konkret in ihre Prozesse integriert haben oder zukünftig integrieren könnten.
Beispiel 1: Medizinische Diagnostik
Dermalyser von AI Medical Technology (AIM): Dieses KI-gestützte Tool zur Diagnose von Melanomen erhielt kürzlich die CE-Kennzeichnung in Europa, was seinen kommerziellen Einsatz nach der europäischen Medizin-Produkteverordnung (MDR) erlaubt – ein wichtiger Schritt in Richtung Konformität mit den Vorschriften des EU AI Act für Hochrisiko‑KI im medizinischen Bereich. In klinischen Studien in Schweden erzielte Dermalyser eine Sensitivität von 95,2 % und eine Spezifität von 84,5 % und übertraf damit die Leistung von Dermatologen.
Beispiel 2: Chatbot im Energiesektor
E.ON hat mit dem KI-gestützten Chatbot Electra im Rahmen seiner E.ON Drive Comfort-App eine Lösung eingeführt, die nicht nur intelligente Navigation, mehrsprachige Unterstützung und Echtzeit-Auskünfte zum Ladestrom bietet. Sie ermöglicht auch eine nahtlose Übergabe an einen menschlichen Support-Agenten, wenn der automatisierte Chat an seine Grenzen stößt. Diese Funktion entspricht der im EU AI Act geforderten Transparenzpflicht – Nutzerinnen und Nutzer erkennen klar, dass sie mit einem KI-System interagieren, und können jederzeit auf menschliche Hilfe zurückgreifen.
Beispiel 3: AstraZeneca und Ethics-Based Auditing (EBA)
Der Pharmakonzern AstraZeneca hat über 12 Monate hinweg ein sogenanntes Ethics-Based Auditing (EBA) durchgeführt, um seine AI-gesteuerten Systeme auf ethische und regulatorische Konformität hin zu überprüfen. Dabei wurde ein strukturiertes Audit‑Verfahren eingesetzt, das auf moralischen Prinzipien basiert und Governance‑Lücken zwischen Theorie und Praxis schließen soll. Die Studie zeigt, wie ein großes Unternehmen interne Kontrollmechanismen aufbaut, um Compliance‑Standards effektiv zu implementieren — genau das, was der EU AI Act bei Hochrisiko-KI voraussetzt.
Fazit
Erste Anwendungen zeigen, wie sich die Vorgaben in der Praxis umsetzen lassen. Entscheidend dabei ist, dass Unternehmen die Schritte – von der theoretischen Anwendung hin zur Praxis – verantwortungsvoll und transparent angehen.
Veröffentlicht am 23. September 2025
Sprechen Sie uns gerne an, bei Fragen zu Von der Theorie zur Praxis: Beispiele für die Umsetzung des EU AI Act


Miriam Harringer,
Medien- und Kulturmanagerin sowie langjährige Redakteurin.
Auf unserem Blog schreibt sie Artikel für die Themenbereiche Datenschutz, Informationssicherheit und Künstliche Intelligenz.
Weitere Artikel
- Werbe-E-Mails ohne Einwilligung: EuGH erlaubt das jetzt teilweise
- Sind KI-Agenten ein IT-Sicherheitsrisiko?
- Digitalzwang im Alltag: Auch ein Compliance-Thema – nicht nur ein Gesellschaftsproblem
- Neue Arbeitgeberpflicht: KI-Kompetenz verstehen und fördern
- Meta muss zahlen: Tracking digitaler Bewegungen in Business Tools
- iPhone gestohlen? Vorsicht vor dieser fiesen Phishing-Masche um Ihre PIN
Verwandte Artikel
- Was das neue Bundessicherheitsgesetz für deutsche Unternehmen bedeutet
- Sind KI-Agenten ein IT-Sicherheitsrisiko?
- EU-Parlament entscheidet sich gegen KI-Funktionen auf Dienstgeräten
- NIS-2: Registrierungsfrist in Deutschland läuft am 6. März ab
- Europas Cybersecurity-Paket 2026
- Cybersicherheit: Penetrationstests & Trainings