Regulierung von Künstlicher Intelligenz durch KI-Gesetz
Geschrieben von Laura Stöhr, veröffentlicht am 02.05.2024Nach intensiven Verhandlungen haben sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU im Dezember 2023 auf ein Gesetz zur Regelung der Künstlichen Intelligenz (KI) geeinigt.
Dieses Gesetz zielt darauf ab, einen verantwortungsvollen Umgang mit KI-Technologien zu fördern und sicherer zu gestalten.
Vor einer konkreten Umsetzung des Gesetzes in ca. zwei Jahren müssen dem Vorhaben noch das Europäische Parlament und der Rat der EU offiziell zustimmen, was für Ende April erwartet wird.
Hintergrund
Die immer rasanteren Entwicklungen technischer Systeme, welche menschliches Lernen imitieren, bergen sowohl immense Chancen als auch hohe Risiken.
Um jedoch die Entwicklung nicht zu stoppen und gleichzeitig drohenden Gefahren künftig besser vorbeugen zu können, soll durch klare Vorgaben die Innovation im Bereich der KI kontrolliert werden.
Dabei soll zum einen das Vertrauen in Technologien gestärkt werden, zum anderen der Schutz der Grundrechte und die Sicherheit der EU-Bürger im Mittelpunkt stehen.
Wann tritt das Gesetz in Kraft?
Die bereits vorliegende politische Einigung muss noch formell vom Europäischen Parlament und dem Rat der EU bestätigt werden.
Nach der Verabschiedung des KI-Gesetzes wird es dann eine Übergangsphase geben, bevor die Verordnung tatsächlich in Kraft tritt.
Für diese Übergangszeit plant die Europäische Kommission die Einführung eines sogenannten „KI-Paktes“. Dabei sollen KI-Entwickler aus Europa und weltweit zusammenkommen und sich freiwillig dazu verpflichten, die zentralen Anforderungen des KI-Gesetzes bereits vor den gesetzlich vorgeschriebenen Fristen umzusetzen.
Welche Regelungen soll es geben?
Die unterschiedlichen Anforderungen richten sich nach einer Einteilung der KI-Anwendungen in vier Risikokategorien: Je höher das Risiko einer Anwendung, desto strenger sind die entsprechenden Regelungen.
Minimales Risiko
Die überwiegende Mehrheit der KI-Systeme wird dabei wohl der Kategorie des minimalen Risikos zugeordnet.
Anwendungen mit minimalem Risiko, wie KI-basierte Empfehlungssysteme oder Spamfilter, unterliegen geringeren Vorschriften und Verpflichtungen, da sie nur ein minimales oder kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Unternehmen sollen jedoch trotzdem die Möglichkeit haben, sich auf freiwilliger Basis zu zusätzlichen Verhaltenskodizes für diese KI-Systeme zu verpflichten.
Hohes Risiko
KI-Systeme, die als risikoreich eingestuft werden, unterliegen strengeren Anforderungen. Zu diesen Anforderungen gehören beispielsweise Mechanismen zur Risikominderung, die Protokollierung von Aktivitäten, transparente Benutzerinformationen, menschliche Überwachung sowie ein hohes Niveau an Robustheit, Genauigkeit und Cybersicherheit.
Um dabei dennoch verantwortungsvolle Innovationen und die Entwicklung konformer KI-Systeme zu fördern, werden „regulatorische Sandkästen“ eingerichtet. Diese ermöglichen es Unternehmen, unter kontrollierten Bedingungen neue Technologien zu testen und ihre Systeme an die regulatorischen Anforderungen anzupassen.
Unannehmbares Risiko
KI-Systeme, die eine klare Gefährdung der Grundrechte von Menschen darstellen, sollen verboten werden.
Hierzu zählen Systeme oder Anwendungen, die darauf abzielen, das menschliche Verhalten zu manipulieren und den freien Willen der Nutzer zu umgehen. Beispiele hierfür wären Spielzeuge mit Sprachassistenten, welche gefährliches Verhalten bei Minderjährigen fördern.
Zusätzlich werden bestimmte biometrische Systeme untersagt, wie etwa Systeme zur Emotionserkennung am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Echtzeit-Fernidentifikation zu Strafverfolgungszwecken in öffentlichen Räumen.
Spezifisches Transparenzrisiko
Bei der Nutzung von KI-Systemen wie Chatbots sollten Nutzer sich stets bewusst sein, dass sie mit einer Maschine kommunizieren.
Deepfakes und andere KI-generierte Inhalte müssen also später eindeutig als solche gekennzeichnet werden. Zudem müssen Nutzer darüber informiert werden, wenn Systeme zur biometrischen Kategorisierung oder Emotionserkennung zum Einsatz kommen.
Anbieter von KI-Systemen sind folglich dazu verpflichtet, ihre Technologien so zu entwickeln, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format markiert werden können. Diese Kennzeichnung soll deutlich machen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.
Fazit:
Das neu vereinbarte KI-Gesetz der EU ist ein bedeutender Schritt in der Regulierung von Künstlicher Intelligenz. Es zielt darauf ab, einen verantwortungsvollen und sicheren Umgang mit KI-Technologien zu gewährleisten, indem es klare Vorgaben und Anforderungen für unterschiedliche Risikokategorien von KI-Anwendungen festlegt. Dabei werden Innovationen gefördert – und gleichzeitig die Grundrechte und die Sicherheit der EU-Bürger geschützt.
Passend zum Beitrag: Datenschutzbedenken gegen OpenAI