Googles neue KI-Richtlinien: Verzicht auf explizite Ablehnung von Waffenanwendungen
Google hat seine Grundsätze für Künstliche Intelligenz (KI) aktualisiert und dabei die bisherige Selbstverpflichtung, keine KI für Waffensysteme zu entwickeln, entfernt. Stattdessen betont das Unternehmen nun allgemein, KI im Einklang mit international anerkannten Menschenrechtsprinzipien einzusetzen. Diese Änderung wirft Fragen zur zukünftigen Ausrichtung von Googles KI-Entwicklung auf.
Hintergrund der Anpassung
Im Jahr 2018 hatte Google nach internem Widerstand gegen die Beteiligung an einem Drohnenprogramm des US-Militärs klare ethische Leitlinien für den Einsatz von KI formuliert. Damals verpflichtete sich das Unternehmen ausdrücklich, keine KI für Waffensysteme oder Überwachungstechnologien zu entwickeln, die gegen international anerkannte Normen verstoßen. In der aktuellen Überarbeitung dieser Grundsätze wurde dieser spezifische Verzicht jedoch gestrichen. Google begründet die Anpassung mit der rasanten Entwicklung der Technologie seit 2018, ohne jedoch konkret auf die entfernten Passagen einzugehen.
Reaktionen und Ausblick
Die Entfernung der expliziten Ablehnung von KI für Waffensysteme hat unterschiedliche Reaktionen hervorgerufen. Während einige die Flexibilität begrüßen, äußern andere Bedenken hinsichtlich der ethischen Verantwortung des Unternehmens. Es bleibt abzuwarten, wie sich Googles Engagement im Bereich der KI-Entwicklung künftig gestaltet und welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Technologie verantwortungsvoll und zum Wohle der Gesellschaft eingesetzt wird.

Kemal Webersohn, Geschäftsführer
Weitere Artikel des Autoren
- Aktuelle Entwicklungen bei der Bußgeldbemessung nach DSGVO
- Was ist die Mitteilung des Datenschutzbeauftragten?
- Wie sieht ein sicheres Passwort aus?
- KI-Kompetenz aufbauen: Wie KI-Beauftragte Online-Schulungen für die EU AI Act-Compliance nutzen
- EuGH-Urteil zum Geschlechtsmerkmal in Formularen
- Blockchains Teil 1 – Recht auf Löschung