Googles neue KI-Richtlinien: Verzicht auf explizite Ablehnung von Waffenanwendungen
Google hat seine Grundsätze für Künstliche Intelligenz (KI) aktualisiert und dabei die bisherige Selbstverpflichtung, keine KI für Waffensysteme zu entwickeln, entfernt. Stattdessen betont das Unternehmen nun allgemein, KI im Einklang mit international anerkannten Menschenrechtsprinzipien einzusetzen. Diese Änderung wirft Fragen zur zukünftigen Ausrichtung von Googles KI-Entwicklung auf.
Hintergrund der Anpassung
Im Jahr 2018 hatte Google nach internem Widerstand gegen die Beteiligung an einem Drohnenprogramm des US-Militärs klare ethische Leitlinien für den Einsatz von KI formuliert. Damals verpflichtete sich das Unternehmen ausdrücklich, keine KI für Waffensysteme oder Überwachungstechnologien zu entwickeln, die gegen international anerkannte Normen verstoßen. In der aktuellen Überarbeitung dieser Grundsätze wurde dieser spezifische Verzicht jedoch gestrichen. Google begründet die Anpassung mit der rasanten Entwicklung der Technologie seit 2018, ohne jedoch konkret auf die entfernten Passagen einzugehen.
Reaktionen und Ausblick
Die Entfernung der expliziten Ablehnung von KI für Waffensysteme hat unterschiedliche Reaktionen hervorgerufen. Während einige die Flexibilität begrüßen, äußern andere Bedenken hinsichtlich der ethischen Verantwortung des Unternehmens. Es bleibt abzuwarten, wie sich Googles Engagement im Bereich der KI-Entwicklung künftig gestaltet und welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Technologie verantwortungsvoll und zum Wohle der Gesellschaft eingesetzt wird.

Kemal Webersohn, Geschäftsführer
Weitere Artikel des Autoren
- Sichere Passwörter erstellen und Mehrfachverwendung vermeiden
- Strafen und Sanktionen: Welche Konsequenzen drohen bei Nichteinhaltung des EU AI Act?
- EuGH verhängte Strafe in Höhe von 34 Millionen Euro gegen Deutschland
- Erhebung von Infektionsdaten durch Arbeitgeber
- EuGH-Urteil zu Facbook-Seiten
- Zeitplan des EU AI Act: Alle Deadlines auf einen Blick