KI-Sicherheit: Warum Forschende mehr Transparenz bei Gedankengängen fordern
Geschrieben von Laura Stöhr, veröffentlicht am 30.09.2025Was wäre, wenn man einer Künstlichen Intelligenz beim Denken zusehen könnte? Genau das fordern führende Forscherinnen und Forscher in einem neuen Positionspapier, darunter KI-Pionier Geoffrey Hinton und Ilya Sutskever, Mitgründer von OpenAI. Ihr Appell: Nur wenn KI ihre logischen Zwischenschritte offenlegt, lässt sich ihr Verhalten zuverlässig überwachen.
Die Gedankenkette als Schlüssel zur Kontrolle
Im Zentrum dabei steht die sogenannte Chain of Thought (CoT), auf Deutsch „Gedankenkette“. Dabei notiert ein Modell nicht nur das Ergebnis, sondern auch den Weg dorthin. Ursprünglich diente dieser Mechanismus dazu, Fehler zu vermeiden und die Genauigkeit zu steigern. Doch die Experten sehen darin inzwischen vor allem eine Sicherheitsfunktion: Wer die Gedankenschritte kennt, erkennt auch Fehlentwicklungen noch bevor eine KI aktiv wird.
Doch gerade neue Trainingsmethoden könnten Gedankengänge so stark komprimieren, dass sie für Menschen unsichtbar werden. Um dabei gegenzusteuern, fordern Wissenschaftlerinnen und Wissenschaftler gemeinsame Standards:
- messbare Kriterien für die Überwachbarkeit,
- Veröffentlichung der Ergebnisse in „System Cards“, einer Art Beipackzettel für KI,
- klare Regeln für die Veröffentlichung neuer Modelle.
Sicherheit braucht Transparenz
Die Chain of Thought ist jedoch kein Allheilmittel. Systeme könnten weiterhin Absichten verschleiern oder schädliche Aktionen ohne sichtbare Gedankenkette ausführen. Doch die Forschenden sehen in ihr eine wichtige zusätzliche Schutzschicht. Sie sei ein pragmatischer Weg, um in einer Übergangsphase mehr Sicherheit zu schaffen, bis tiefere Methoden der Erklärbarkeit, wie die mechanistische Interpretierbarkeit, besser entwickelt sind.
Die Botschaft ist somit klar: Je komplexer und autonomer KI-Systeme werden, desto wichtiger ist Transparenz. Die Gedankenkette ist eine der wenigen heute verfügbaren Möglichkeiten, Kontrolle zu behalten und Risiken frühzeitig zu erkennen.
Veröffentlicht am 30. September 2025
Sprechen Sie uns gerne an, bei Fragen zu KI-Sicherheit: Warum Forschende mehr Transparenz bei Gedankengängen fordern


Laura Stöhr,
Juristin mit Schwerpunkt Datenschutzrecht. Sie unterstützt unsere Consultants durch wissenschaftliche Arbeit zu aktuellen rechtlichen Fragestellungen.
Auf unserem Blog schreibt sie über Themen rund um Datenschutz, die KI-Verordnung und Informationssicherheit.
Weitere Artikel
- Das Zusammenspiel zwischen der NIS2 und dem Lieferkettengesetz
- Mega-Leak bei WhatsApp: Was der Zugriff auf 3,5 Milliarden Profile jetzt bedeutet
- Urheberrechtsstreit: Indische Medien klagen gegen OpenAI – was bedeutet das für die KI-Industrie?
- Die Auswirkungen der NIS2 auf die DSGVO
- Wenn Googeln zur datenschutzrechtlichen Falle wird: Der Fall Düsseldorf
- Weniger Bürokratie für kleine Unternehmen? Was die geplante VVT-Lockerung wirklich bedeutet
Verwandte Artikel
- Datenpanne bei Datev: Was tun, wenn Lohnabrechnungen falsch zugestellt werden?
- TÜV testet Lernspielzeug: Wenn KI ins Kinderzimmer einzieht
- OGH-Urteil: Meta muss vollständige Datenauskunft erteilen
- Cookie-Banner-Verstoß: Österreichische Datenschutzbehörde verhängt Bußgeld
- State Capture: Wie US-Tech-Konzerne den Staat neu programmieren
- Visafreies Reisen in die USA: Fordert die US-Regierung Zugriff auf biometrische Daten?