Offene KI-Modelle als Risiko der Zweckentfremdung

Geschrieben von Miriam Harringer, veröffentlicht am 24.02.2026

Offene KI-Modelle wie LLaMA, Mistral oder Falcon sind inzwischen breit verfügbar und lassen sich – je nach Lizenzmodell – teilweise frei nutzen, lokal betreiben und individuell anpassen. Das beschleunigt Innovation: Unternehmen und Entwickler können leistungsfähige KI-Systeme schnell für unterschiedlichste Zwecke einsetzen.

Genau diese Offenheit bringt jedoch auch eine Schattenseite mit sich. Denn je leichter KI zugänglich und anpassbar ist, desto größer wird das Risiko einer Zweckentfremdung – insbesondere mit Blick auf Datenschutz und IT-Sicherheit.

Warum offene KI-Modelle ein Sicherheitsfaktor sind

Offene Modelle unterscheiden sich von klassischen Cloud-KI-Angeboten vor allem dadurch, dass sie nicht zwingend zentral kontrolliert werden. Viele Modelle lassen sich lokal installieren, mit eigenen Daten weiterentwickeln (Fine-Tuning) und in individuelle Tools integrieren.

Das sorgt für Geschwindigkeit und Flexibilität – macht aber auch missbräuchliche Nutzung leichter. Während Cloud-Anbieter in der Regel zentrale Sicherheitsmechanismen, Filter und Monitoring einsetzen, können offene Modelle ohne solche Schutzschichten betrieben oder verändert werden.

Welche Risiken bestehen für Sie?

Das zentrale Risiko liegt in der missbräuchlichen Nutzung solcher Modelle. Die Zweckentfremdung kann verschiedene Formen annehmen – von manipulativer Kommunikation bis zur konkreten Angriffsvorbereitung.

Beispielsweise berichteten Sicherheitsforscher 2025, dass Cyberkriminelle Mainstream-LLMs wie Mistral (Mixtral) und xAI Grok jailbreaken und als „Dark LLM“-Tools missbrauchen – u. a. für Phishing-Mails, Malware-Code und Hacking-Anleitungen.

Typische Missbrauchsszenarien

  • Automatisiertes Phishing: Sprachmodelle erzeugen täuschend echte Phishing-Mails in perfektem Stil – inklusive variabler Formulierungen, ohne erkennbare Rechtschreibfehler.
  • Social Engineering in neuer Qualität: Angreifer können Zielpersonen gezielt ansprechen, Kommunikationsstile imitieren und Angriffe personalisieren.
  • Manipulative Inhalte und Desinformation: KI kann zur Erstellung glaubwürdiger Fake-Inhalte genutzt werden, um Entscheidungen zu beeinflussen oder Vertrauen zu zerstören.
  • Unterstützung von Hacking-Vorhaben: Modelle helfen beim Analysieren von Sicherheitsmechanismen oder beim Erstellen technischer Angriffstexte.
  • Intransparente Datenverarbeitung: KI-Systeme können personenbezogene Daten verarbeiten oder „mitlernen“, ohne dass Betroffene dies nachvollziehen oder kontrollieren können.

Da offene Modelle schwer kontrollierbar sind, lassen sich missbräuchliche Einsätze deutlich schlechter eindämmen als bei zentral bereitgestellten KI-Diensten.

Regulierung: Was tut die Gesetzgebung?

Die europäische Gesetzgebung hat mit dem EU AI Act (KI-Verordnung) einen rechtlichen Rahmen geschaffen. Ziel ist es, KI-Systeme je nach Risikostufe zu regulieren und Grundrechte zu schützen.

Wichtig ist: Auch offene KI-Modelle können unter die KI-Verordnung fallen, insbesondere wenn sie in sensiblen Kontexten eingesetzt werden oder erhebliche Auswirkungen auf Rechte und Freiheiten haben. Je nach Rolle (Anbieter/Betreiber) und Einsatzbereich entstehen zusätzliche Anforderungen, etwa:

Parallel bleibt die DSGVO zentral: Sobald personenbezogene Daten verarbeitet werden, gelten weiterhin Datenschutzanforderungen – z. B. Datenschutz durch Technikgestaltung sowie geeignete Sicherheitsmaßnahmen.

So schützen Sie sich – Maßnahmen für Unternehmen

Einen vollständigen Schutz gegen Missbrauch gibt es nicht. Durch wirksame Prävention lassen sich Risiken jedoch deutlich reduzieren.

1) Verantwortungsvolle Nutzung und klare Governance
2) Datenschutz-Folgenabschätzung nutzen
3) Technische Schutzmaßnahmen konsequent umsetzen
4) Mehr Aufmerksamkeit im Alltag: Phishing & Social Engineering
5) Zertifizierungen und Compliance-Unterstützung realistisch einordnen

Fazit: Zwei Seiten einer Medaille

Offene KI-Modelle werden voraussichtlich stärker in Missbrauchsszenarien auftauchen – insbesondere zur Erstellung manipulativer Inhalte und zur Vorbereitung von Angriffen. Gerade deshalb lohnt sich jetzt ein realistischer Blick: nicht Panik, sondern Vorsorge. Denn gleichzeitig bleibt Open-Source-KI ein wichtiger Innovationstreiber. Entscheidend ist, dass Unternehmen den Einsatz in Einklang mit Datenschutz, IT-Sicherheit und Compliance bringen – und Mitarbeitende fit für die neuen Angriffsmethoden machen.

Sie möchten die Informationssicherheit in Ihrem Unternehmen stärken?
Dann ist jetzt der richtige Zeitpunkt, Ihre Beschäftigten für den sicheren Umgang mit Daten zu sensibilisieren – zum Beispiel mit unseren Online-Schulungen zur Informationssicherheit oder zur KI-Verordnung:

Zu den Schulungen

FAQ

Was sind offene KI-Modelle?

Offene KI-Modelle sind Modelle, die – je nach Lizenz – frei verfügbar sind und lokal betrieben sowie individuell angepasst werden können. Das ermöglicht flexible Anwendungen, erhöht aber auch das Missbrauchspotenzial.

Warum steigt das Phishing-Risiko durch KI?

KI kann Texte in perfektem Stil generieren, personalisieren und in hoher Geschwindigkeit variieren. Dadurch werden Phishing-Mails glaubwürdiger und schwerer zu erkennen.

Gilt der EU AI Act auch für Open-Source-KI?

Offene Modelle können vom EU AI Act erfasst sein – je nach Rolle (Anbieter/Betreiber) und Einsatzkontext. Besonders in sensiblen oder hochriskanten Anwendungen greifen zusätzliche Pflichten.

Welche Maßnahmen helfen am meisten gegen KI-Missbrauch?

Am wirksamsten sind technische Basics wie 2FA, Schutz der E-Mail-Infrastruktur, Monitoring sowie regelmäßige Sensibilisierung der Beschäftigten, da Social Engineering stark über menschliches Verhalten wirkt.

Sprechen Sie uns gerne an, bei Fragen zu Offene KI-Modelle als Risiko der Zweckentfremdung

Kemal Webersohn

Geschäftsführung
Christian Scholtz

Christian Scholtz

Geschäftsführung