Photo: Queenmoonlite Studio - stock.adobe.com

AI Slops in rechtlicher Grauzone: Wenn schlechte KI-Inhalte das Netz überschwemmen

Geschrieben von Miriam Harringer, veröffentlicht am 31.07.2025

Das Internet wird zunehmend mit fehlerhaften oder irreführenden, KI-generierten Inhalten überschwemmt: Ganz zu Beginn sorgten Bilder eines „Shrimp Jesus“ für Verwunderung. Jetzt verzerren Fake-Produktbewertungen die Realität, niedliche KI-Tiere dominieren Social Media und angeblich echte Reiseberichte entpuppen sich regelmäßig als künstliche Kreationen.

Das Phänomen minderwertiger KI-Inhalte, die das Internet überschwemmen, heißt AI-Slopping – und das bewegt sich oft in einer rechtlichen Grauzone.

Quantität für viele Klicks, Likes und Aufmerksamkeit

AI Slops stammen häufig aus generativen KI-Systemen wie ChatGPT oder MidJourney. Im Fokus der Veröffentlichungen steht dabei immer Quantität statt Qualität. Der Begriff AI Slop beschreibt demnach Inhalte, die keinen wirklichen oder gar keinen Mehrwert liefern.

Sie sollen Websites, soziale Netzwerke (z. B. YouTube, Instagram oder X) und News-Portale fluten – oft nur, um Klicks, Aufmerksamkeit und damit Werbeeinnahmen zu erzeugen.

Gruppen oder Einzelpersonen setzen generative KI-Tools ein, um in rasendem Tempo große Mengen an Texten, Bildern oder Videos zu generieren. Manche Inhalte wirken auf den ersten Blick seriös bzw. relevant, enthalten aber oft Fehler, Wiederholungen oder veraltete Informationen.

Viele dieser Inhalte bestehen aus automatisch zusammengestellten Wikipedia-Sätzen, andere recyceln wild und ohne System eine Vielzahl unterschiedlicher Internetinhalte, häufig ohne Bezug zur Realität.

AI Slopping bewegt sich in rechtlicher Grauzone

Rechtlich gesehen ist AI Slopping allerdings schwer zu greifen. Solange keine Urheberrechte verletzt oder bewusst gefährliche Falschinformationen verbreitet werden, die Menschen gefährden, bewegen sich solche KI-Inhalte in einer rechtlichen Grauzone.

Die Probleme: Zum einen werden Nutzerinnen und Nutzer getäuscht. Zum anderen besteht die Bias-Problematik, denn die KI-Tools werden im Umkehrschluss teils mit den AI Slops trainiert, wodurch neue Slops entstehen können – ein Kreislauf aus Falschinformationen.

Aktuell zeigen Suchmaschinen AI Slops zudem oft weit oben in der Trefferliste an, weil diese KI-generierten Inhalte Suchbegriffe ganz gezielt bedienen. So verdrängen sie nach und nach verlässliche, seriöse Quellen.

Social-Media-Seiten in der Pflicht

Wenn rechtlich nicht gegen AI Slops vorgegangen werden kann, müssen die Social-Media-Seiten aktiv werden. YouTube setzt das erste große Signal und verschärft ab dem 15. Juli 2025 seine Monetarisierungsrichtlinien, um gegen AI Slopping vorzugehen.

Inhalte müssen künftig „signifikant originell und authentisch“ sein, um weiter Geld verdienen zu können; Videos, die ausschließlich aus Text-zu-Video-Tools, gestohlenen Clips oder automatisierten Voice-overs bestehen, werden zukünftig noch schneller von der Monetarisierung ausgeschlossen.

Obwohl KI-generierte Inhalte grundsätzlich erlaubt bleiben, sollen künftig automatisierte, repetitive Inhalte stärker sanktioniert werden, um qualitativ hochwertigem Content mehr Sichtbarkeit zu verschaffen.

Keine Werbeerlöse mit AI Slops

Mit dem Shrimp Jesus muss man wohl daher weiterhin leben, auf YouTube wird der Ersteller aber vorerst keine weiteren Werbeeinnahmen mehr erzielen.

Veröffentlicht am 31. Juli 2025

Sprechen Sie uns gerne an, bei Fragen zu AI Slops in rechtlicher Grauzone: Wenn schlechte KI-Inhalte das Netz überschwemmen

Kemal Webersohn

Geschäftsführung
Christian Scholtz

Christian Scholtz

Geschäftsführung