Nürnberg - Im Netz und den sozialen Netzwerken finden sich immer mehr minderwertige KI‑Inhalte. Warum diese digitale Ramschware immer häufiger zu sehen ist - und welche Folgen das hat.

Wer durch Social‑Media‑Feeds scrollt oder auf YouTube neue Videos vorgeschlagen bekommt, stößt seit einer Weile immer häufiger auf Inhalte, die irritierend glatt wirken und gleichzeitig kaum Substanz bieten. Bilder, die nicht ganz echt aussehen, Artikel, die sich lesen wie von einer Maschine geschrieben (was daran liegt, dass sie von einer Maschine geschrieben wurden) - oder auch künstlich wirkende Videos, unterlegt mit einer Stimme, die klingt wie eine Mischung aus Hörbuch und Anrufbeantworter. Hinter all diesen Entdeckungen steckt ein Phänomen, das sich binnen weniger Jahre von einem Nischen- zu einem Massenproblem entwickelt hat. Der Fachbegriff dafür: AI Slop.

Der Begriff steht für digitale Inhalte mit geringer Qualität, die gewöhnlich in großen Mengen durch KI erzeugt werden. Dahinter steht kein kreativer Prozess, sondern ein bestimmtes Kalkül: Möglichst viel Content produzieren, um im immer rasanter werdenden Wettbewerb um Aufmerksamkeit mitzuhalten. Wie so etwas aussehen kann (und was für eine absurd hohe Reichweite sich dadurch erzielen lässt), zeigt dieses Beispiel, das am Abend des 24. Januar gepostet und bisher über 2000 Mal geteilt wurde:

Von „Zombie‑Fußball“ bis „Katzen‑Seifenopern“

Eine Analyse von The Guardian im Jahr 2025 hat gezeigt, wie stark Plattformen bereits von AI Slop durchdrungen sind: Demnach bestanden über 20 Prozent der Videos, die YouTube neuen Nutzern vorschlug, aus solchen Inhalten. Grundlage der Analyse war eine Untersuchung von 15.000 Top‑Kanälen. Das Ergebnis: 278 Kanäle bestanden vollständig aus KI-generiertem Content, erreichten zusammen 63 Milliarden Aufrufe, 221 Millionen Abonnenten und generierten Einnahmen von rund 117 Millionen Dollar pro Jahr.

Weiter zeigte die gleiche Studie, dass neun der 100 am schnellsten wachsenden YouTube-Kanäle reine KI-Produktionen waren - mit Inhalten, die von „Zombie‑Fußball“ bis „Katzen‑Seifenopern“ reichten.

Auch in sozialen Netzwerken verbreitet sich AI Slop rasant. KI-Bilder und -Videos lassen sich binnen Sekunden massenhaft erstellen und stellen einen idealen Rohstoff für Plattformen wie Facebook oder TikTok dar, deren Algorithmen nicht Sorgfalt und Kreativität belohnen, sondern Aktivität.

Und warum ist das ein Problem?

Die Motivation hinter AI Slop ist simpel: Wer viel produziert, wird bekommt mehr Reichweite. Generative KI ist damit für manche Akteure ein Werkzeug, um mit minimalem Aufwand möglichst viele Inhalte ins Netz zu drücken. Dadurch entsteht eine Flut aus schnellen, billigen, leicht teilbaren Inhalten mit der Folge, dass Qualität der Inhalte im Netz sinkt und seriöse Arbeit es schwerer hat, sichtbar zu bleiben - schließlich müssen sich die Nutzer durch immer mehr minderwertigen Content wühlen.

Doch das ist noch nicht alles: AI Slop kann auch zu einer politischen Waffe werden. Als Ende September 2024 der Hurrikan Helene das amerikanische Festland traf und mindestens 247 Menschen ihr Leben verloren, wurde unter anderem ein offensichtlich durch KI erstelltes (und dennoch millionenfach geteiltes) Bild von der amerikanischen Rechten verwendet, um die Katastrophe der Regierung von Joe Biden anzulasten. Und auch US-Präsident Trump selbst nutzt gerne entsprechende Inhalte - sei es, um sich als Papst zu inszenieren oder um mit einer Krone auf dem Kopf von einem Kampfjet aus Fäkalien auf Demonstranten abzuwerfen.

Aber auch für die KI selbst wird die wachsende Menge an minderwertigen Inhalten zum Problem: Inhalte, die von Künstlicher Intelligenz erzeugt wurden, werden zunehmend zum Training für neue Modelle verwendet. Dadurch steigt die Wahrscheinlichkeit, dass Modelle versehentlich von Texten lernen, die selbst nur maschinelle Produkte sind - ein Trend, der durch die rapide Verbreitung minderwertiger Inhalte noch verstärkt wird. Kurz gesagt: KI konsumiert zunehmend ihren eigenen Müll.