Nürnberg - Täuschend echt, blitzschnell produziert - und für viele kaum noch erkennbar: KI-generierte Medien überfluten soziale Netzwerke. Doch es gibt Methoden, mit denen sich digitale Erzeugnisse entlarven lassen.

Künstliche Intelligenzen lernen ständig dazu und verbessern sich rasant - quasi exponentiell. Längst genügt daher nicht mehr allein die Identifizierung zu vieler Gliedmaßen oder stockender Bewegungen. Mittlerweile können Menschen KI‑generierte Medien kaum noch von menschgemachten unterscheiden, wie eine Studie der Ruhr-Universität Bochum, der Leibniz Universität Hannover und der TU Berlin ergeben hat.

Henk Van Ess veröffentlichte gemeinsam mit dem Global Investigative Journalism Network im September 2025 einen Guide, der Reporterinnen und Reporter dabei unterstützen soll, KI-generierte Medien zu erkennen. Er ist Gutachter des Poynter International Fact-Checking Network und Mitglied von Bellingcat. „Traditionelle Faktenchecks brauchen Stunden bis Tage. Die KI‑Generierung von Falschinformationen dauert nur Minuten“, erklärt er in seinem Artikel für das Netzwerk.

Es gehe nicht mehr darum, eine eindeutige Identifizierung vorzunehmen, sondern Wahrscheinlichkeiten zu bewerten. Nun müssten Standards entwickelt werden, anhand derer audiovisuelle Beweise erstellt und geprüft werden können, schreibt Van Ess. Insgesamt existieren sieben Kategorien der KI-Erkennung. Er schlägt ein dreistufiges Verfahren für Journalistinnen und Journalisten vor - einige Methoden lassen sich auch außerhalb dessen anwenden.

1. Alles sagende Perfektion

Zunächst empfiehlt Van Ess einen dreißigsekündigen „Red Flag Check“. Dabei geht es um ein erstes Bauchgefühl hinsichtlich Ästhetik und Qualität - Dinge, die „zu gut, um wahr zu sein“ wirken: etwa Personen, die für eine bestimmte Situation zu perfekt hergerichtet sind, oder Haut, die unnatürlich glatt aussieht.

Darauf folgt eine fünfminütige Überprüfung, bei der technische Details untersucht werden: anatomische Perfektion, Symmetrie ohne natürliche Umwelteinflüsse, Hauttextur, Falten in der Kleidung, lose Haarsträhnen, nicht dreidimensional wirkender Schmuck oder gleichförmige Zähne.

Abschließend steht die tiefgehende Untersuchung, bei der Präzision entscheidend ist. Hier sollen Verifizierungspunkte herausgearbeitet werden, die eine Wahrscheinlichkeitsbewertung erlauben. Damit entsteht zwar kein endgültiger Beweis, aber eine fundierte Einschätzung. Möglich ist dafür auch eine vergleichende Analyse: Wie sieht die dargestellte Person normalerweise aus? Gibt es weitere Bilder aus ähnlichen Zusammenhängen mit derselben „perfekt“ aussehenden Person? Wie wirkt der Kontext? Gibt es andere Blickwinkel?

2. Verstöße gegen die geometrische Physik

Um KI-Fehler erkennen zu können, müsse man verstehen, wie sie generiert werden. Van Ess erklärt: KIs setzen Bilder nicht wie ein Fotograf, sondern wie ein Collagenkünstler zusammen. „Sie verstehen visuelle Elemente, aber nicht die geometrischen und physikalischen Regeln, die bestimmen, wie Licht, Perspektive und Schatten in der realen Welt tatsächlich funktionieren.“

Solche fundamentalen physikalischen Fehler seien für KI schwerer zu beheben, da sie ein echtes Verständnis von 3D-Raum und Licht erfordern. Bei der Analyse von Landschaften sollte daher besonders auf Fluchtpunkte geachtet werden - parallele Linien, die am Horizont zusammenlaufen. Ebenso müssen Licht und Schatten in einem korrekten Verhältnis zueinander stehen.

3. Der Kontext

Da KI Bilder anhand visueller Muster und nicht aufgrund realer Zusammenhänge erzeugt, entstehen häufig Motive, die nur einer oberflächlichen Betrachtung standhalten, betont Van Ess. Deshalb müssen die Bilder grundlegend hinsichtlich ihrer Logik und ihrer Beziehung zu Ort, Zeit und Umständen hinterfragt werden. Wichtige Fragen sind: Passt das Wetter zur Kleidung und zum Licht? Passen Geräte oder Fahrzeuge in die Zeitspanne? Stehen die abgebildeten Gebäude tatsächlich am genannten Ort?

Dabei ist auch der Hintergrund entscheidend. Das Bundesamt für Sicherheit in der Informationstechnik weist darauf hin, dass Details im Hintergrund oft nicht stimmig sind. Außerdem können übermäßig unscharfe Hintergründe ein Hinweis auf eine KI‑Erzeugung sein. Auch die Übergänge zwischen Mustern und Texturen sollten überprüft werden, beispielsweise an einer Decke oder Verzierung, Werden die abrupt unterbrochen oder haben einen unnatürlichen Verlauf, weist das auf eine fehlerhafte Generierung hin.

4. Video und Audio

KI kann bereits aus wenigen Klangproben vollständige Audiodateien generieren. Dennoch weisen sie verräterische Merkmale auf: unnatürliches Sprechtempo ohne Pausen oder Atemzüge, makellose Aussprache, monotone oder robotische Betonung, fehlende Umgebungsgeräusche sowie ungewöhnliche Phrasen oder Begriffe. Für die Analyse empfiehlt Van Ess den „Hiya Deepfake Voice Detector“, ein Chrome‑Plugin, das bis zu 20 Mal pro Monat genutzt werden kann.

Auch auf Social Media verbreitet sich KI rasant. Jeremy Carrasco, der zuvor als Videoproducer Videos auf Fehler untersucht hat, widmet sich nun speziell der Analyse KI-generierter Inhalte. Im Gespräch mit NPR erklärt der Medienmacher, dass Zuschauerinnen und Zuschauer sich bewusst machen müssen, dass hinter KI-generierten Videos keine reale Person an der Kamera steht. Gerade deshalb können trügerische Kamerabewegungen sowie die grundlegende Frage „Wer hat das gefilmt - und warum?“ wichtige Hinweise bei der Aufdeckung künstlich erzeugter Videos liefern.

@rachelthecatlovers Just checked the home security cam and… I think we’ve got guest performers out back! @Ring #bunny #ringdoorbell #ring #bunnies #trampoline ♬ Bounce When She Walk - Ohboyprince

Im vergangenen Jahr ging ein KI‑generiertes Video von Hasen auf einem Trampolin online. Der Beitrag löste im gesamten Netz eine Debatte über generierte Inhalte aus.

5. Menschliche Muster

Auch menschliches Verhalten bereitet KI weiterhin Schwierigkeiten. Bei Menschengruppen können etwa überwiegend gleichaltrigen oder sehr ähnlich aussehenden Personen ein Hinweis auf Generierung sein. Die Blickrichtung kann ebenfalls verräterisch sein, etwa wenn viele Personen unnatürlich in dieselbe Richtung oder direkt in die Kamera schauen. Auch Emotionen können fehlerhaft oder unpassend zur dargestellten Situation sein. Zudem sollte geprüft werden, ob Menschen auf ihre Umwelt reagieren: Gibt es auffällige Mimiken oder gleichförmige, wiederkehrende Ausdrücke?

Niemals eine hundertprozentige Sicherheit

Im Zuge der Suche nach einem universellen Werkzeug entwickelte Van Ess die Seite Image Whisperer. Dabei handelt es sich um ein KI-gestütztes Tool, das bei der Analyse potenziell KI-generierter Medien helfen soll.

Die Website liefert vor allem Einschätzungen, ob ein Bild KI-generiert ist oder nicht. Sie listet mehrschichtige und kontextuelle Erklärungen auf, anhand derer mögliche manipulative oder generative Merkmale erkannt werden können.

Während bei der Analyse auch mathematische Signaturen der KI-Generierung berücksichtigt werden, weisen die Entwickler darauf hin, dass ein perfekt generiertes Bild ohne Fehler nicht erkannt werden kann. Die Seite sei daher ein Werkzeug - aber kein Richter. Ebenso wie die menschliche Analyse könne sie niemals eine hundertprozentige Sicherheit gewährleisten.