ZDF-KI-Panne erschüttert Vertrauen
ZDF-Skandal um KI-Video im „heute journal“ was der Fall für die Glaubwürdigkeit öffentlich-rechtlicher Medien bedeutet
Im „heute journal“ wurde ein Beitrag über Abschiebungen in den USA mit KI-generiertem Videomaterial bebildert ohne Kennzeichnung in der ursprünglichen Ausstrahlung. Das wirft Fragen zu Transparenz, redaktionellen Abläufen und zum Umgang mit KI im Nachrichtenjournalismus auf.
Was ist passiert?
In der Sendung des heute journal vom 15. Februar 2026 berichtete das ZDF über Abschiebungsmaßnahmen in den USA. In dem Beitrag wurden emotionale Szenen gezeigt: Eine Frau wird von Einsatzkräften abgeführt, Kinder sind sichtbar im Bild.
Das verwendete Video trägt ein Wasserzeichen des KI-Systems „Sora“. Dieses Kennzeichen weist darauf hin, dass es sich um synthetisch erzeugtes Bildmaterial handelt. In der ursprünglichen Ausstrahlung war jedoch kein Hinweis auf die künstliche Herkunft der Sequenzen erkennbar.
Der Beitrag wurde später in der Mediathek verändert; die betreffenden Szenen sind dort nicht mehr in der ursprünglichen Form abrufbar.
Einordnung: Transparenz als journalistischer Standard
Nach den 2023 veröffentlichten KI-Leitlinien des ZDF soll KI-generiertes Material grundsätzlich transparent gekennzeichnet werden. Ziel ist es, Verwechslungen mit authentischen Aufnahmen zu vermeiden.
Auch der Deutsche Pressekodex verpflichtet Redaktionen zu Wahrhaftigkeit (Ziffer 1) und Sorgfalt (Ziffer 2). Besonders bei Nachrichtenformaten mit hoher Reichweite gilt: Bild- und Videomaterial darf keine falsche Tatsachenwahrnehmung erzeugen.
Die Kombination aus emotionaler Off-Text-Passage („Sie führen Eltern vor den Augen ihrer Kinder ab“) und visuell realistisch wirkenden KI-Sequenzen verstärkt die Bedeutung der Kennzeichnungsfrage.
Perspektiven
Redaktionelle Sicht
Öffentlich-rechtliche Sender stehen unter einem besonderen Transparenzanspruch. Die Nutzung technischer Innovationen einschließlich generativer KI ist nicht ausgeschlossen. Maßgeblich ist jedoch die klare Unterscheidbarkeit zwischen dokumentarischem und synthetischem Material.
Medienethische Perspektive
Das Reuters Institute for the Study of Journalism weist im Digital News Report 2025 darauf hin, dass visuelle Authentizität ein zentraler Vertrauensfaktor für Nachrichten ist. KI-generierte Bilder stellen Redaktionen vor neue Herausforderungen, da sie zunehmend realitätsnah wirken.
Auch die Bundeszentrale für politische Bildung beschreibt KI-generierte Medieninhalte als relevantes Desinformationsrisiko, wenn ihre Herkunft nicht klar erkennbar ist.
Warum der Fall jetzt besonders relevant ist
Mit der zunehmenden Verbreitung von Text-zu-Video-Systemen wie „Sora“ wächst die technische Möglichkeit, realistisch wirkende Nachrichtenszenen künstlich zu erzeugen. Für Redaktionen bedeutet das:
-
höhere Prüfpflicht bei Videoquellen
-
klare Kennzeichnungsstandards
-
transparente Kommunikation gegenüber dem Publikum
Gerade im Kontext politisch sensibler Themen wie Migration oder Abschiebung ist die visuelle Beleglage besonders bedeutend.
Konkrete Bedeutung für Öffentlichkeit und Medien
Für Zuschauer stellt sich die Frage, wie synthetische Inhalte erkennbar bleiben.
Für Medienhäuser geht es um interne Kontrollmechanismen. Für die medienpolitische Debatte wird relevant, ob bestehende Leitlinien ausreichen oder präzisiert werden müssen.
Der Vorgang zeigt, wie eng technische Innovation und journalistische Verantwortung inzwischen miteinander verknüpft sind.
Fazit
Ein KI-generiertes Video in einer der reichweitenstärksten Nachrichtensendungen Deutschlands ohne erkennbare Kennzeichnung: Das ist mehr als eine technische Randnotiz. Es berührt den Kern dessen, was Nachrichten leisten sollen: überprüfbare Wirklichkeit abzubilden.
Das ZDF wird über den Rundfunkbeitrag finanziert und unterliegt damit einem besonderen Transparenz- und Sorgfaltsanspruch. Gerade deshalb stellt sich die naheliegende Frage: Welche Rolle darf synthetisch erzeugtes Bildmaterial in einem klassischen Nachrichtenformat spielen und unter welchen klar definierten Bedingungen?
Nicht die Existenz von KI ist der entscheidende Punkt. Sondern ihre Funktion im redaktionellen Kontext. Wird sie zur Illustration genutzt? Zur Simulation? Oder entsteht beim Publikum der Eindruck dokumentarischer Echtheit?
Mit der rasanten Entwicklung generativer Systeme verschwimmen technische Möglichkeiten und journalistische Verantwortung zunehmend. Für öffentlich-rechtliche Anbieter bedeutet das: Jede Unklarheit bei der Kennzeichnung wird zur Vertrauensfrage. Und Vertrauen ist im Nachrichtenjournalismus keine Nebensache sondern Grundlage des Auftrags.
Der Fall zeigt damit vor allem eines: Der Umgang mit KI ist keine Zukunftsdebatte mehr. Er ist bereits Teil der Gegenwart und wird zum Maßstab für Glaubwürdigkeit.
🔔 Folge @Presse.Online für fundierte Analysen, klare Einordnung und die Themen, über die Deutschland morgen spricht.
FAQ
Was genau wurde im „heute journal“ gezeigt?
Ein KI-generiertes Video mit einer Abschiebungsszene, erkennbar am Wasserzeichen „Sora“.
War das Material als KI gekennzeichnet?
In der ursprünglichen Ausstrahlung war keine Kennzeichnung sichtbar.
Sind KI-Bilder im Journalismus erlaubt?
Ja, sofern sie klar als solche gekennzeichnet werden und nicht über reale Ereignisse täuschen.
Warum ist die Kennzeichnung wichtig?
Weil Zuschauer sonst nicht unterscheiden können, ob es sich um dokumentarische oder synthetische Aufnahmen handelt.
Welche Rolle spielen KI-Leitlinien?
Sie regeln Transparenz- und Prüfstandards beim Einsatz künstlich erzeugter Inhalte.
Quellen
- ZDF: KI-Leitlinien (2023)
- Deutscher Pressekodex (Ziffern 1, 2)
- Reuters Institute for the Study of Journalism: Digital News Report 2025
- Bundeszentrale für politische Bildung: Materialien zu Desinformation und KI