ZDF räumt KI-Fehler im „heute journal“ ein

ZDF räumt KI-Fehler im „heute journal“ ein
Denn Hayali Sonntagabend im "heute journal" © Screenshot ZDF KI Skandal

ZDF entschuldigt sich für Fehler im „heute journal“ und was das für Vertrauen in Nachrichten bedeutet

Im „heute journal“ ist KI-generiertes Bildmaterial ohne Kennzeichnung gesendet worden. Das betrifft die Glaubwürdigkeit eines zentralen Nachrichtenformats und hat Folgen für die Debatte über Transparenz im öffentlich-rechtlichen Rundfunk.

Was ist passiert?

Am 15. Februar 2026 berichtete das ZDF im „heute journal“ über Abschiebungsmaßnahmen in den USA durch die US-Behörde U.S. Immigration and Customs Enforcement (ICE). Gezeigt wurden emotionale Szenen: Eine Frau wird abgeführt, Kinder sind im Bild.

Nach Angaben des ZDF wurde dabei KI-generiertes Videomaterial verwendet, das nicht als synthetisch gekennzeichnet war. Das Material trug ein Wasserzeichen des KI-Systems „Sora“. In der ursprünglichen Ausstrahlung war jedoch kein erläuternder Hinweis erkennbar.

Zudem wurde eine reale Szene verwendet, die aus einem anderen Kontext aus dem Jahr 2022 stammte. Das ZDF räumte die Fehler ein, entfernte den Beitrag von seinen Plattformen und kündigte eine korrigierende Berichterstattung an. Anne Gellinek, stellvertretende Chefredakteurin und Leiterin der Hauptredaktion Aktuelles, erklärte laut ZDF-Pressemitteilung: „Der Beitrag entspricht nicht unseren Standards und hätte in dieser Form nicht gesendet werden dürfen.“

Relevanz: Mehr als ein redaktioneller Fehler

Nach den KI-Leitlinien des ZDF aus dem Jahr 2023 sollen KI-generierte Inhalte grundsätzlich transparent gekennzeichnet werden. Ziel ist es, Verwechslungen mit dokumentarischen Aufnahmen zu vermeiden.

Auch der Deutscher Presserat verpflichtet Redaktionen im Pressekodex zur Wahrhaftigkeit (Ziffer 1) und Sorgfalt (Ziffer 2). Bilder und Videos dürfen keine falsche Tatsachenwahrnehmung erzeugen. Gerade in Nachrichtenformaten mit hoher Reichweite ist die visuelle Beleglage entscheidend.

Hinzu kommt die besondere Stellung des öffentlich-rechtlichen Rundfunks. ARD, ZDF und Deutschlandradio finanzierten sich 2024 laut Beitragsservice aus rund 8,74 Milliarden Euro Rundfunkbeiträgen. Damit geht ein erhöhter Transparenz- und Kontrollanspruch einher.

Perspektiven

Redaktionelle Sicht

Das ZDF spricht von einem klaren Verstoß gegen eigene Standards. Die Entfernung des Beitrags und die angekündigte Korrektur sollen Transparenz herstellen. Nach bisherigen Angaben handelt es sich um ein redaktionelles Versäumnis in der Kennzeichnung und Kontextprüfung.

Medienethische Perspektive

Das Reuters Institute for the Study of Journalism weist im Digital News Report 2025 darauf hin, dass visuelle Authentizität ein zentraler Faktor für Vertrauen in Nachrichten ist. Mit der Verbreitung generativer KI steigt die Gefahr, dass realitätsnah wirkende Inhalte ohne klare Kennzeichnung missverstanden werden.

Auch die Bundeszentrale für politische Bildung beschreibt KI-generierte Medieninhalte als potenzielles Desinformationsrisiko, wenn Herkunft und Kontext nicht eindeutig erkennbar sind.

Analyse: Warum der Fall jetzt besonders relevant ist

Die technische Schwelle für realistisch wirkende Text-zu-Video-Inhalte sinkt rapide. Systeme wie „Sora“ ermöglichen es, emotionale Szenen in hoher visueller Qualität zu erzeugen. Für Redaktionen bedeutet das: Die klassische Quellenprüfung reicht nicht mehr aus. Es braucht systematische Verifikationsprozesse für synthetische Inhalte.

Der konkrete Fall zeigt, wie schnell aus einer nicht gekennzeichneten Illustration ein Problem der Glaubwürdigkeit wird. Gerade bei politisch sensiblen Themen wie Migration oder Abschiebung ist visuelle Evidenz ein starker Meinungsfaktor.

Für Bürger bedeutet das: Medienkompetenz wird wichtiger. Für Medienhäuser: interne Kontrollmechanismen müssen nachweisbar belastbar sein. Für die medienpolitische Debatte: Es stellt sich die Frage, ob bestehende Leitlinien präzisiert oder verbindlicher ausgestaltet werden müssen.

Fazit und Ausblick

Das ZDF hat die Fehler eingeräumt und Korrekturen angekündigt. Entscheidend wird sein, wie transparent die internen Abläufe aufgearbeitet werden und welche strukturellen Konsequenzen folgen.

Der Fall markiert keinen Systembruch, aber eine Belastungsprobe für Vertrauen. Im Zeitalter generativer KI entscheidet sich Glaubwürdigkeit an klarer Kennzeichnung, sauberer Kontextprüfung und offener Kommunikation.

Beobachtet werden sollte, ob daraus verbindlichere Standards für den Umgang mit synthetischem Material in Nachrichtenformaten entstehen.

🔔 Folge @Presse.Online für fundierte Analysen, klare Einordnung und die Themen, über die Deutschland morgen spricht.

FAQ

Was genau war der Fehler im „heute journal“?
KI-generiertes Videomaterial wurde ohne Kennzeichnung ausgestrahlt. Zudem wurde eine reale Szene aus einem anderen Kontext (2022) verwendet.

Hat das ZDF den Beitrag entfernt?
Ja. Laut ZDF wurde der Beitrag von allen Plattformen gelöscht und eine Korrektur angekündigt.

Sind KI-Bilder im Journalismus grundsätzlich erlaubt?
Ja, sofern sie klar gekennzeichnet werden und keine dokumentarische Echtheit suggerieren.

Warum ist die Kennzeichnung so wichtig?
Weil Zuschauer sonst nicht unterscheiden können, ob es sich um reale Aufnahmen oder synthetische Inhalte handelt.

Welche Rolle spielt der Rundfunkbeitrag in der Debatte?
Öffentlich-rechtliche Sender finanzieren sich aus Beitragsmitteln und unterliegen daher einem besonderen Transparenz- und Sorgfaltsanspruch.

Quellen

  • ZDF-Pressemitteilung / Stellungnahme Anne Gellinek

  • ZDF KI-Leitlinien (2023)

  • Deutscher Presserat: Pressekodex (Ziffern 1, 2)

  • Beitragsservice ARD/ZDF/Deutschlandradio: Jahresbericht 2024

  • Reuters Institute for the Study of Journalism: Digital News Report 2025

  • Bundeszentrale für politische Bildung: Materialien zu KI und Desinformation

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert