Kennzeichen Vertrauen
Technische Kennzeichnung und inhaltliche Transparenz werden zentral, um Vertrauen in digitale Inhalte zu sichern.
Überblick
Vertrauen bildet die Grundlage dafür, dass der öffentlich-rechtliche Rundfunk als verlässliche und unabhängige Instanz wahrgenommen wird. Doch generative KI, Deepfakes und eine unübersichtliche Informationslage verstärken die Verunsicherung. Zugleich beginnt nach einer Phase rasanter KI-Entwicklung nun eine Ära verbindlicher Regulierung.
Der EU AI Act schafft neue Transparenzpflichten. Content Credentials und technische Standards entstehen, um Herkunft und Bearbeitung digitaler Inhalte sichtbar zu machen. Für Medienhäuser wird Transparenz zum Kern der Glaubwürdigkeit. Klare KI-Labels, nachvollziehbare Standards und ein verantwortungsvoller Umgang mit synthetischen Inhalten stärken Vertrauen. Wer schnell Lösungen entwickelt, die die Sicherheit, Integrität und Herkunft von Inhalten sichtbar machen, kann auf diesem Gebiet eine Vorreiterrolle einnehmen.
70 % der Befragten befürworten laut einer globalen Studie, dass KI gesetzlich reguliert werden sollte.
Studie von KPMG und der University of Melbourne, 2025.81 % der Deutschen können wegen KI-generierten Inhalten kaum erkennen, ob Fotos und Videos echt oder gefälscht sind.
TÜV ChatGPT-Studie, 2024.Trend-Herkünfte
Signale, die wir sehen
Pflicht zur Kennzeichnung von KI-Inhalten
Die chinesische Regierung führte September 2025 weltweit erstmalig die Pflicht ein, alle mit künstlicher Intelligenz erstellten Inhalte klar zu kennzeichnen. Texte, Bilder, Videos und Tonaufnahmen müssen sichtbare Hinweise tragen und zugleich im Hintergrund markiert werden.
Deepfake-Erkennung
Vastav AI – entwickelt von dem indischen Unternehmen Zero Defend Security – erkennt und analysiert Videos, Bilder und Audiodateien hinsichtlich Deepfakes und KI-Manipulation. Damit können manipulierte Inhalte identifiziert und als solche markiert werden – ein technisches Werkzeug zur Wahrung von Authentizität und zur Bekämpfung von Desinformation.
Deklaration für ethischen KI-Journalismus
Im Mai 2025 verabschiedeten Medienräte aus Südosteuropa und der Türkei eine gemeinsame Erklärung zum ethischen und transparenten Einsatz von KI in den Medien: Regional Declaration on the Ethical and Transparent Use of Artificial Intelligence in the Media. Sie fordert die klare Kennzeichnung KI-generierter Inhalte und redaktionelle Verantwortung.
Was heißt das für uns?
Handlungsfelder
für die ARD
- Wie schaffen wir es, redaktionelle Prozesse und Entscheidungen zu erklären und nachvollziehbar zu machen?
- Wie können wir ARD-weit ein vertrauensstiftendes Kennzeichnungssystem für KI-Einsatz, Herkunft und Bearbeitungsprozesse einführen?
- Welche technischen Standards (z. B. Content Credentials, Wasserzeichen) müssen wir entlang der gesamten Produktionskette verankern?
- Wie können wir unser Publikum dabei unterstützen, synthetische Inhalte zu erkennen, Medienkompetenz auszubauen und journalistische Qualität zu beurteilen?