Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Integration künstlicher Intelligenz (KI) in Medienproduktionen bietet neue Möglichkeiten, birgt jedoch auch signifikante Risiken, insbesondere im Hinblick auf die Glaubwürdigkeit und Authentizität von Nachrichten. Ein aktueller Vorfall beim ZDF, bei dem in einem Beitrag des „heute journal“ unkenntlich gemachte KI-generierte Videoinhalte verwendet wurden, wirft wichtige Fragen bezüglich journalistischer Sorgfaltspflicht und dem Umgang mit synthetischen Medien auf.
Am Sonntagabend strahlte das ZDF im Rahmen seines „heute journal“ einen Beitrag über die Praktiken der US-Einwanderungsbehörde ICE aus. In diesem Beitrag, der das „Klima der Angst“ thematisierte, welches durch das Vorgehen der ICE gegen illegale Migranten erzeugt werde, wurden Videosequenzen gezeigt, die sich später als teilweise von KI generiert herausstellten. Eine dieser Sequenzen zeigte eine angebliche Festnahme, bei der mutmaßliche ICE-Mitarbeiter eine Mutter von ihren Kindern trennen. Auffällig war dabei ein Wasserzeichen von OpenAI's Videogenerierungs-Tool Sora, das auf die künstliche Herkunft hindeutete. Zudem wies das Video weitere KI-typische Merkmale wie Unschärfen, generische Uniformen und ein erfundenes Behördenwappen auf.
Das ZDF räumte in einer Stellungnahme ein, dass diese KI-Bilder hätten gekennzeichnet werden müssen. Zunächst wurde dies als „technischer Fehler“ deklariert, bei dem die Kennzeichnung bei der Überspielung des Beitrags nicht übertragen worden sei. Die Chefredaktion entschuldigte sich später „in aller Form“ für den Fehler und betonte, dass die Sequenz ohne Kennzeichnung und Einordnung nicht hätte verwendet werden dürfen. Der Sender hat den betreffenden Beitrag aus der Mediathek entfernt und eine korrigierte Version online gestellt, in der die KI-Sequenz durch andere Bilder ersetzt oder entfernt wurde. An den entsprechenden Stellen wird nun ein Hinweis eingeblendet, dass das „Video aus redaktionellen Gründen nachträglich geändert“ wurde.
Neben dem KI-generierten Material wurde in demselben Beitrag eine weitere Sequenz verwendet, die einen Minderjährigen zeigte, der von örtlichen Polizeikräften in Florida abgeführt wurde. Diese Aufnahme stammte aus dem Jahr 2022 und stand in einem anderen Kontext – nämlich einer Amokdrohung an einer Schule – als im ZDF-Beitrag suggeriert. Auch diese Sequenz wurde in der korrigierten Version des Beitrags entfernt.
Die stellvertretende Chefredakteurin und Nachrichtenchefin Anne Gellinek erklärte, der Beitrag entspreche nicht den journalistischen Standards des ZDF und hätte in dieser Form nicht gesendet werden dürfen. Sie kündigte an, dass das ZDF auf seinen Plattformen und in einer späteren Sendung des „heute journal“ korrigierend berichten werde. Fragen zu möglichen weiteren Konsequenzen blieben zunächst unbeantwortet.
Dieser Vorfall unterstreicht die wachsende Relevanz einer transparenten und verantwortungsvollen Nutzung von KI-Technologien im professionellen Umfeld. Für Unternehmen, die im B2B-Bereich tätig sind und KI-Lösungen anbieten oder nutzen, ergeben sich daraus folgende Erkenntnisse:
- Transparenz als Grundpfeiler: Die klare Kennzeichnung von KI-generierten Inhalten ist unerlässlich, um das Vertrauen der Zielgruppen zu erhalten. Dies gilt nicht nur für Nachrichtenmedien, sondern für alle Branchen, in denen KI zur Content-Erstellung eingesetzt wird. - Einhaltung von Richtlinien: Unternehmen sollten interne Richtlinien für den Einsatz von KI festlegen, die über die bloße technische Machbarkeit hinausgehen und ethische sowie journalistische Standards berücksichtigen. - Verifikationsprozesse stärken: Auch wenn KI-Tools Prozesse beschleunigen können, dürfen menschliche Prüf- und Verifikationsschritte nicht vernachlässigt werden. Insbesondere bei sensiblen Themen ist eine mehrfache Kontrolle der Authentizität von Inhalten geboten. - Schulung und Bewusstsein: Mitarbeiter, die mit KI-Tools arbeiten, müssen umfassend geschult und für die potenziellen Fallstricke und ethischen Implikationen sensibilisiert werden. - Reaktionsfähigkeit bei Fehlern: Ein offener und proaktiver Umgang mit Fehlern, inklusive schneller Korrekturen und Entschuldigungen, kann dazu beitragen, den Reputationsschaden zu minimieren und das Vertrauen langfristig zu sichern.Der Vorfall beim ZDF dient als mahnendes Beispiel dafür, wie schnell der Missbrauch oder die unzureichende Kennzeichnung von KI-generierten Inhalten die Glaubwürdigkeit einer Institution untergraben kann. Für Mindverse, als Anbieter von KI-gestützten Content-Tools, ist dies eine Bestätigung der Notwendigkeit, unseren Kunden nicht nur leistungsstarke, sondern auch verantwortungsvoll einsetzbare Lösungen anzubieten, die Transparenz und ethische Standards in den Vordergrund stellen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen