Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Eine groß angelegte Desinformationskampagne russischen Ursprungs hat westliche KI-Chatbots ins Visier genommen. Durch die Verbreitung von Millionen von Propaganda-Artikeln über ein Netzwerk von Fake-News-Websites versucht die Kampagne, die Trainingsdaten der KI-Systeme zu manipulieren und so deren Antworten zu beeinflussen.
Im Zentrum der Operation steht ein Netzwerk von rund 150 Domains unter dem Namen „Pravda“ (russisch für „Wahrheit“). Dieses Netzwerk hat allein im Jahr 2024 schätzungsweise 3,6 Millionen Artikel in 49 Sprachen veröffentlicht. Die Artikel behandeln diverse Themen, von internationalen politischen Ereignissen bis hin zu innenpolitischen Angelegenheiten in den Zielländern. Besonders auffällig ist die gezielte Verwendung von Domainnamen, die auf prominente Persönlichkeiten und Organisationen abzielen, wie beispielsweise NATO.News-Pravda.com oder Trump.News-Pravda.com.
Im Gegensatz zu traditionellen Desinformationskampagnen, die auf menschliche Leser abzielen, scheint diese Operation primär auf KI-Systeme ausgerichtet zu sein. Die Webseiten des Netzwerks verzeichnen geringe Besucherzahlen, was darauf hindeutet, dass die Inhalte hauptsächlich für den Konsum durch KI-Bots optimiert sind. Diese Strategie wird von Experten als "LLM Grooming" bezeichnet – die gezielte Manipulation von KI-Trainingsdaten durch massenhaft veröffentlichte, SEO-optimierte Inhalte.
Untersuchungen von NewsGuard haben gezeigt, dass führende KI-Chatbots in 33,5 Prozent der Fälle falsche Narrative aus dem Pravda-Netzwerk übernommen haben. In 48,2 Prozent der Fälle erkannten die Systeme die russischen Inhalte als Desinformation, in den restlichen 18,2 Prozent der Fälle blieben die Antworten der Chatbots nicht eindeutig.
Die Bekämpfung dieser Art von Manipulation gestaltet sich als äußerst schwierig. Sobald Behörden bekannte Pravda-Domains sperren, entstehen neue Webseiten, die die Desinformation weiterverbreiten. Da die Falschinformationen über mehrere Kanäle gleichzeitig verbreitet werden und die Webseiten des Netzwerks sich gegenseitig zitieren, bietet die einfache Sperrung von Websites keinen ausreichenden Schutz. Die dezentrale Struktur und die hohe Anzahl an beteiligten Webseiten machen es schwer, den Ursprung der Desinformation zu identifizieren und die Kampagne effektiv zu stoppen.
Die Hintermänner der Operation sind bisher nicht eindeutig identifiziert. Es gibt Hinweise darauf, dass die russische Regierung in die Kampagne involviert sein könnte. Der russische Präsident Wladimir Putin hatte bereits 2023 angekündigt, die Investitionen in KI zu erhöhen, um dem Einfluss westlicher Suchmaschinen und generativer Modelle entgegenzuwirken. Französische Behörden vermuten eine Verbindung zu TigerWeb, einem IT-Unternehmen, das von der von Russland besetzten Krim aus operiert.
Die Verbreitung von Desinformation über KI-Chatbots stellt eine erhebliche Gefahr dar. Millionen von Menschen nutzen diese Systeme täglich, um Informationen zu recherchieren und Entscheidungen zu treffen. Wenn diese Systeme mit manipulierten Daten gefüttert werden, können sie ungewollt zur Verbreitung von Propaganda und Falschinformationen beitragen. Dies untergräbt das Vertrauen in die Informationsintegrität im digitalen Raum und kann schwerwiegende Folgen für den demokratischen Diskurs und die öffentliche Meinungsbildung haben. Die Entwicklung effektiver Strategien zur Bekämpfung von "LLM Grooming" wird daher eine zentrale Herausforderung für die Zukunft der KI-Entwicklung und -Regulierung sein.
Bibliographie: - https://www.axios.com/2025/03/06/exclusive-russian-disinfo-floods-ai-chatbots-study-finds - https://meduza.io/en/feature/2025/03/07/russian-disinformation-network-flooded-training-data-to-manipulate-western-ai-chatbots-study-finds - https://the-decoder.com/russian-fake-news-network-floods-western-ai-chatbots-with-millions-of-propaganda-articles/ - https://www.linkedin.com/posts/stephantheron_russian-fake-news-network-floods-western-activity-7304188737838567424-sP0B - https://english.nv.ua/nation/russian-propaganda-infiltrates-ai-chatbots-posing-risks-for-millions-newsguard-report-50496264.html - https://www.newsguardtech.com/special-reports/moscow-based-global-news-network-infected-western-artificial-intelligence-russian-propaganda - https://www.pcmag.com/news/russian-disinformation-infects-popular-ai-chatbots - https://mynbc15.com/news/nation-world/russian-propaganda-being-spread-through-popular-ai-chatbots-report-russian-network-exploits-chatbots-newsguard-disinformation-warning - https://twitter.com/theaitechsuite/status/1898315090077561298 - https://thehill.com/policy/technology/5181257-ai-chatbots-infected-with-russian-disinformation-study/Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen