KI für Ihr Unternehmen – Jetzt Demo buchen

Sicherheitsanfälligkeit in ChatGPTs Deep Research Modus und die Risiken von Prompt-Injection-Angriffen

Kategorien:
No items found.
Freigegeben:
September 26, 2025

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Sicherheitsforscher haben eine kritische Sicherheitslücke in ChatGPTs „Deep Research“-Modus entdeckt, die es Angreifern ermöglicht, unbemerkt sensible Daten aus Gmail-Konten zu extrahieren.
    • Der Angriff findet innerhalb der OpenAI-Cloud-Infrastruktur statt und umgeht lokale Sicherheitsmaßnahmen.
    • Angreifer nutzen in E-Mails versteckte HTML-Befehle, um den Agenten zur Datenextraktion und -übertragung an externe Server zu manipulieren.
    • Die Schwachstelle wurde von OpenAI behoben, doch die Anfälligkeit von agentenbasierten KI-Systemen für Prompt-Injection-Angriffe bleibt ein wichtiges Thema.
    • Experten raten dringend von der Verwendung von KI-Agenten für sensible Aufgaben ab.

    Sicherheitslücke in ChatGPTs „Deep Research“-Modus: Datendiebstahl über versteckte HTML-Befehle

    Sicherheitsforscher des Unternehmens Radware haben eine schwerwiegende Sicherheitslücke in ChatGPTs „Deep Research“-Modus aufgedeckt. Diese Lücke, die unter dem Namen „ShadowLeak“ bekannt wurde, ermöglicht es Angreifern, unbemerkt sensible Daten wie Namen und Adressen aus Gmail-Konten zu stehlen. Der Angriff verläuft vollständig innerhalb der Cloud-Infrastruktur von OpenAI und umgeht somit herkömmliche Sicherheitsmaßnahmen wie Firewalls oder Endpoint-Security. Der ChatGPT-Agent agiert in diesem Szenario quasi als manipulierter „Insider“.

    Funktionsweise des Angriffs

    Der „Deep Research“-Modus, seit Februar 2025 verfügbar, dient der automatisierten Inhaltsanalyse von E-Mails, Webseiten und Dokumenten. Der Agent kann dabei auf diverse Dienste zugreifen, darunter Gmail, Google Drive, Outlook und Teams. Die Angriffsmethode basiert auf raffiniert gestalteten E-Mails. Der Betreff könnte harmlos erscheinen, beispielsweise „Umstrukturierung – Handlungspunkte“. Im E-Mail-Inhalt sind jedoch versteckte HTML-Befehle integriert – etwa weißer Text auf weißem Hintergrund oder winzige Schriftgrößen. Diese Befehle instruieren den Agenten, persönliche Daten aus einer anderen E-Mail zu extrahieren und an eine externe URL zu senden, die in Base64 kodiert ist. Diese URL erscheint legitim, wird aber von den Angreifern kontrolliert.

    Um die integrierten Sicherheitsvorkehrungen des Agenten zu umgehen, setzen die Angreifer Social-Engineering-Techniken ein. Sie überzeugen den Agenten von der Berechtigung zur Durchführung der Aufgabe, tarnen die Ziel-URL durch das Anzeigen von statischem HTML und erzeugen einen Zeitdruck, indem sie behaupten, der Bericht sei ohne diesen Schritt unvollständig. Sollte der erste Versuch fehlschlagen, erhält der Agent Anweisungen zum erneuten Versuch, inklusive detaillierter Schritte zur Base64-Kodierung der Daten vor der Übertragung.

    Initiiert ein Benutzer eine „Deep Research“-Abfrage, beispielsweise „Analysiere meine HR-E-Mails von heute“, verarbeitet der Agent unwissentlich die manipulierte E-Mail und führt die versteckten Anweisungen aus. Die sensiblen Daten werden unbemerkt an den Server des Angreifers übertragen. Der gesamte Prozess bleibt im Hintergrund verborgen, ohne Warnungen oder Hinweise auf einen Angriff.

    Die Schwachstelle: Agenten-basierte Systeme und Prompt Injection

    Die Kern-Schwachstelle liegt nicht im Sprachmodell selbst, sondern in der Fähigkeit des Agenten, Tools auszuführen. Eine interne Funktion namens „browser.open()“ ermöglicht dem Agenten HTTP-Anfragen. Durch das Einbetten spezieller Anweisungen im HTML der E-Mail können Angreifer den Agenten dazu bringen, private Informationen zu kodieren und an eine externe Adresse zu übertragen. Diese Methode ist laut Radware nicht auf E-Mails beschränkt. Jede Plattform, auf der der Agent strukturierten Text verarbeitet – wie Google Drive, Outlook, Teams, Notion oder GitHub – könnte gefährdet sein. Versteckte Aufforderungen könnten ebenso leicht in Meeting-Einladungen, gemeinsam genutzte PDF-Dateien oder Chat-Protokolle eingebunden werden und Routine-KI-Aufgaben in potenzielle Sicherheitsverletzungen verwandeln.

    Reaktion von OpenAI und anhaltende Herausforderungen

    Radware meldete die Sicherheitslücke am 18. Juni 2025 über Bugcrowd. OpenAI behob die Schwachstelle Anfang August, obwohl die Forscher angeben, keine direkte Kommunikation erhalten zu haben. Erst am 3. September bestätigte OpenAI die Behebung öffentlich. Die Entdeckung von „ShadowLeak“ unterstreicht jedoch die anhaltende Herausforderung im Umgang mit agentenbasierten KI-Systemen. Zahlreiche Studien zeigen die Anfälligkeit solcher Systeme für Prompt-Injection-Angriffe, bei denen Angreifer versteckte Anweisungen in Text einbetten, die dem Benutzer nicht auffallen. Diese Schwachstelle ist seit Jahren bekannt, eine zuverlässige Lösung bleibt jedoch aus.

    Empfehlungen für Unternehmen

    Die aktuelle Situation verdeutlicht die Notwendigkeit, den Einsatz von KI-Agenten für sensible Aufgaben kritisch zu bewerten. Unternehmen sollten strenge Sicherheitsrichtlinien implementieren und ihre Mitarbeiter über die Risiken von Prompt-Injection-Angriffen schulen. Bis umfassende Lösungen verfügbar sind, ist Vorsicht geboten. Der Rat von OpenAI-CEO Sam Altman, ChatGPT-Agenten nicht für hochsensible Aufgaben zu verwenden, sollte ernst genommen werden.

    Bibliography - Radware Blog: ShadowLeak - The Decoder: ChatGPT's Deep Research mode let attackers steal Gmail data with hidden instructions in emails - LinkedIn: OpenAI ChatGPT security flaw fixed - Infosecurity Magazine: Vulnerability in ChatGPT agent Gmail - Times of India: Researcher on ChatGPT fixing security flaw - PCMag UK: This ChatGPT flaw could let a hacker steal info from your emails - The Hacker News: ShadowLeak zero-click flaw leaks Gmail - OECD.AI Incident Report: 2025-09-18-AC13 - The Register: OpenAI shadowleak bug - The Verge: ChatGPT Gmail shadow leak

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen