Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Künstliche Intelligenz (KI) entwickelt sich zunehmend zu einem integralen Bestandteil sowohl des privaten als auch des geschäftlichen Alltags. Während die Vorteile von KI-Tools wie Google Gemini unbestreitbar sind, eröffnen sich mit ihrer Verbreitung auch neue Angriffsvektoren für Cyberkriminelle. Aktuelle Forschungsergebnisse beleuchten eine spezifische Schwachstelle in Googles Gemini, die es Angreifern ermöglicht, sensible Daten zu manipulieren oder zu exfiltrieren. Dieser Artikel analysiert die Art der Bedrohung, Googles Reaktion darauf und die Implikationen für B2B-Anwender.
Sicherheitsforscher, darunter Viktor Markopoulos von Firetail und Marco Figueroa, haben eine Methode identifiziert, mit der KI-Modelle wie Gemini dazu gebracht werden können, unerwünschte Aktionen auszuführen. Diese Technik wird oft als ASCII-Attacke oder Prompt-Injection bezeichnet. Dabei werden bösartige Befehle in scheinbar harmlose Texte eingebettet. Diese Befehle sind für menschliche Nutzer oft nicht sichtbar, da sie beispielsweise durch extrem kleine Schriftgrößen, weiße Schrift auf weißem Hintergrund, Off-Screen-Platzierung oder manipulierte HTML/CSS-Stile verborgen werden.
Die KI-Modelle verarbeiten jedoch den gesamten Rohtext, einschließlich der versteckten Anweisungen, und führen diese aus, ohne dass der Nutzer dies bemerkt. Markopoulos stellte fest, dass neben Deepseek und Grok auch Gemini anfällig für solche Angriffe ist, während Modelle wie ChatGPT, Microsoft Copilot und Claude effektivere Filtermechanismen aufweisen.
Die besondere Brisanz der Gemini-Schwachstelle ergibt sich aus der tiefen Integration des Modells in Google Workspace. Gemini ist in Anwendungen wie Google Kalender und Gmail aktiv, was die Angriffsfläche erheblich vergrößert. Markopoulos demonstrierte, dass eine einfache E-Mail oder Kalendereinladung mit versteckten Befehlen ausreichen kann, um Gemini anzuweisen, das Postfach nach sensiblen Dateien zu durchsuchen, Kontakte weiterzuleiten oder sogar bösartige Websites zu öffnen. Dies verwandelt eine standardmäßige Phishing-Mail in ein autonomes Tool zur Datenextraktion und ermöglicht es, Nutzer auf gefälschte Websites umzuleiten, die Schadcode oder weitere Phishing-Elemente enthalten könnten.
Ein weiteres Beispiel zeigt, wie eine manipulierte Kalendereinladung, deren Titel eine indirekte Prompt-Injection enthält, dazu führen kann, dass Gemini bei der Abfrage von Terminen den bösartigen Befehl als Teil des Kontexts interpretiert. Dies könnte Angreifer in die Lage versetzen, Kalenderereignisse zu löschen oder zu bearbeiten, URLs zu öffnen, IP-Adressen abzugreifen, an Zoom-Anrufen teilzunehmen, Smart-Home-Geräte über Google Home zu steuern oder auf E-Mails zuzugreifen.
Die Ergebnisse dieser Forschungen wurden Google im September 2025 mitgeteilt. Die Reaktion des Technologiekonzerns war jedoch, die Verantwortung für das Problem den Nutzern zuzuschreiben. Google argumentiert, dass es sich hierbei nicht um eine direkte Sicherheitslücke in Gemini selbst handelt, sondern um eine Form von Social-Engineering-Attacke auf die Nutzer. Dies impliziert, dass es in der Eigenverantwortung der Anwender liegt, solche Angriffe zu erkennen und sich davor zu schützen.
Diese Perspektive wirft Fragen für B2B-Anwender auf, insbesondere für Unternehmen, die Gemini in ihre operativen Prozesse integrieren. Die Erkennung solcher subtilen Angriffe erfordert ein hohes Maß an Sensibilisierung und technischem Verständnis, das bei vielen Endnutzern möglicherweise nicht vorhanden ist. Die Abgrenzung zwischen einer technischen Schwachstelle des KI-Modells und einem Social-Engineering-Angriff auf den Nutzer ist hier entscheidend.
Angesichts der aktuellen Situation sind proaktive Maßnahmen seitens der Unternehmen unerlässlich, um die Risiken im Umgang mit KI-Tools wie Gemini zu minimieren. Die folgenden Empfehlungen können dazu beitragen, die Sicherheit zu erhöhen:
font-size:0
, opacity:0
, color:white
).Die Entdeckung von Schwachstellen in Googles Gemini durch Prompt-Injection-Techniken unterstreicht die Notwendigkeit einer kontinuierlichen Wachsamkeit im Bereich der KI-Sicherheit. Während Google diese Angriffe als Social Engineering klassifiziert und die Verantwortung bei den Nutzern sieht, müssen Unternehmen, die KI-Tools einsetzen, ihre eigenen Schutzstrategien entwickeln. Durch eine Kombination aus technischen Schutzmaßnahmen und umfassender Nutzeraufklärung können die Risiken minimiert und der sichere Einsatz von KI in Geschäftsprozessen gewährleistet werden. Die Entwicklung robuster Sicherheitsarchitekturen für KI-Systeme bleibt eine zentrale Herausforderung und erfordert eine fortlaufende Anpassung an neue Bedrohungslandschaften.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen