Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Sicherheit von großen Sprachmodellen (LLMs) ist ein zentrales Thema der aktuellen KI-Forschung. Während sich bisherige Sicherheitsmaßnahmen oft auf einzelne Interaktionen konzentrierten (Single-Turn), rückt die Komplexität mehrstufiger Konversationen (Multi-Turn) zunehmend in den Fokus. Hierbei können schädliche Absichten strategisch über mehrere Austauschrunden hinweg verfolgt werden, was neue Herausforderungen für die Sicherheitsforschung darstellt.
Ein vielversprechender Ansatz zur Bewertung und Verbesserung der Multi-Turn-Sicherheit von LLMs ist das sogenannte "X-Teaming". Dieses Framework simuliert mehrstufige Interaktionen zwischen einem LLM und mehreren Agenten, die zusammenarbeiten, um potenzielle Schwachstellen aufzudecken. Dabei übernimmt ein Agent die Rolle des Angreifers, während andere Agenten die Verteidigung, Planung und Verifizierung übernehmen. Durch diesen kollaborativen Ansatz können komplexe Angriffsszenarien entwickelt und getestet werden, die über die Möglichkeiten herkömmlicher Single-Turn-Tests hinausgehen.
Der Einsatz adaptiver Multi-Agenten ist ein entscheidender Faktor für die Effektivität von X-Teaming. Diese Agenten sind in der Lage, ihre Strategien im Laufe der Interaktion anzupassen und so auch auf unerwartete Reaktionen des LLMs zu reagieren. Dadurch können sie Schwachstellen aufdecken, die bei statischen Testverfahren unentdeckt bleiben würden. Studien zeigen, dass X-Teaming mit adaptiven Multi-Agenten beeindruckende Erfolgsquoten bei der Umgehung von Sicherheitsmaßnahmen (Jailbreaks) erzielt, selbst bei Modellen, die gegen Single-Turn-Angriffe resistent sind.
Ein weiteres wichtiges Ergebnis der X-Teaming-Forschung ist die Entwicklung von XGuard-Train, einem umfangreichen Datensatz für das Training von LLMs im Hinblick auf Multi-Turn-Sicherheit. Dieser Datensatz enthält tausende von interaktiven Jailbreak-Szenarien und bietet damit eine wertvolle Ressource für die Entwicklung robusterer Sicherheitsmechanismen. XGuard-Train ist deutlich größer als vergleichbare Datensätze und ermöglicht ein umfassenderes Training von LLMs, um sie gegen komplexe mehrstufige Angriffe zu wappnen.
Die Forschung im Bereich der Multi-Turn-Sicherheit von LLMs steht noch am Anfang, aber X-Teaming und ähnliche Ansätze bieten vielversprechende Wege zur Verbesserung der Robustheit von KI-Systemen. Die Entwicklung von immer komplexeren und adaptiven Multi-Agenten-Systemen wird in Zukunft eine Schlüsselrolle spielen, um die Sicherheit von LLMs in realen Anwendungsszenarien zu gewährleisten. Der Fokus auf Multi-Turn-Sicherheit ist essentiell, um das Vertrauen in KI-Systeme zu stärken und ihre verantwortungsvolle Nutzung zu fördern.
Bibliographie: Rahman, S., Jiang, L., Shiffer, J., Liu, G., Issaka, S., Parvez, M. R., Palangi, H., Chang, K.-W., Choi, Y., & Gabriel, S. (2025). X-Teaming: Multi-Turn Jailbreaks and Defenses with Adaptive Multi-Agents. arXiv preprint arXiv:2504.13203. https://twitter.com/PIN/status/1914226331912429949 https://x.com/pin?lang=de https://www.researchgate.net/publication/390439609_Strategize_Globally_Adapt_Locally_A_Multi-Turn_Red_Teaming_Agent_with_Dual-Level_Learning https://openreview.net/pdf?id=cxAEmVonAh https://static.scale.com/uploads/654197dc94d34f66c0f5184e/J2_02092025%20(1).pdf https://www.researchgate.net/publication/383460800_LLM_Defenses_Are_Not_Robust_to_Multi-Turn_Human_Jailbreaks_Yet https://crescendo-the-multiturn-jailbreak.github.io/assets/pdf/CrescendoFullPaper.pdfLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen