Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Landschaft der Künstlichen Intelligenz (KI) entwickelt sich rasant, und mit ihr auch die Fähigkeiten von KI-Modellen in komplexen Anwendungsbereichen. Eine aktuelle Bewertung des britischen AI Security Institute (AISI) wirft ein Schlaglicht auf die offensiven Cyber-Fähigkeiten von OpenAI's GPT-5.5 und vergleicht diese mit denen von Anthropic's Claude Mythos Preview.
Das AI Security Institute (AISI) hat OpenAI's GPT-5.5 einer Reihe von Cyberangriffstests unterzogen. Die Ergebnisse zeigen, dass GPT-5.5 ein vergleichbares Niveau an Cyberangriffsfähigkeiten wie Anthropic's Claude Mythos Preview erreicht. Dies ist ein bemerkenswerter Befund, da Claude Mythos zuvor als wegweisend in diesem Bereich galt.
Die Evaluierung umfasste eine Vielzahl von Aufgaben, darunter Reverse Engineering, die Entwicklung von Exploits für Speicherfehler und die Entpackung verschleierter Malware. Bei Aufgaben mit höchstem Schwierigkeitsgrad ("Expert Level") erreichte GPT-5.5 eine durchschnittliche Erfolgsquote von 71,4 Prozent, während Claude Mythos Preview bei 68,6 Prozent lag. Dieser geringe Unterschied liegt innerhalb der statistischen Fehlermarge, was darauf hindeutet, dass GPT-5.5 möglicherweise das leistungsstärkste Modell ist, das bisher getestet wurde. Zum Vergleich: GPT-5.4 erreichte 52,4 Prozent und Claude Opus 4.7 lag bei 48,6 Prozent. Grundlegende Aufgaben wurden von allen aktuellen Frontier-Modellen bereits seit Februar 2026 vollständig gelöst.
Während isolierte Aufgaben einzelne Fähigkeiten testen, erfordern reale Angriffe die Verkettung vieler Schritte. Um dies zu simulieren, verwendet das AISI sogenannte Cyber-Ranges – simulierte Netzwerkumgebungen mit mehreren Hosts, Diensten und Schwachstellen.
Eine dieser Simulationen, "The Last Ones" (TLO), umfasst 32 Schritte über vier Subnetze und etwa 20 Hosts. Der KI-Agent beginnt ohne Anmeldeinformationen und muss Schwachstellen finden, Anmeldeinformationen stehlen, sich lateral durch das Netzwerk bewegen und schließlich eine geschützte Datenbank erreichen. Das AISI schätzt, dass ein menschlicher Experte dafür etwa 20 Stunden benötigen würde.
GPT-5.5 löste die TLO-Simulation in 2 von 10 Versuchen vollständig. Claude Mythos Preview erreichte dasselbe Ergebnis in 3 von 10 Versuchen. Die Leistung skaliert laut AISI weiterhin mit der Inferenz-Rechenleistung, und selbst die besten Modelle haben noch kein Plateau erreicht. Je mehr Tokens das Modell für "Denkprozesse" aufwendet, desto wahrscheinlicher ist ein erfolgreicher Hack.
Es ist jedoch wichtig zu beachten, dass diese Tests unter idealisierten Bedingungen stattfanden: Es gab keine aktiven Verteidiger, keine Sicherheitsüberwachung und keine Konsequenzen für Aktionen, die in der realen Welt Alarme ausgelöst hätten. Ob GPT-5.5 oder Mythos in der Lage wären, sich gegen gut verteidigte Systeme zu behaupten, bleibt eine offene Frage. Für schlecht geschützte Netzwerke ist die Fähigkeit jedoch offensichtlich vorhanden.
Eine zweite Simulation namens "Cooling Tower", die einen Angriff auf ein industrielles Steuerungssystem modelliert, konnte von GPT-5.5 nicht gelöst werden. Bislang hat kein Modell dieses 7-Schritte-Szenario bewältigt. Laut AISI scheiterte GPT-5.5, ähnlich wie Mythos, an den vorgelagerten IT-Schritten und nicht am Steuerungssystem selbst.
Neben den reinen Fähigkeiten wurden auch die Sicherheitsmaßnahmen von GPT-5.5 für den öffentlichen Gebrauch getestet. Die Forscher entdeckten einen universellen Jailbreak, der bei jeder von OpenAI als bösartig eingestuften Cyber-Anfrage funktionierte, einschließlich mehrstufiger Agenten-Szenarien. Die Entwicklung dieses Jailbreaks dauerte lediglich sechs Stunden.
OpenAI reagierte daraufhin mit mehreren Updates des Sicherheitssystems. Das AISI konnte jedoch aufgrund eines Konfigurationsproblems in der bereitgestellten Version nicht überprüfen, wie gut die endgültige Konfiguration standhielt. Dies ist ein weiterer Beleg dafür, dass Jailbreaks eine ernsthafte Sicherheitslücke in LLMs bleiben, selbst in den leistungsfähigsten Modellen.
Ein wesentlicher Unterschied zu Mythos liegt in der Verfügbarkeit: GPT-5.5 ist bereits in ChatGPT und über die API zugänglich, während Anthropic den Zugang zu Claude Mythos weiterhin auf eine kleine Gruppe beschränkt. Die Ergebnisse des AISI könnten darauf hindeuten, dass Anthropic diese zusätzliche Vorsichtsmaßnahme hätte überspringen können. Es besteht auch die Vermutung, dass die langsame Einführung eher mit den Rechenkapazitätsbeschränkungen von Anthropic als mit Sicherheitsbedenken zusammenhängt.
Die Ergebnisse der AISI-Studie sind von großer Bedeutung für Unternehmen und Regierungen. Sie zeigen, dass die Fähigkeiten von KI-Modellen im Bereich der Cyberangriffe schnell zunehmen. Diese Entwicklung ist nicht auf ein einzelnes Modell beschränkt, sondern scheint ein allgemeiner Trend zu sein, der aus breiteren Fortschritten in Autonomie, Argumentation und Programmierung resultiert. Dies bedeutet, dass in naher Zukunft weitere Zunahmen der Cyber-Fähigkeiten von KI-Modellen zu erwarten sind, möglicherweise in schneller Abfolge.
Für Unternehmen bedeutet dies eine erhöhte Notwendigkeit, ihre Verteidigungssysteme zu stärken und sich auf potenzielle KI-gestützte Angriffe vorzubereiten. Die duale Natur dieser KI-Fähigkeiten – sowohl als Bedrohung als auch als Werkzeug zur Verteidigung – erfordert eine sorgfältige Abwägung und den strategischen Einsatz von KI zur Stärkung der eigenen Cybersicherheit.
Das AISI plant, zukünftige Evaluierungen in gehärteten Umgebungen mit aktiver Überwachung, Endpunkt-Erkennung und Echtzeit-Reaktion auf Vorfälle durchzuführen, um ein realistischeres Bild der KI-Fähigkeiten unter realen Bedingungen zu erhalten.
Für Mindverse, als KI-Partner für Unternehmen, unterstreichen diese Entwicklungen die Relevanz, nicht nur innovative KI-Lösungen anzubieten, sondern auch ein tiefes Verständnis für die Sicherheitsaspekte und potenziellen Risiken zu entwickeln. Die Fähigkeit, komplexe Nachrichtenlagen zu analysieren und in klare, umsetzbare Erkenntnisse für eine anspruchsvolle B2B-Zielgruppe zu übersetzen, wird in diesem dynamischen Umfeld immer wichtiger.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen