Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die rasante Entwicklung von Künstlicher Intelligenz (KI) führt zu einer Neubewertung der Fähigkeiten und Risiken moderner Modelle. Insbesondere die jüngsten Fortschritte bei Sprachmodellen (Large Language Models, LLMs) wie Claude Mythos von Anthropic stellen sowohl die etablierten Bewertungsinstanzen als auch die Cybersicherheitsbranche vor neue Herausforderungen. Zwei aktuelle Berichte, einer von der auf KI-Risikobewertung spezialisierten Organisation METR und ein weiterer vom Cybersicherheitsunternehmen Palo Alto Networks, beleuchten diese Entwicklungen und ihre potenziellen Auswirkungen auf die Geschäftswelt und die digitale Sicherheit.
Die Organisation METR, bekannt für ihre rigorose Bewertung von KI-Modellen hinsichtlich autonomer Fähigkeiten und Risiken, sieht sich mit Claude Mythos Preview an den Grenzen ihrer aktuellen Testmethodologie. Eine vorläufige Evaluierung einer frühen Version von Claude Mythos Preview im März 2026 ergab, dass das Modell eine 50-prozentige Erfolgswahrscheinlichkeit bei Aufgaben erreicht, die ein Mensch innerhalb von mindestens 16 Stunden bewältigen würde. Der Konfidenzintervall liegt hierbei zwischen 8,5 und 55 Stunden. Dieser Wert, so METR, befindet sich am oberen Ende dessen, was mit den aktuellen Messmethoden ohne die Entwicklung neuer Aufgaben zuverlässig erfasst werden kann.
Die METR-Methodik definiert die 50-Prozent-Zeitspanne als die Dauer einer Aufgabe, bei der das Modell eine 50-prozentige Chance hat, eine Aufgabe zu lösen, für die ein Mensch die angegebene Zeit benötigen würde. Referenzpunkte umfassen beispielsweise das Training eines Klassifikators (ca. 45 Minuten) oder eines robusten Bildmodells (ca. vier Stunden). Von 228 Aufgaben im Testumfang von METR sind lediglich fünf als 16 Stunden oder länger eingestuft. Dies führt zu Messungen in diesem Bereich, die als "instabil und weniger aussagekräftig" beschrieben werden, als in Bereichen mit besserer Aufgabenabdeckung. Daher liefert METR für Modelle oberhalb dieser Schwelle keine präzisen Schätzungen.
Obwohl die bestehende Testsuite von METR immer noch in der Lage ist, ein leistungsfähigeres Modell von den derzeit bekannten State-of-the-Art-Modellen zu unterscheiden, sind die Messungen in diesem Bereich nicht robust genug für präzise quantitative Vergleiche oder Extrapolationen. METR arbeitet an der Entwicklung aktualisierter Methoden mit längeren Aufgaben, die sich jedoch noch in der Entwicklung befinden. Dies deutet auf ein grundlegendes Problem hin: Die Geschwindigkeit, mit der sich die Fähigkeiten von KI-Modellen entwickeln, könnte die Geschwindigkeit übersteigen, mit der adäquate Bewertungs- und Sicherheitsmechanismen entwickelt werden können.
Parallel zu den Herausforderungen bei der Bewertung von KI-Fähigkeiten warnt das Cybersicherheitsunternehmen Palo Alto Networks vor einer signifikanten Veränderung der Bedrohungslandschaft. Nach Tests mit Claude Mythos, OpenAIs GPT-5.5-Cyber und Claude Opus 4.7 beschreibt Palo Alto Networks eine "grundlegende Fähigkeitsänderung". Die Modelle hätten ein "intuitives Verständnis für Software-Schwachstellen" gezeigt und verlagerten ihre Rolle von einem unterstützenden Assistenten zu einem autonomen Agenten. Diese Agenten seien in der Lage, Schwachstellen zu entdecken und zu komplexen Angriffsvektoren zu verketten, und dies in einem Ausmaß, auf das die meisten Verteidiger nicht vorbereitet sind.
Laut Palo Alto Networks konnten die Modelle in nur drei Wochen eine Menge an manuellen Penetrationstests durchführen, die einem ganzen Jahr entsprechen. Dies unterstreicht die rasante Beschleunigung offensiver Sicherheitsfähigkeiten durch KI. In einigen Fällen kombinierten die Modelle mehrere einzeln gering bewertete Schwachstellen zu kritischen Angriffspfaden. Die Zeitspanne vom ersten Zugang bis zur Datenexfiltration kann in KI-gestützten Szenarien auf bis zu 25 Minuten schrumpfen.
Palo Alto Networks schätzt die Verbesserung der Code-Effizienz aktueller Frontier-Modelle gegenüber ihren Vorgängern auf etwa 50 Prozent ein. Diese Zahl mag inkrementell erscheinen, markiert jedoch den Punkt, an dem KI von einem hilfreichen Assistenten zu einem autonomen Operator wird. Ein zusätzliches Risiko sieht das Unternehmen in der schnell wachsenden, unüberwachten Angriffsfläche, da mit der Verbreitung lokaler KI-Agenten "jeder Desktop effektiv ein Server" wird. Gleichzeitig haben die meisten Organisationen keine Transparenz über den Code, den ihre eigenen Mitarbeiter generieren und bereitstellen.
Nach der Einführung von Mythos prognostizierte das Unternehmen zunächst ein Zeitfenster von sechs Monaten, bevor Angreifer Zugang zu vergleichbaren Fähigkeiten erhalten würden. Diese Einschätzung, so Palo Alto Networks, habe sich "erheblich beschleunigt".
Die Diskussion um Anthropic's Claude Mythos wurde teilweise durch die Aussage des Unternehmens angeheizt, das Modell sei "zu gefährlich", um es freizugeben – eine PR-Taktik, die OpenAI bereits mit GPT-2 angewandt hat. Frühere Studien sind sich einig, dass die von leistungsfähigeren KI-Modellen ausgehende Cybersicherheitsbedrohung zugenommen hat, der tatsächliche Umfang dieser Bedrohung bleibt jedoch unklar.
Das British AI Security Institute (AISI) stellte fest, dass Claude Mythos Preview End-to-End-Netzwerkangriffe durchführen könnte, geht aber davon aus, dass dies zunächst nur schwache, ungeschützte Netzwerke betreffen wird. OpenAIs GPT-5.5, das bereits ausgeliefert wurde, soll ähnliche mehrstufige Unternehmensangriffssimulationen ebenfalls lösen können – sogar leicht über dem Niveau von Mythos. Auch kleineren KI-Modellen werden vergleichbare Fähigkeiten zugeschrieben.
Die Modelle können jedoch auch zur Verteidigung beitragen. Mozilla nutzte Anthropic's Claude Mythos Preview, um Sicherheitslücken im Firefox-Browser aufzudecken. Allein im April 2026 behob Mozilla insgesamt 423 Sicherheitsprobleme, ein Rekordwert laut dem Unternehmen.
Für Unternehmen, die im B2B-Sektor tätig sind, ergeben sich aus diesen Entwicklungen mehrere zentrale Erkenntnisse:
Die Entwicklungen rund um Claude Mythos und die Warnungen von Palo Alto Networks verdeutlichen, dass die Fähigkeiten von KI-Modellen nicht nur neue Geschäftschancen eröffnen, sondern auch eine grundlegende Verschiebung der Sicherheitslandschaft mit sich bringen. Unternehmen, die sich frühzeitig auf diese Veränderungen einstellen und ihre Strategien entsprechend anpassen, können die potenziellen Risiken minimieren und die Vorteile der KI-Technologie sicher nutzen.
- The Decoder. (2026, 10. Mai). METR says it can barely measure Claude Mythos, Palo Alto Networks warns of autonomous AI attackers. - METR. (2026, März). Preliminary evaluation of Claude Mythos Preview. - Palo Alto Networks. (2026, 10. Mai). Frontier AI Defense. - The Decoder. (2026, 10. Mai). From GPT-2 to Claude Mythos: The return of AI models deemed too dangerous to release. - UK AI Security Institute. (2026, April). Our evaluation of Claude Mythos Preview’s cyber capabilities. - The Decoder. (2026, 10. Mai). GPT-5.5 matches Claude Mythos in cyber-attack tests, UK AI Security Institute finds. - The Decoder. (2026, 10. Mai). The myth of Claude Mythos crumbles as small open models hunt the same cybersecurity bugs Anthropic showcased. - The Decoder. (2026, 10. Mai). Mozilla’s agentic AI pipeline turns Claude Mythos Preview loose and finds 271 unknown Firefox vulnerabilities.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen