Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Entwicklung grosser Sprachmodelle (LLMs) hat in den letzten Jahren beeindruckende Fortschritte gemacht. Von einfachen Textgeneratoren haben sie sich zu autonomen Agenten entwickelt, die komplexe Aufgaben planen, ausführen und lösen können. Ein zentraler Ansatz zur Verbesserung dieser Fähigkeiten ist das sogenannte Test-Time Training (TTT), bei dem Modelle ihre Parameter während der Inferenzphase anpassen, indem sie nur die Testfragen nutzen. Aktuelle Forschungsergebnisse, insbesondere die Einführung von TTCS (Test-Time Curriculum Synthesis), zeigen jedoch, dass die herkömmlichen TTT-Methoden an ihre Grenzen stossen, wenn es um wirklich schwierige Denkprobleme geht. TTCS bietet hier einen neuartigen, sich selbst entwickelnden Ansatz, der diese Einschränkungen überwindet.
Bisherige TTT-Methoden, allen voran das Test-Time Reinforcement Learning (TTRL), sehen sich mit zwei Hauptproblemen konfrontiert:
TTCS greift die grundlegende Idee des Curriculum Learning auf, die besagt, dass das Lösen verwandter, einfacherer Varianten den Weg zur Bewältigung komplexer Probleme ebnet. Anstatt das Modell direkt an unlösbaren Aufgaben zu optimieren, konzentriert sich TTCS auf die aktive Konstruktion eines problemzentrierten Curriculums, das aus vielfältigen, lösbaren Varianten besteht, die auf die aktuelle Fähigkeit des Solvers zugeschnitten sind.
Das TTCS-Framework basiert auf einer iterativen Optimierungsschleife unter Verwendung von Group Relative Policy Optimization (GRPO) und besteht aus zwei Agenten, die aus demselben vortrainierten Modell initialisiert werden:
Das Besondere an TTCS ist die ko-evolvierende Natur dieser beiden Agenten: Der Solver dient als impliziter Bewerter der Qualität jeder synthetisierten Frage. Sein Feedback leitet den Synthesizer an, Fragen zu generieren, die auf die aktuellen Fähigkeiten des Solvers abgestimmt sind. Im Gegenzug stabilisieren die generierten Fragenvarianten das Test-Time Training des Solvers. Dieser iterative Prozess ermöglicht eine stabile Selbstentwicklung unter den Bedingungen eines Label-freien Test-Time-Trainings.
Der Synthesizer-Training konzentriert sich auf zwei Schlüsselkomponenten:
Das Online-Selbstentwicklung des Solvers umfasst:
Umfassende Experimente wurden mit TTCS auf verschiedenen Modellen (Qwen2.5-Math-1.5B, Qwen2.5-Math-7B, Qwen3-4B-Base) und Benchmarks durchgeführt.
Die Evaluierung umfasste anspruchsvolle Wettbewerbs-Mathematik-Benchmarks wie AIME24, AIME25 und AMC23, sowie grundlegende mathematische Benchmarks wie MATH-500, Minerva und OlympiadBench. TTCS zeigte in diesen Tests eine konsistent überlegene Leistung gegenüber allen Baselines, einschliesslich vortrainierten Modellen, Self-Consistency, R-Zero und TTRL. Insbesondere bei den schwierigsten Aufgaben wie AIME24/25 erzielte TTCS signifikante Verbesserungen, was darauf hindeutet, dass es erfolgreich hochwertige Supervision aus synthetisierten Curriculum-Problemen extrahieren kann, selbst wenn die Zielfragen ursprünglich ausserhalb der Reichweite des Modells liegen.
TTCS wurde auch auf seine Generalisierungsfähigkeit in allgemeinen Bereichen jenseits der Mathematik getestet, darunter MMLU-Pro und SuperGPQA. Die Ergebnisse zeigten, dass die während der mathematischen Selbstentwicklung erlernten Fähigkeiten auf breitere Denkaufgaben übertragen werden können, wobei TTCS R-Zero und TTRL übertraf. Dies unterstreicht, dass die durch TTCS erworbenen Denkfähigkeiten nicht auf spezifische Datensätze beschränkt sind.
Die Analysen von TTCS beantworten mehrere Forschungsfragen und liefern wichtige Erkenntnisse:
Ablationsstudien bestätigten zudem die Relevanz jedes einzelnen TTCS-Bestandteils (Synthesizer-Training, Online-Datenfilterung, Diversitätsstrafen) für die Gesamtleistung.
TTCS stellt einen bedeutenden Fortschritt in der Fähigkeit grosser Sprachmodelle dar, sich selbstständig weiterzuentwickeln. Durch die dynamische Konstruktion eines Curriculums aus lösbaren Problemvarianten und die ko-evolvierende Interaktion von Synthesizer und Solver überwindet es kritische Einschränkungen früherer Methoden. Die beeindruckenden Leistungssteigerungen auf mathematischen und allgemeinen Denk-Benchmarks, gepaart mit der Fähigkeit zur Generalisierung und Daten-Effizienz, positionieren TTCS als einen vielversprechenden Wegbereiter für zukünftige autonome, selbstverbessernde KI-Systeme.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen