Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Große Sprachmodelle (LLMs) lösen komplexe Probleme durch schrittweises Denken. Die gängige Evaluationspraxis konzentriert sich jedoch meist auf die Bewertung der finalen Antwort am Ende eines solchen Denkprozesses. Eine neue Forschungsarbeit stellt diesen Ansatz in Frage und untersucht, ob die letzte Antwort tatsächlich die optimale Schlussfolgerung des Modells repräsentiert und ob alternative Denkwege zu unterschiedlichen Ergebnissen führen können.
Die Studie, die auf dem Preprint-Server arXiv veröffentlicht wurde, analysiert die einzelnen Denkschritte, die als "Subgedanken" bezeichnet werden. Die Forscher schlagen eine Methode vor, die den Denkprozess eines LLMs in sequenzielle Subgedanken segmentiert, basierend auf linguistischen Hinweisen. Anschließend wird das Modell aufgefordert, von jedem dieser Subgedanken aus den Denkprozess fortzusetzen. So entstehen mehrere alternative Lösungswege und potentielle Antworten.
Das Ergebnis ist vielversprechend: Die Aggregation dieser Antworten, beispielsweise durch Auswahl der häufigsten Antwort (Modus), führt oft zu einer deutlich höheren Genauigkeit im Vergleich zur ausschließlichen Bewertung der ursprünglichen finalen Antwort. Die Analyse der Konsistenz zwischen den Antworten aus verschiedenen Subgedanken offenbart zudem Charakteristika, die mit dem Konfidenzniveau und der Korrektheit des Modells korrelieren. Dies deutet darauf hin, dass weniger zuverlässige Antworten identifiziert werden können.
Die Experimente der Forscher, die mit verschiedenen LLMs und anspruchsvollen mathematischen Datensätzen (AIME2024 und AIME2025) durchgeführt wurden, zeigen konsistente Verbesserungen der Genauigkeit, mit Steigerungen von bis zu 13% bzw. 10%.
Diese Erkenntnisse sind besonders relevant für Unternehmen wie Mindverse, die sich auf die Entwicklung von KI-Lösungen spezialisiert haben. Das Verständnis der internen Denkprozesse von LLMs ist entscheidend für die Optimierung von KI-Anwendungen. Die Fähigkeit, die Zuverlässigkeit von Antworten zu bewerten und alternative Lösungswege zu explorieren, eröffnet neue Möglichkeiten für die Entwicklung robusterer und leistungsfähigerer KI-Systeme.
Für Mindverse, das maßgeschneiderte Lösungen wie Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme entwickelt, bietet diese Forschung wertvolle Einblicke. Die Integration dieser Erkenntnisse in die Entwicklungsprozesse könnte zu einer verbesserten Genauigkeit und Zuverlässigkeit der angebotenen KI-Lösungen führen.
Die von den Forschern entwickelte Methode zur Analyse von Subgedanken könnte in die Entwicklung von neuen Evaluierungsmetriken für LLMs einfließen. Dies würde es Mindverse ermöglichen, die Leistung ihrer KI-Modelle umfassender zu beurteilen und die Entwicklung von noch leistungsstärkeren Systemen voranzutreiben.
Die Forschung unterstreicht die Bedeutung, über die finale Antwort hinauszugehen und den gesamten Denkprozess von LLMs zu betrachten. Dieser Ansatz eröffnet neue Wege zur Verbesserung der Genauigkeit und Zuverlässigkeit von KI-Systemen und bietet Unternehmen wie Mindverse die Möglichkeit, die Grenzen des Möglichen in der KI-Entwicklung weiter zu verschieben.
Bibliographie: Hasan Abed Al Kader Hammoud, Hani Itani, Bernard Ghanem. Beyond the Last Answer: Your Reasoning Trace Uncovers More than You Think. arXiv:2504.20708 [cs.CL], April 2025. https://paperreading.club/page?id=302480 https://conf.researchr.org/track/icse-2025/icse-2025-research-track https://neurips.cc/virtual/2024/events/datasets-benchmarks-2024 https://iclr.cc/virtual/2025/papers.html https://2024.aclweb.org/program/finding_papers/ https://www.sciencenews.org/article/ai-understanding-reasoning-skill-assess https://arxiv.org/html/2405.08007v1 https://delvetool.com/blog/reflexive-thematic-analysis https://anthropic.com/claude-3-7-sonnet-system-cardLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen