Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Große Sprachmodelle (LLMs) haben in den letzten Jahren beeindruckende Fortschritte in der Verarbeitung natürlicher Sprache gezeigt. Ihre Fähigkeit, komplexe mathematische Probleme zu lösen, ist jedoch weiterhin eine Herausforderung. Ein vielversprechender Ansatz zur Verbesserung dieser Fähigkeiten ist die Verwendung von In-Context-Learning (ICL), bei dem dem LLM Beispiele für gelöste Aufgaben zur Verfügung gestellt werden. Eine neue Forschungsarbeit mit dem Titel "BoostStep: Boosting mathematical capability of Large Language Models via improved single-step reasoning" untersucht die Grenzen des ICL und schlägt eine innovative Methode zur Verbesserung des mathematischen Verständnisses von LLMs vor.
Die Autoren der Studie identifizieren zwei Hauptprobleme beim Einsatz von ICL für mathematische Aufgaben: Granularitätsunterschiede und das daraus resultierende Problem des "Negative-Effect Noise". Erstens besteht oft eine Diskrepanz zwischen der Granularität der ICL-Beispiele und den einzelnen Schritten, die zur Lösung eines komplexen mathematischen Problems erforderlich sind. Während LLMs den Prozess der Aufgabenteilung gut beherrschen, scheitern sie häufig an der korrekten Ausführung einzelner Rechenschritte. Zweitens können ICL-Beispiele, die auf der Ebene der gesamten Aufgabe abgerufen werden, für einen spezifischen, herausfordernden Rechenschritt irrelevante Informationen enthalten. Diese irrelevanten Informationen können das LLM ablenken und die Genauigkeit des Ergebnisses beeinträchtigen.
Um diese Herausforderungen zu bewältigen, präsentieren die Forscher BoostStep, eine Methode, die die Granularität zwischen dem Abrufen von Beispielen und dem eigentlichen Rechnen auf der Ebene einzelner Schritte angleicht. BoostStep liefert dem LLM für jeden Rechenschritt hochrelevante ICL-Beispiele mithilfe einer neuartigen "First-Try"-Strategie. Dabei versucht das LLM zunächst, den Schritt selbstständig zu lösen. Anhand dieses ersten Versuchs werden dann gezielt ähnliche Beispiele aus einer Datenbank abgerufen, die speziell auf einzelne Rechenschritte ausgerichtet ist. Dieser Ansatz stellt sicher, dass die bereitgestellten Beispiele maximal relevant für den aktuellen Rechenschritt sind und so die Genauigkeit des LLM verbessern.
BoostStep lässt sich nahtlos in Monte Carlo Tree Search (MCTS) Methoden integrieren, um sowohl die Generierung von Lösungskandidaten als auch die Entscheidungsfindung zu optimieren. MCTS ist ein Algorithmus, der durch zufällige Simulationen den Suchraum nach optimalen Lösungen absucht. Durch die Integration von BoostStep kann die Qualität der einzelnen Simulationsschritte verbessert werden, was zu einer insgesamt höheren Genauigkeit und Effizienz des MCTS-Algorithmus führt.
Die Forscher evaluierten BoostStep mit verschiedenen LLMs, darunter GPT-4o und Qwen2.5-Math-72B, und erzielten signifikante Verbesserungen der Leistung bei verschiedenen mathematischen Benchmarks. BoostStep verbesserte die Genauigkeit von GPT-4o um 3,6% und von Qwen2.5-Math-72B um 2,0%. In Kombination mit MCTS wurde sogar eine Steigerung von 7,5% erreicht. Diese Ergebnisse unterstreichen das Potenzial von BoostStep, die mathematischen Fähigkeiten von LLMs erheblich zu verbessern. Die Methode bietet einen vielversprechenden Ansatz für die Entwicklung von KI-Systemen, die komplexe mathematische Probleme effektiv lösen können. Für Mindverse, ein deutsches Unternehmen, das sich auf die Entwicklung von KI-Lösungen spezialisiert hat, bieten diese Forschungsergebnisse wertvolle Einblicke in die Weiterentwicklung von KI-gestützten Content-Tools, Chatbots, Voicebots und Wissensdatenbanken.
Bibliographie Zhang, B., Liu, Y., Dong, X., Zang, Y., Zhang, P., Duan, H., Cao, Y., Lin, D., & Wang, J. (2025). BoostStep: Boosting mathematical capability of Large Language Models via improved single-step reasoning. arXiv preprint arXiv:2501.03226. https://www.chatpaper.com/chatpaper/fr/paper/96150 https://huggingface.co/papers https://chatpaper.com/chatpaper/ja?id=3&date=1736179200&page=1 https://arxiv-sanity-lite.com/ https://arxiv.org/list/cs.CL/recent https://aclanthology.org/2024.emnlp-main.758.pdf https://aclanthology.org/2024.eacl-srw.17.pdf https://www.sciencedirect.com/science/article/pii/S2949719123000298Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen