Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Automatisierung der Übersetzung von natürlichsprachigen mathematischen Aussagen in formale Sprachen, auch Autoformalization genannt, stellt eine bedeutende Herausforderung in der Künstlichen Intelligenz dar. Große Sprachmodelle (LLMs) haben in diesem Bereich bereits beachtliche Fortschritte erzielt. Jedoch bleiben die Genauigkeit und Zuverlässigkeit bestehender Methoden oft hinter den gewünschten Ergebnissen zurück. Eine kürzlich veröffentlichte Studie präsentiert einen vielversprechenden Ansatz, der die Grenzen des Möglichen erweitert.
Die erfolgreiche Autoformalization erfordert zwei zentrale Fähigkeiten: ein umfassendes Verständnis formalsprachlicher Domänenkenntnisse und die Fähigkeit, natürlichsprachiges Problemverständnis mit formaler Repräsentation zu verknüpfen. Fehlt das formale Wissen, kann das Modell die korrekten formalen Objekte nicht identifizieren. Fehlt die Fähigkeit zur Schlussfolgerung und zur Übertragung in die formale Sprache, scheitert die präzise Abbildung realer Zusammenhänge in formale Ausdrücke. Dies führt zu einer niedrigen Genauigkeit bestehender Systeme.
Die Forscher stellten "ThinkingF" vor, eine Daten Synthese- und Trainingspipeline, die darauf abzielt, beide genannten Fähigkeiten zu verbessern. ThinkingF basiert auf zwei neu entwickelten Datensätzen. Der erste Datensatz konzentriert sich auf die Destillation und Auswahl umfangreicher Beispiele, die reich an formalem Wissen sind. Der zweite Datensatz generiert informal-formale Schlussfolgerungstrajektorien, die von Experten entworfenen Vorlagen folgen. Diese Trajektorien dienen als Trainingsdaten, um die Fähigkeit des Modells zur Übertragung von informellen in formale Ausdrücke zu verbessern.
Zur Verbesserung der Fähigkeiten wurden Supervised Fine-Tuning (SFT) und Retrieval-Augmented Language Model with Verbalizer (RLVR) eingesetzt. Durch diesen Ansatz werden die beiden Fähigkeiten – formales Wissen und Schlussfolgerungsfähigkeit – gebunden und verfeinert. Das Ergebnis sind zwei Modelle mit 7 Milliarden und 32 Milliarden Parametern, die sowohl umfassende formale Kenntnisse als auch eine starke Fähigkeit zur informal-formalen Schlussfolgerung aufweisen.
Das leistungsstärkere 32-Milliarden-Parameter-Modell, StepFun-Formalizer-32B, erreicht Spitzenwerte (State-of-the-Art, SOTA) auf den gängigen Benchmarks FormalMATH-Lite und ProverBench. Konkret wird ein BEq@1 Score von 40,5% auf FormalMATH-Lite und 26,7% auf ProverBench erzielt. Diese Ergebnisse übertreffen alle bisherigen Modelle, sowohl allgemeiner als auch spezialisierter Natur.
Die Autoren betonen, dass die zugrundeliegenden Modelle, Datensätze und der Evaluationscode in Kürze veröffentlicht werden sollen. Dies ermöglicht es der Forschungskommunität, die Ergebnisse zu reproduzieren und weiterzuentwickeln. Die Verfügbarkeit dieser Ressourcen ist entscheidend für den Fortschritt im Bereich der automatisierten Formalisierung und wird weitere Innovationen in diesem Feld anregen.
Die Entwicklung von StepFun-Formalizer stellt einen signifikanten Fortschritt in der Autoformalization dar. Die verbesserten Genauigkeitswerte haben das Potenzial, verschiedene Anwendungsbereiche zu revolutionieren, insbesondere in Bereichen, die mathematische Formalisierungen erfordern, wie beispielsweise die Softwareverifikation, das automatische Theorembeweisen und die Entwicklung von formalen Spezifikationen.
Die zukünftige Forschung sollte sich auf die Skalierbarkeit, die Robustheit und die Generalisierbarkeit der Methode konzentrieren. Die Verbesserung der Fähigkeit des Modells, mit komplexeren und uneindeutigeren mathematischen Aussagen umzugehen, bleibt eine wichtige Herausforderung. Dennoch zeigt die vorliegende Studie, dass die Kombination von LLM-basierten Ansätzen mit explizitem formalen Wissen und verbesserten Schlussfolgerungsfähigkeiten einen vielversprechenden Weg zur Lösung der Herausforderungen der Autoformalization darstellt.
Die vorgestellte Arbeit liefert einen wertvollen Beitrag zum Verständnis und zur Verbesserung der Autoformalization. Die erzielten Ergebnisse unterstreichen das Potenzial von LLMs in Kombination mit erweitertem formalem Wissen und verbesserten Schlussfolgerungsmechanismen. Die Veröffentlichung der zugrundeliegenden Ressourcen wird weitere Forschungsarbeiten und Innovationen in diesem Bereich ermöglichen und zu weiteren Fortschritten führen.
Bibliographie * https://arxiv.org/abs/2505.23486 * https://arxiv.org/html/2505.23486v1Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen