Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Große Sprachmodelle (LLMs) haben in den letzten Jahren beeindruckende Fortschritte in verschiedenen Bereichen erzielt, darunter auch im mathematischen Denken. Die Lösung von Geometrieaufgaben stellt jedoch weiterhin eine Herausforderung dar, bei der sogenannte Hilfslinienkonstruktionen eine entscheidende Rolle spielen. Bisherige Ansätze erreichen entweder suboptimale Ergebnisse oder benötigen sehr große LLMs wie GPT-4, was mit erheblichen Rechenkosten verbunden ist.
Ein vielversprechender Ansatz zur Verbesserung des geometrischen Denkens in kleineren LLMs ist das verstärkende Lernen mit verifizierbaren Belohnungen. Ein Beispiel hierfür ist GRPO (Geometry Reasoning Policy Optimization). Dieser Ansatz ermöglicht es, Hilfslinienkonstruktionen effektiv mit robustem geometrischen Denken zu kombinieren. Die direkte Anwendung von GRPO auf geometrische Probleme stößt jedoch auf Limitationen. Die Abhängigkeit von unbedingten Belohnungen führt zu wahllosen und oft kontraproduktiven Hilfslinienkonstruktionen.
Um diese Herausforderungen zu bewältigen, wurde ein neues Framework für verstärkendes Lernen entwickelt: GCPO (Group Contrastive Policy Optimization). GCPO zeichnet sich durch zwei wesentliche Innovationen aus: Erstens das "Group Contrastive Masking", das adaptiv positive oder negative Belohnungssignale für Hilfslinienkonstruktionen basierend auf ihrem kontextuellen Nutzen liefert. Und zweitens eine Längenbelohnung, die längere und komplexere Argumentationsketten fördert.
Auf Basis von GCPO wurde GeometryZero entwickelt, eine Familie von Geometriemodellen, die effizient und zielgerichtet bestimmen, wann Hilfslinienkonstruktionen sinnvoll sind. GeometryZero-Modelle sind im Vergleich zu Modellen, die auf riesigen LLMs basieren, deutlich ressourcenschonender. Umfassende empirische Bewertungen auf gängigen Geometriebenchmarks wie Geometry3K und MathVista zeigen, dass GeometryZero-Modelle bestehende Ansätze, einschließlich GRPO, konsistent übertreffen. Die durchschnittliche Verbesserung über alle Benchmarks beträgt 4,29%.
Diese Ergebnisse unterstreichen das Potenzial von GCPO und GeometryZero zur Verbesserung des geometrischen Denkens in LLMs. Durch die Kombination von verstärkendem Lernen mit kontextsensitiven Belohnungen und der Förderung längerer Argumentationsketten können auch kleinere LLMs komplexe Geometrieaufgaben effektiv lösen. Dies eröffnet neue Möglichkeiten für den Einsatz von KI in Bereichen wie Bildung, Forschung und Entwicklung, wo geometrisches Denken eine zentrale Rolle spielt.
Die Entwicklung von GCPO und GeometryZero ist ein wichtiger Schritt hin zu effizienteren und leistungsfähigeren KI-Systemen für geometrisches Denken. Zukünftige Forschung könnte sich auf die Erweiterung dieses Ansatzes auf andere Bereiche des mathematischen Denkens konzentrieren und die Integration von GCPO in bestehende LLM-Architekturen untersuchen.
Bibliographie: - http://www.arxiv.org/pdf/2506.07160 - https://arxiv.org/abs/2505.10978 - https://www.youtube.com/watch?v=JudHG3tiln4 - https://dapo-sia.github.io/static/pdf/dapo_paper.pdfLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen