Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Künstliche Intelligenz (KI) und insbesondere große Sprachmodelle (LLMs) haben in den letzten Jahren enorme Fortschritte im Bereich der Sprachverarbeitung erzielt. Doch die Fähigkeit, komplexe logische Schlussfolgerungen zu ziehen, stellt weiterhin eine Herausforderung dar. Eine neue Forschungsarbeit zeigt nun, dass eine sorgfältige Auswahl der Trainingsdaten in Kombination mit einer flexiblen Steuerung der Rechenleistung während der Testphase die Effizienz von LLMs beim Lösen von komplexen Denkaufgaben deutlich steigern kann.
Im Gegensatz zu dem gängigen Ansatz, LLMs mit riesigen Datenmengen zu trainieren, konzentrierte sich das Forschungsteam auf die Qualität der Trainingsdaten. Aus einem Pool von fast 60.000 Frage-Antwort-Paaren wurden lediglich 1.000 Beispiele ausgewählt, die drei Hauptkriterien erfüllten: Schwierigkeitsgrad, Themenvielfalt und hohe Standards in Bezug auf Klarheit und Formatierung. Die Beispiele enthielten auch Denkschritte, die mit Gemini 2.0 Flash Thinking generiert wurden.
Mit diesem kompakten, aber hochwertigen Datensatz trainierten die Forscher ein mittelgroßes Sprachmodell namens s1-32B, basierend auf Qwen2.5 mit 32 Milliarden Parametern. Das Training dauerte dank der fokussierten Datenauswahl nur 26 Minuten auf 16 Nvidia H100 GPUs – insgesamt etwa 25 GPU-Stunden. Im Vergleich dazu benötigen ähnliche Modelle wie OpenAI o1 oder DeepSeek-R1 vermutlich Tausende von GPU-Stunden.
Zusätzlich zur Datenauswahl entwickelte das Team die Methode "Budget Forcing", um den Denkprozess des Modells zu steuern. Überschreitet das Modell eine festgelegte Anzahl von Rechenschritten, muss es eine Antwort liefern. Benötigt das Modell mehr Zeit, führt die Eingabe des Wortes "Warte" dazu, dass es seine vorherige Antwort überprüft und seine Argumentation auf Fehler untersucht. "Budget Forcing" ermöglicht es Nutzern, die Gründlichkeit des Modells je nach Bedarf anzupassen.
Tests zeigten, dass ein höheres Budget, ausgelöst durch häufigere "Warte"-Befehle, zu besseren Ergebnissen führte. Das trainierte Modell übertraf sogar OpenAIs datenintensivere Modelle o1-preview und o1-mini in mathematischen Benchmarks.
Weitere Tests zeigten, dass erst die Kombination aller drei Kriterien der Datenauswahl – Schwierigkeitsgrad, Vielfalt und Qualität – zu einer optimalen Leistung führte. Eine Beschränkung der Auswahl auf einzelne Kriterien oder eine zufällige Auswahl führte zu bis zu 30 Prozent schlechteren Ergebnissen.
Interessanterweise konnte selbst der 59-mal größere vollständige Datensatz die Ergebnisse der sorgfältig ausgewählten 1.000 Beispiele nicht verbessern. Die Budgetkontrolle erwies sich als entscheidender, da sie eine präzise Steuerung der Rechenleistung während der Testphase ermöglichte und einen klaren Zusammenhang zwischen investierten Tokens und Leistung aufzeigte.
Die Studie zeigt, dass ein kleiner, aber gut ausgewählter Trainingsdatensatz Sprachmodelle auf komplexe Denkaufgaben vorbereiten kann. In Kombination mit einer flexiblen Steuerung der Rechenleistung können Modelle bei Bedarf gründlicher arbeiten, ohne ihre Größe zu erhöhen. Obwohl s1-32B und "Budget Forcing" vielversprechend sind, spiegeln die Benchmark-Ergebnisse nur die Leistung in einem engen Bereich von Fähigkeiten wider. Die Forscher haben ihren Code und ihre Trainingsdaten auf GitHub veröffentlicht, um die weitere Entwicklung zu fördern.
Diese Forschungsergebnisse unterstreichen die Bedeutung von effizienten Trainingsmethoden und der gezielten Auswahl von Daten für die Entwicklung leistungsfähiger KI-Modelle. Sie bieten einen alternativen Ansatz zu dem Trend, immer größere Modelle mit immer mehr Daten zu trainieren, und eröffnen neue Möglichkeiten für die Entwicklung ressourcenschonender und dennoch leistungsstarker KI-Systeme.
Quellen: - https://the-decoder.com/getting-the-right-data-and-telling-it-to-wait-turns-an-llm-into-a-reasoning-model/ - https://www.linkedin.com/posts/mustafa-suleyman_today-weve-made-think-deeper-free-and-available-activity-7290487808706715648-Hj3S - https://www.vellum.ai/blog/the-training-of-deepseek-r1-and-ways-to-use-it - https://medium.com/@iheringguedes/reasoning-state-of-the-art-openais-o1-strawberry-here-s-all-you-need-to-know-ed6340bcb87d - https://www.reddit.com/r/LocalLLaMA/comments/1cwa3jl/misguided_attention_challenging_the_reasoning/ - https://medium.com/towards-data-science/choosing-the-right-language-model-for-your-nlp-use-case-1288ef3c4929 - https://arxiv.org/html/2403.14932v2 - https://community.openai.com/t/how-you-motivate-llm-agent-to-read-all-the-data-before-answer-and-to-work-only-on-the-database-and-answer-only-based-on-it/847923 - https://www.youtube.com/watch?v=Of2kTxeh0dU - https://arxiv.org/html/2408.01703v1Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen