Künstliche Intelligenz (KI) und insbesondere große Sprachmodelle (LLMs) haben in den letzten Jahren enorme Fortschritte im Bereich der Sprachverarbeitung erzielt. Doch die Fähigkeit, komplexe logische Schlussfolgerungen zu ziehen, stellt weiterhin eine Herausforderung dar. Eine neue Forschungsarbeit zeigt nun, dass eine sorgfältige Auswahl der Trainingsdaten in Kombination mit einer flexiblen Steuerung der Rechenleistung während der Testphase die Effizienz von LLMs beim Lösen von komplexen Denkaufgaben deutlich steigern kann.
Im Gegensatz zu dem gängigen Ansatz, LLMs mit riesigen Datenmengen zu trainieren, konzentrierte sich das Forschungsteam auf die Qualität der Trainingsdaten. Aus einem Pool von fast 60.000 Frage-Antwort-Paaren wurden lediglich 1.000 Beispiele ausgewählt, die drei Hauptkriterien erfüllten: Schwierigkeitsgrad, Themenvielfalt und hohe Standards in Bezug auf Klarheit und Formatierung. Die Beispiele enthielten auch Denkschritte, die mit Gemini 2.0 Flash Thinking generiert wurden.
Mit diesem kompakten, aber hochwertigen Datensatz trainierten die Forscher ein mittelgroßes Sprachmodell namens s1-32B, basierend auf Qwen2.5 mit 32 Milliarden Parametern. Das Training dauerte dank der fokussierten Datenauswahl nur 26 Minuten auf 16 Nvidia H100 GPUs – insgesamt etwa 25 GPU-Stunden. Im Vergleich dazu benötigen ähnliche Modelle wie OpenAI o1 oder DeepSeek-R1 vermutlich Tausende von GPU-Stunden.
Zusätzlich zur Datenauswahl entwickelte das Team die Methode "Budget Forcing", um den Denkprozess des Modells zu steuern. Überschreitet das Modell eine festgelegte Anzahl von Rechenschritten, muss es eine Antwort liefern. Benötigt das Modell mehr Zeit, führt die Eingabe des Wortes "Warte" dazu, dass es seine vorherige Antwort überprüft und seine Argumentation auf Fehler untersucht. "Budget Forcing" ermöglicht es Nutzern, die Gründlichkeit des Modells je nach Bedarf anzupassen.
Tests zeigten, dass ein höheres Budget, ausgelöst durch häufigere "Warte"-Befehle, zu besseren Ergebnissen führte. Das trainierte Modell übertraf sogar OpenAIs datenintensivere Modelle o1-preview und o1-mini in mathematischen Benchmarks.
Weitere Tests zeigten, dass erst die Kombination aller drei Kriterien der Datenauswahl – Schwierigkeitsgrad, Vielfalt und Qualität – zu einer optimalen Leistung führte. Eine Beschränkung der Auswahl auf einzelne Kriterien oder eine zufällige Auswahl führte zu bis zu 30 Prozent schlechteren Ergebnissen.
Interessanterweise konnte selbst der 59-mal größere vollständige Datensatz die Ergebnisse der sorgfältig ausgewählten 1.000 Beispiele nicht verbessern. Die Budgetkontrolle erwies sich als entscheidender, da sie eine präzise Steuerung der Rechenleistung während der Testphase ermöglichte und einen klaren Zusammenhang zwischen investierten Tokens und Leistung aufzeigte.
Die Studie zeigt, dass ein kleiner, aber gut ausgewählter Trainingsdatensatz Sprachmodelle auf komplexe Denkaufgaben vorbereiten kann. In Kombination mit einer flexiblen Steuerung der Rechenleistung können Modelle bei Bedarf gründlicher arbeiten, ohne ihre Größe zu erhöhen. Obwohl s1-32B und "Budget Forcing" vielversprechend sind, spiegeln die Benchmark-Ergebnisse nur die Leistung in einem engen Bereich von Fähigkeiten wider. Die Forscher haben ihren Code und ihre Trainingsdaten auf GitHub veröffentlicht, um die weitere Entwicklung zu fördern.
Diese Forschungsergebnisse unterstreichen die Bedeutung von effizienten Trainingsmethoden und der gezielten Auswahl von Daten für die Entwicklung leistungsfähiger KI-Modelle. Sie bieten einen alternativen Ansatz zu dem Trend, immer größere Modelle mit immer mehr Daten zu trainieren, und eröffnen neue Möglichkeiten für die Entwicklung ressourcenschonender und dennoch leistungsstarker KI-Systeme.
Quellen: - https://the-decoder.com/getting-the-right-data-and-telling-it-to-wait-turns-an-llm-into-a-reasoning-model/ - https://www.linkedin.com/posts/mustafa-suleyman_today-weve-made-think-deeper-free-and-available-activity-7290487808706715648-Hj3S - https://www.vellum.ai/blog/the-training-of-deepseek-r1-and-ways-to-use-it - https://medium.com/@iheringguedes/reasoning-state-of-the-art-openais-o1-strawberry-here-s-all-you-need-to-know-ed6340bcb87d - https://www.reddit.com/r/LocalLLaMA/comments/1cwa3jl/misguided_attention_challenging_the_reasoning/ - https://medium.com/towards-data-science/choosing-the-right-language-model-for-your-nlp-use-case-1288ef3c4929 - https://arxiv.org/html/2403.14932v2 - https://community.openai.com/t/how-you-motivate-llm-agent-to-read-all-the-data-before-answer-and-to-work-only-on-the-database-and-answer-only-based-on-it/847923 - https://www.youtube.com/watch?v=Of2kTxeh0dU - https://arxiv.org/html/2408.01703v1