KI für Ihr Unternehmen – Jetzt Demo buchen

Effiziente Strategien zur Verbesserung der Schlussfolgerungsfähigkeit von Sprachmodellen durch gezielte Datenauswahl und Rechenleistungskontrolle

Kategorien:
No items found.
Freigegeben:
February 7, 2025

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Effizientes Schlussfolgern in Sprachmodellen durch gezielte Datenauswahl und flexible Rechenleistung

    Künstliche Intelligenz (KI) und insbesondere große Sprachmodelle (LLMs) haben in den letzten Jahren enorme Fortschritte im Bereich der Sprachverarbeitung erzielt. Doch die Fähigkeit, komplexe logische Schlussfolgerungen zu ziehen, stellt weiterhin eine Herausforderung dar. Eine neue Forschungsarbeit zeigt nun, dass eine sorgfältige Auswahl der Trainingsdaten in Kombination mit einer flexiblen Steuerung der Rechenleistung während der Testphase die Effizienz von LLMs beim Lösen von komplexen Denkaufgaben deutlich steigern kann.

    Weniger ist mehr: Fokus auf Qualität der Trainingsdaten

    Im Gegensatz zu dem gängigen Ansatz, LLMs mit riesigen Datenmengen zu trainieren, konzentrierte sich das Forschungsteam auf die Qualität der Trainingsdaten. Aus einem Pool von fast 60.000 Frage-Antwort-Paaren wurden lediglich 1.000 Beispiele ausgewählt, die drei Hauptkriterien erfüllten: Schwierigkeitsgrad, Themenvielfalt und hohe Standards in Bezug auf Klarheit und Formatierung. Die Beispiele enthielten auch Denkschritte, die mit Gemini 2.0 Flash Thinking generiert wurden.

    Mit diesem kompakten, aber hochwertigen Datensatz trainierten die Forscher ein mittelgroßes Sprachmodell namens s1-32B, basierend auf Qwen2.5 mit 32 Milliarden Parametern. Das Training dauerte dank der fokussierten Datenauswahl nur 26 Minuten auf 16 Nvidia H100 GPUs – insgesamt etwa 25 GPU-Stunden. Im Vergleich dazu benötigen ähnliche Modelle wie OpenAI o1 oder DeepSeek-R1 vermutlich Tausende von GPU-Stunden.

    "Budget Forcing": Steuerung des Denkprozesses

    Zusätzlich zur Datenauswahl entwickelte das Team die Methode "Budget Forcing", um den Denkprozess des Modells zu steuern. Überschreitet das Modell eine festgelegte Anzahl von Rechenschritten, muss es eine Antwort liefern. Benötigt das Modell mehr Zeit, führt die Eingabe des Wortes "Warte" dazu, dass es seine vorherige Antwort überprüft und seine Argumentation auf Fehler untersucht. "Budget Forcing" ermöglicht es Nutzern, die Gründlichkeit des Modells je nach Bedarf anzupassen.

    Tests zeigten, dass ein höheres Budget, ausgelöst durch häufigere "Warte"-Befehle, zu besseren Ergebnissen führte. Das trainierte Modell übertraf sogar OpenAIs datenintensivere Modelle o1-preview und o1-mini in mathematischen Benchmarks.

    Synergieeffekte: Kombination aus Datenauswahl und Budgetkontrolle

    Weitere Tests zeigten, dass erst die Kombination aller drei Kriterien der Datenauswahl – Schwierigkeitsgrad, Vielfalt und Qualität – zu einer optimalen Leistung führte. Eine Beschränkung der Auswahl auf einzelne Kriterien oder eine zufällige Auswahl führte zu bis zu 30 Prozent schlechteren Ergebnissen.

    Interessanterweise konnte selbst der 59-mal größere vollständige Datensatz die Ergebnisse der sorgfältig ausgewählten 1.000 Beispiele nicht verbessern. Die Budgetkontrolle erwies sich als entscheidender, da sie eine präzise Steuerung der Rechenleistung während der Testphase ermöglichte und einen klaren Zusammenhang zwischen investierten Tokens und Leistung aufzeigte.

    Ausblick und Bedeutung der Forschung

    Die Studie zeigt, dass ein kleiner, aber gut ausgewählter Trainingsdatensatz Sprachmodelle auf komplexe Denkaufgaben vorbereiten kann. In Kombination mit einer flexiblen Steuerung der Rechenleistung können Modelle bei Bedarf gründlicher arbeiten, ohne ihre Größe zu erhöhen. Obwohl s1-32B und "Budget Forcing" vielversprechend sind, spiegeln die Benchmark-Ergebnisse nur die Leistung in einem engen Bereich von Fähigkeiten wider. Die Forscher haben ihren Code und ihre Trainingsdaten auf GitHub veröffentlicht, um die weitere Entwicklung zu fördern.

    Diese Forschungsergebnisse unterstreichen die Bedeutung von effizienten Trainingsmethoden und der gezielten Auswahl von Daten für die Entwicklung leistungsfähiger KI-Modelle. Sie bieten einen alternativen Ansatz zu dem Trend, immer größere Modelle mit immer mehr Daten zu trainieren, und eröffnen neue Möglichkeiten für die Entwicklung ressourcenschonender und dennoch leistungsstarker KI-Systeme.

    Quellen: - https://the-decoder.com/getting-the-right-data-and-telling-it-to-wait-turns-an-llm-into-a-reasoning-model/ - https://www.linkedin.com/posts/mustafa-suleyman_today-weve-made-think-deeper-free-and-available-activity-7290487808706715648-Hj3S - https://www.vellum.ai/blog/the-training-of-deepseek-r1-and-ways-to-use-it - https://medium.com/@iheringguedes/reasoning-state-of-the-art-openais-o1-strawberry-here-s-all-you-need-to-know-ed6340bcb87d - https://www.reddit.com/r/LocalLLaMA/comments/1cwa3jl/misguided_attention_challenging_the_reasoning/ - https://medium.com/towards-data-science/choosing-the-right-language-model-for-your-nlp-use-case-1288ef3c4929 - https://arxiv.org/html/2403.14932v2 - https://community.openai.com/t/how-you-motivate-llm-agent-to-read-all-the-data-before-answer-and-to-work-only-on-the-database-and-answer-only-based-on-it/847923 - https://www.youtube.com/watch?v=Of2kTxeh0dU - https://arxiv.org/html/2408.01703v1

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen