Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
In der kontinuierlichen Entwicklung von Künstlicher Intelligenz (KI) stellen große Sprachmodelle (Large Language Models, LLMs) einen Eckpfeiler dar. Ihre Fähigkeit, komplexe Probleme zu lösen und menschenähnliche Texte zu generieren, ist beeindruckend. Dennoch stehen sie vor Herausforderungen, insbesondere hinsichtlich der Effizienz und Präzision ihrer Denkprozesse. Ein neues Framework namens SwiReasoning, entwickelt von Forschenden des Georgia Institute of Technology und Microsoft, adressiert diese Punkte, indem es LLMs ermöglicht, ihre Denkmodi dynamisch anzupassen. Diese Innovation verspricht, sowohl die Genauigkeit als auch die Token-Effizienz signifikant zu steigern.
Das Kernprinzip von SwiReasoning liegt in der Fähigkeit, automatisch zwischen zwei Hauptdenkmodi zu wechseln: dem "Chain-of-Thought" (CoT)-Ansatz und dem latenten Denken. Beim CoT-Ansatz wird ein Problem Schritt für Schritt in expliziter Textform gelöst, was Transparenz und Nachvollziehbarkeit fördert. Im Gegensatz dazu findet das latente Denken innerhalb des Vektorraums des Modells statt, ohne dass sofort eine textliche Ausgabe erfolgt. Dieser Modus ermöglicht eine tiefere, nicht-textuelle Exploration und Reflektion.
Die Entscheidung, wann zwischen diesen Modi gewechselt wird, trifft SwiReasoning, indem es die Unsicherheit des Modells misst. Dies geschieht anhand der Entropie der Token-Wahrscheinlichkeiten: Eine niedrige Entropie signalisiert dem Modell hohe Sicherheit in seiner aktuellen Denkrichtung, während eine hohe Entropie auf Unsicherheit und die Notwendigkeit einer tieferen Analyse hinweist. Wenn die Unsicherheit abnimmt, wechselt das Framework in den expliziten Modus, um die Gedankenkette zu festigen. Steigt die Unsicherheit, kehrt es in den latenten Modus zurück, um alternative Lösungsansätze zu prüfen.
Um ein schnelles und ineffizientes Hin- und Herwechseln zwischen den Modi zu verhindern, implementiert SwiReasoning asymmetrische Verweilzeiten. Der Wechsel in den expliziten Modus erfolgt sofort, während die Rückkehr in den latenten Modus eine Mindestanzahl von Schritten im expliziten Modus erfordert. Zusätzlich begrenzt das Framework die Anzahl der erlaubten Moduswechsel, um zu verhindern, dass Modelle in unproduktiven Gedankenschleifen verharren – ein Phänomen, das als "Overthinking" bekannt ist. Bei Erreichen der Hälfte des Limits wird das Modell aufgefordert, seine Argumentation abzuschließen. Wird das Maximum überschritten, erzwingt das System eine sofortige Antwort, um Token-Verschwendung zu vermeiden.
Die Wirksamkeit von SwiReasoning wurde an drei kleineren LLMs (Qwen3-8B, Qwen3-1.7B und Deepseek R1 mit acht Milliarden Parametern) getestet. Diese Modelle wurden auf fünf Benchmarks mit mathematischen und naturwissenschaftlichen Fragen geprüft, die von elementaren bis zu universitären Aufgaben reichten.
Die Ergebnisse zeigen, dass SwiReasoning die durchschnittliche Genauigkeit über die drei Modelle hinweg um 2,17 Prozentpunkte steigern konnte. Ohne Token-Limits verbesserte sich die Genauigkeit bei mathematischen Aufgaben um bis zu 2,8 Prozent und bei naturwissenschaftlichen Aufgaben um 2 Prozent, wobei die größten Zuwächse bei den schwierigsten Problemen zu verzeichnen waren. Dies deutet darauf hin, dass der adaptive Wechsel zwischen den Denkmodi besonders bei komplexen Problemen mit langen Argumentationsketten effektiv ist.
Ein weiterer wesentlicher Vorteil von SwiReasoning ist die Steigerung der Token-Effizienz, insbesondere unter strengen Token-Beschränkungen. In diesen Tests verbesserte das Framework die Genauigkeit pro verbrauchtem Token um 56 % bis 79 % und in einigen Fällen sogar um das 6,8-fache im Vergleich zum Standard-Chain-of-Thought-Ansatz. Eine höhere Token-Effizienz ermöglicht es Modellen, bessere Ergebnisse mit weniger Rechenleistung zu erzielen, was für den praktischen Einsatz von LLMs von großer Bedeutung ist.
In Experimenten mit mehreren Versuchen erreichte SwiReasoning die maximale Genauigkeit oft mit deutlich weniger Anläufen. Beispielsweise wurde in einem Fall die richtige Antwort in nur 13 Versuchen gefunden, verglichen mit 46 Versuchen bei herkömmlichen Methoden, was einer Reduzierung der Versuche um 72 Prozent entspricht.
Ein bemerkenswerter Aspekt von SwiReasoning ist, dass es kein zusätzliches Training erfordert. Es kann als Ersatz für Standard-Generierungsfunktionen in bestehende Modelle integriert werden, ohne deren Architektur oder Parameter zu verändern. Die Implementierung ist auf GitHub verfügbar und kann in Kombination mit anderen Effizienzmethoden wie Speicheroptimierung oder schnellerer Dekodierung eingesetzt werden.
Die Fähigkeit von LLMs, ihre Denkweisen dynamisch anzupassen, könnte weitreichende Auswirkungen auf die Entwicklung und den Einsatz von KI-Systemen haben. Durch die intelligente Nutzung von explizitem und latentem Denken können Modelle nicht nur präziser, sondern auch ressourcenschonender arbeiten. Dies ist besonders relevant für Anwendungen in ressourcenbeschränkten Umgebungen oder dort, wo schnelle Reaktionszeiten entscheidend sind. SwiReasoning stellt einen Schritt dar, der die Effizienz und Zuverlässigkeit von LLMs in komplexen Anwendungsszenarien verbessert, ohne den Trainingsaufwand zu erhöhen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen