Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Große Sprachmodelle (LLMs) haben bemerkenswerte Fähigkeiten im Umgang mit komplexen Aufgaben bewiesen, insbesondere im Bereich des Schlussfolgerns. Die Chain-of-Thought (CoT) Prompting-Methode hat die Fähigkeiten von LLMs durch explizite Darstellung von Zwischenschritten im Denkprozess deutlich verbessert. Allerdings bringt CoT auch Nachteile mit sich, wie langsamere Inferenzgeschwindigkeiten und höhere Rechenkosten. Daher wurde die Forschung auf implizites CoT gelenkt, welches die explizite Generierung von Zwischenschritten umgeht und auf die internen Verarbeitungsmechanismen des Modells setzt.
Trotz des Potenzials von implizitem CoT bleibt eine Leistungslücke zu expliziten CoT-Methoden bestehen. Die Frage, ob implizites CoT tatsächlich gleichwertig mit explizitem CoT ist, steht im Raum. Um diese Frage zu beantworten, wurden Experimente durchgeführt, die die Informationen der Zwischenschritte aus den verborgenen Zuständen des Modells während des impliziten CoT-Prozesses untersuchen.
Die Ergebnisse zeigen überraschenderweise, dass LLMs während des impliziten Schlussfolgerns kaum Zwischenschritte "denken". Dies deutet darauf hin, dass sie sich eher auf Erfahrung als auf striktes schrittweises Denken verlassen. Die impliziten Schlussfolgerungsfähigkeiten von LLMs erweisen sich zudem als anfällig und instabil, was die Notwendigkeit von explizitem CoT für komplexe Aufgaben unterstreicht.
Zur Untersuchung des impliziten Schlussfolgerns wurde das Open-Source-Modell Qwen2.5-72B-Instruct verwendet. Einfache, mehrschrittige arithmetische Aufgaben, die durch CoT leicht lösbar sind, wurden dem Modell präsentiert. Das Modell wurde angewiesen, direkt die Antwort zu liefern, ohne die Zwischenschritte auszugeben. Durch die Analyse der verborgenen Zustände des letzten Tokens der Problemstellung über verschiedene Schichten hinweg sollte ermittelt werden, ob das Modell die Zwischenergebnisse im impliziten Denkprozess tatsächlich berechnet.
Konkret wurden 2000 verschiedene Stichproben von Rechenaufgaben mit einer kontrollierten Anzahl von Schritten generiert. Die Zwischenergebnisse wurden aufgezeichnet. Ein lineares Klassifizierungsverfahren wurde verwendet, um die Zwischenergebnisse aus den verborgenen Zuständen vorherzusagen. Die Ergebnisse jedes Schrittes dienten als Label für das Training individueller Klassifikatoren.
Die Ergebnisse der Experimente sind unerwartet: Das Modell berechnet die Zwischenergebnisse im impliziten Schlussfolgern kaum, obwohl es oft die richtige Antwort auf mehrschrittige Probleme liefert. Darüber hinaus zeigt sich, dass implizites Schlussfolgern instabiler und anfälliger ist, wenn das Problem geringfügig modifiziert wird, ohne die Schwierigkeit zu erhöhen. Dies deutet darauf hin, dass das Modell beim impliziten Schlussfolgern möglicherweise nicht streng einem schrittweisen Prozess folgt, sondern sich auf eine intuitive und direkte Denkweise stützt. Diese Denkweise ist zwar schneller, aber weniger zuverlässig.
Zusammenfassend lässt sich sagen, dass LLMs, obwohl sie oft direkt die richtige Antwort auf ein mehrschrittiges Problem geben können, insbesondere bei größerer Modellgröße, nicht wirklich schrittweise denken (zumindest bei arithmetischen Problemen), es sei denn, sie verwenden explizites CoT. Implizites Schlussfolgern könnte eine Illusion sein, die durch das leistungsstarke Gedächtnis und die umfangreiche Erfahrung von LLMs entsteht und sich grundlegend vom herkömmlichen Schlussfolgern unterscheidet. Diese Studie liefert wichtige Einblicke in die Mechanismen des impliziten Schlussfolgerns und unterstreicht die anhaltende Notwendigkeit expliziter CoT-Methoden zur Verbesserung der Fähigkeiten von LLMs bei komplexen Aufgaben. Für die Entwicklung von KI-Lösungen, wie sie bei Mindverse angeboten werden – von Chatbots und Voicebots bis hin zu KI-Suchmaschinen und Wissenssystemen – ist das Verständnis dieser Mechanismen essentiell, um die Leistungsfähigkeit und Zuverlässigkeit der Systeme zu gewährleisten.
Bibliographie: https://arxiv.org/html/2411.15862v1 https://paperreading.club/page?id=268022 https://arxiv.org/abs/2205.11916 https://aclanthology.org/2024.acl-srw.45.pdf https://dl.acm.org/doi/10.5555/3600270.3601883 https://openreview.net/pdf?id=9cumTvvlHG https://aclanthology.org/2024.findings-emnlp.882.pdf https://www.digitalocean.com/community/tutorials/understanding-reasoning-in-llms https://www.researchgate.net/publication/372917788_On_Second_Thought_Let's_Not_Think_Step_by_Step_Bias_and_Toxicity_in_Zero-Shot_Reasoning https://openreview.net/forum?id=hlqIu07icsLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen