KI für Ihr Unternehmen – Jetzt Demo buchen

Fehleranalyse zur Optimierung des Trainings von KI-Agenten

Kategorien:
No items found.
Freigegeben:
April 21, 2025

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Fehlschläge als Lehrmeister: Wie Expertenfehler das Training von KI-Agenten verbessern

    Große Sprachmodelle (LLMs) haben ihr Potenzial als Agenten unter Beweis gestellt, insbesondere bei Aufgaben, die mehrstufige Denkprozesse und Interaktionen erfordern. Ein etablierter Ansatz zum Finetuning von LLMs als Agenten ist das Rejection Sampling Fine-Tuning (RFT). Dabei imitiert das LLM zunächst erfolgreiche, von Experten vorgegebene Handlungsabläufe (Trajektorien) und verbessert anschließend seine Fähigkeiten durch iteratives Finetuning auf Basis selbstgenerierter, erfolgreicher Trajektorien. Da Experten (z.B. GPT-4) jedoch hauptsächlich bei einfacheren Teilaufgaben erfolgreich sind und RFT inhärent einfachere Szenarien bevorzugt, bleiben viele komplexe Teilaufgaben ungelöst und stellen eine dauerhafte Herausforderung dar (Out-of-Distribution, OOD).

    Eine genauere Untersuchung dieser komplexen Teilaufgaben zeigt, dass fehlgeschlagene Experten-Trajektorien oft wertvolle Hinweise liefern können, wie z.B. Pläne und Schlüsselaktionen. Diese Informationen können die Effizienz der Exploration durch den Agenten und den Erwerb kritischer Fähigkeiten erheblich verbessern.

    Auf Basis dieser Beobachtung wurde das Verfahren "Exploring Expert Failures" (EEF) entwickelt. EEF identifiziert nützliche Aktionen aus fehlgeschlagenen Experten-Trajektorien und integriert diese in den Trainingsdatensatz. Potenziell schädliche Aktionen werden dabei sorgfältig ausgeschlossen, um eine Beeinträchtigung des Lernprozesses zu vermeiden. Durch die Nutzung der nützlichen Aktionen aus Expertenfehlern gelingt es EEF, bisher unlösbare Teilaufgaben zu bewältigen und die Leistung des Agenten-Tunings zu verbessern.

    Beeindruckende Ergebnisse und neue Standards

    Die Ergebnisse von EEF sind bemerkenswert. In der WebShop-Umgebung erreichte der Ansatz eine Erfolgsquote von 62%, übertraf damit RFT (53,6%) und GPT-4 (35,6%) und setzte einen neuen Standard. Nach unserem Kenntnisstand ist EEF die erste Methode, die einen Wert von über 0,81 in WebShop und über 81 in SciWorld erzielt hat.

    Diese Ergebnisse unterstreichen das Potenzial von EEF, die Entwicklung von leistungsfähigeren LLM-Agenten voranzutreiben. Durch die Integration von Informationen aus Fehlschlägen können Agenten komplexere Aufgaben bewältigen und ihre Fähigkeiten effizienter erweitern. Die sorgfältige Auswahl und Integration der relevanten Informationen aus den fehlgeschlagenen Trajektorien ist dabei entscheidend für den Erfolg des Verfahrens.

    Die Weiterentwicklung von Methoden wie EEF ist essentiell, um das volle Potenzial von LLMs als Agenten auszuschöpfen und deren Einsatz in komplexen Anwendungsfällen zu ermöglichen. Die Fähigkeit, aus Fehlern zu lernen, ist ein zentraler Aspekt menschlicher Intelligenz und die Übertragung dieses Prinzips auf KI-Systeme eröffnet vielversprechende Perspektiven für die Zukunft der künstlichen Intelligenz.

    Bibliografie: Lan, L.-C., Bai, A., Cheng, M., Wang, R., Hsieh, C.-J., & Zhou, T. (2025). Exploring Expert Failures Improves LLM Agent Tuning. arXiv preprint arXiv:2504.13145. Huang, W., et al. (2024). Trial and Error Exploration-Based Trajectory Optimization of LLM Agents. ResearchGate. Li, Z., et al. (2024). Improving Large Language Model Agents with Tool Usage via Self-Supervised Pretraining and Instruction Tuning. Findings of the Association for Computational Linguistics: EMNLP 2024. Wu, S., et al. (2024). On the Role of Negations in Large Language Model Prompting: An Empirical Study of Negation-Aware Prompting Strategies. Findings of the Association for Computational Linguistics: EMNLP 2024. Sachin, T. (2024). Atlas: Approach to Finetune LLM Agents by Identifying Critical Steps in Expert Trajectories. Medium. "LLM Fine-tuning: Methods, Techniques, and Best Practices." SuperAnnotate, 2024.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen