Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Entwicklung von großen Sprachmodellen (Large Language Models, LLMs) hat die Interaktion zwischen Mensch und Maschine maßgeblich verändert. Diese Modelle sind in der Lage, menschenähnliche Antworten zu generieren und komplexe Gespräche zu führen. Dennoch stoßen sie an ihre Grenzen, insbesondere wenn es um die Berücksichtigung spezifischer Nutzerprofile oder die Integration präzisen Fachwissens geht. In realen Anwendungsszenarien ist es oft unpraktisch, den Nutzern die Aufgabe zu überlassen, Fehler zu erkennen und Korrekturen anzufordern. Eine vielversprechende Lösung für diese Herausforderung ist die Verfeinerung der Antworten, bevor sie dem Nutzer präsentiert werden. Aktuelle Forschung konzentriert sich hierbei auf Multi-Agenten-Frameworks, die die Qualität von Konversationssystemen signifikant verbessern können.
LLMs generieren zwar kohärente und kontextuell relevante Antworten, liefern jedoch nicht immer auf Anhieb zufriedenstellende Ergebnisse. Dies zeigt sich besonders in mehrstufigen Dialogen, wo Modelle nicht nur die aktuelle Anfrage des Nutzers interpretieren, sondern auch den gesamten Gesprächsverlauf, Abhängigkeiten, Mehrdeutigkeiten und Koreferenzen berücksichtigen müssen. Problematisch wird es, wenn Personalisierung oder faktische Genauigkeit gefragt sind. Nutzer müssen oft manuelle Korrekturen vornehmen, was den Gesprächsfluss stört und die Nutzererfahrung mindert. Daher besteht ein Bedarf an proaktiven Verfeinerungsmechanismen, die Ungenauigkeiten ohne explizite Nutzeraufforderung beheben.
Bisherige Ansätze zur Verfeinerung konzentrierten sich oft auf einzelne LLMs. Methoden wie "Self-Refine" nutzen einen einzelnen Agenten, der Feedback zu verschiedenen Aspekten generiert und seine Ausgaben iterativ verbessert. Dieser Ansatz kann jedoch suboptimal sein, da ein einzelner Agent zu selbstsicher in seinen ursprünglichen Ausgaben werden und zu Verzerrungen führen kann. Dies kann sich in mehrstufigen Konversationen verstärken, wo Fehler in früheren Schritten die nachfolgenden beeinflussen.
Ein vielversprechenderer Ansatz ist die Integration mehrerer Agenten, die jeweils eine spezifische Perspektive einnehmen. Dieser "Multi-Agenten-Framework" nutzt die Fähigkeit von LLMs, komplexe Aufgaben in einfachere Unteraufgaben zu zerlegen und kollaborative Problemlösungen zu ermöglichen. Es erlaubt zudem die Integration einer breiteren Palette von Tools und Wissensquellen, wodurch jeder Agent spezifisch auf die Anforderungen einer Aufgabe zugeschnitten werden kann.
Ein kürzlich vorgestelltes Framework, genannt MARA (Multi-Agent Refinement with Adaptive agent selection), setzt genau hier an. MARA adressiert die Verfeinerung von Antworten in Konversationssystemen durch einen Multi-Agenten-Ansatz. Dabei werden drei Schlüssel-Aspekte der Konversationsqualität in den Fokus gerückt:
Jeder dieser Aspekte wird von einem spezialisierten Agenten überprüft und verfeinert. Das Feedback dieser Agenten wird dann zusammengeführt, um die Gesamtqualität der Antwort zu verbessern.
Ein zentrales Element von MARA ist seine dynamische Kommunikationsstrategie. Anstatt einer festen Abfolge von Agenten zu folgen, wählt und koordiniert MARA adaptiv die relevantesten Agenten basierend auf den spezifischen Anforderungen jeder Anfrage. Dies wird durch einen "Planer-Agenten" ermöglicht, der eine Abfolge der benötigten Verfeinerungs-Agenten generiert und Begründungen für jede Entscheidung liefert. Die Verfeinerungs-Agenten verbessern die Antwort dann sequenziell, wobei sie die vom Planer-Agenten festgelegte Reihenfolge und Begründung berücksichtigen.
Alle Agenten in MARA basieren auf unüberwachten LLMs, die jeweils mit einem Prompt für eine spezifische Rolle instanziiert werden. Dieser Ansatz ermöglicht es, die Schwächen einzelner LLMs zu überwinden, indem spezialisierte Agenten gezielt eingesetzt werden, um die Qualität der Konversation zu optimieren.
Die Wirksamkeit von MARA wurde auf anspruchsvollen Konversationsdatensätzen validiert, die die Integration von Nutzerprofilen, spezifisches Faktenwissen oder beides erfordern. Die Ergebnisse zeigen, dass MARA relevante Baselines signifikant übertrifft, insbesondere bei Aufgaben, die Wissen oder die Persona des Nutzers betreffen. Dies unterstreicht den Nutzen der Verfeinerung entlang der drei Dimensionen Personalisierung, Faktentreue und Kohärenz.
Die Analysen von MARA verdeutlichen die Bedeutung der dynamischen Auswahl geeigneter Verfeinerungsstrategien, die auf die spezifischen Bedürfnisse jeder Anfrage in verschiedenen Konversationskontexten zugeschnitten sind. Der Planer-Agent spielt hierbei eine entscheidende Rolle, indem er die Verteilung der benötigten Agenten dynamisch anpasst. Beispielsweise wird der Personalisierungs-Agent überwiegend in Datensätzen eingesetzt, die Nutzerpräferenzen berücksichtigen müssen, während der Faktencheck-Agent häufiger in wissensbasierten Datensätzen zum Einsatz kommt.
Die Leistung eines zufällig zugewiesenen Agenten-Sequenz ist geringer als die des Planer-gesteuerten Ansatzes, was die Effektivität des vorgeschlagenen Planers bei der Bestimmung einer optimalen Verfeinerungssequenz belegt. Selbst mit zufällig zugewiesenen Agenten bleibt die Leistung jedoch höher als bei der Baseline ohne Verfeinerung, was die Wirksamkeit der drei Verfeinerungs-Agenten demonstriert.
Um die Zuverlässigkeit der automatischen Bewertung zu validieren, wurden zusätzlich menschliche Evaluationen durchgeführt. Diese bestätigten, dass die von MARA generierten Antworten denen der Baseline-Modelle durchweg vorgezogen wurden. Die Korrelation zwischen automatischer und menschlicher Bewertung war besonders hoch für Kohärenz und Faktentreue, sowie für die Einbindung des Nutzers (Engagingness). Dies deutet darauf hin, dass die automatischen Metriken diese Aspekte zuverlässig erfassen. Bei der Natürlichkeit der Sprache gab es jedoch eine geringere Korrelation, was auf eine mögliche Diskrepanz zwischen automatischer und menschlicher Wahrnehmung hindeutet.
Die Ergebnisse von MARA haben weitreichende Implikationen für die Entwicklung fortgeschrittener Konversations-KI-Systeme. Die Fähigkeit, Antworten adaptiv und präzise zu verfeinern, kann die Nutzererfahrung erheblich verbessern und die Anwendbarkeit von LLMs in komplexen und kritischen Domänen erweitern. Die modulare Struktur des Multi-Agenten-Frameworks ermöglicht zudem eine flexible Anpassung und Erweiterung, beispielsweise durch die Integration weiterer spezialisierungsfähiger Agenten oder externer Tools.
Zukünftige Forschungsrichtungen könnten die weitere Optimierung des Planer-Agenten umfassen, um die Leistungslücke zu einem idealen Planer zu schließen, beispielsweise durch den Einsatz von überwachtem Lernen mit gelabelten Datensätzen. Auch die Skalierbarkeit und Ressourceneffizienz des Multi-Agenten-Frameworks bieten Potenzial für weitere Verbesserungen, etwa durch die Nutzung effizienterer Agentenmodelle oder die Integration von Retrieval-Augmented Generation (RAG)-Systemen zur weiteren Steigerung der Leistung.
Es ist zudem wichtig, ethische Aspekte zu berücksichtigen. Die Entwicklung menschenzentrierter Anwendungen erfordert die Sicherstellung, dass generierte Inhalte nicht beleidigend oder schädlich sind. Die Integration eines Überwachungsagenten, der sowohl Nutzereingaben als auch generierte Inhalte auf schädliches Material prüft, wäre ein wertvoller Schritt zur Verbesserung der Robustheit und ethischen Ausrichtung solcher Systeme in realen Anwendungen.
Das Multi-Agenten-Framework MARA stellt einen wichtigen Schritt dar, um die Grenzen von großen Sprachmodellen in Konversationssystemen zu überwinden und die Entwicklung von intelligenteren, zuverlässigeren und benutzerfreundlicheren KI-Assistenten voranzutreiben.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen