KI für Ihr Unternehmen – Jetzt Demo buchen

Neue Möglichkeiten der Unternehmensanalyse durch Multi-Agenten-Systeme in der Tiefenrecherche

Kategorien:
No items found.
Freigegeben:
October 31, 2025

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Die „Enterprise Deep Research“ (EDR)-Plattform von Salesforce AI Research stellt ein Multi-Agenten-System für die automatisierte, steuerbare Tiefenrecherche in Unternehmen dar.
    • EDR transformiert unstrukturierte Daten in verwertbare Erkenntnisse und integriert dabei fünf Schlüsselkomponenten, darunter einen Master Planning Agent und spezialisierte Suchagenten.
    • Das System wurde auf internen Datensätzen validiert und übertrifft laut den Entwicklern auf Open-Ended-Benchmarks die Leistung anderer führender Agentensysteme ohne menschliche Steuerung.
    • Die Architektur ermöglicht automatisierte Berichterstellung, Echtzeit-Streaming und eine nahtlose Unternehmensintegration, wobei Transparenz und Kontrolle gewahrt bleiben.
    • ZenML hat einen produktionsreifen Workflow auf Basis von EDR entwickelt, der Observability, Reproduzierbarkeit und Kostenkontrolle durch modulare Schritte und Integrationen wie Langfuse und LiteLLM sicherstellt.

    Revolutionäre Tiefenrecherche: Multi-Agenten-Systeme für die Unternehmensanalyse

    In einer Ära exponentiell wachsender Informationsmengen stehen Unternehmen vor der immensen Herausforderung, unstrukturierte Daten in kohärente, umsetzbare Erkenntnisse umzuwandeln. Autonome Agenten versprechen hierbei große Fortschritte, stoßen jedoch oft an Grenzen, wenn es um domänenspezifische Nuancen, die Abstimmung von Absichten und die Unternehmensintegration geht. Eine aktuelle Entwicklung, die in diesem Kontext besondere Beachtung verdient, ist das Konzept der „Steerable Multi-Agent Deep Research for Enterprise Analytics“.

    Die Enterprise Deep Research (EDR)-Plattform

    Salesforce AI Research hat mit der „Enterprise Deep Research“ (EDR)-Plattform ein Multi-Agenten-System vorgestellt, das speziell darauf ausgelegt ist, diese Herausforderungen zu meistern. EDR ist ein Framework, das eine automatisierte, steuerbare Tiefenrecherche für Unternehmensanalysen ermöglicht. Es integriert mehrere spezialisierte Agenten, die zusammenarbeiten, um komplexe Forschungsaufgaben zu bewältigen und fundierte Einblicke zu generieren.

    Fünf Schlüsselkomponenten des EDR-Systems

    Das EDR-System basiert auf fünf zentralen Komponenten, die eine umfassende und adaptive Recherche ermöglichen:

    • Master Planning Agent: Dieser Agent ist für die adaptive Zerlegung komplexer Suchanfragen zuständig. Er zerlegt eine übergreifende Forschungsfrage in kleinere, handhabbare Unterfragen, die dann von spezialisierten Agenten bearbeitet werden können.
    • Spezialisierte Suchagenten: EDR nutzt vier spezialisierte Suchagenten, um Informationen aus verschiedenen Quellen zu sammeln:
      • Ein allgemeiner Suchagent für breite Web-Recherchen.
      • Ein akademischer Suchagent für wissenschaftliche Publikationen und Studien.
      • Ein GitHub-Suchagent für Code-Repositories und technische Diskussionen.
      • Ein LinkedIn-Suchagent für Brancheninformationen und Expertenprofile.
    • Erweiterbares Tool-Ökosystem: Das System verfügt über ein auf dem Model Context Protocol (MCP) basierendes Ökosystem. Dieses unterstützt vielfältige Funktionen, darunter die Umwandlung von natürlicher Sprache in SQL-Abfragen (NL2SQL), die Analyse von Dateien und die Integration in bestehende Unternehmens-Workflows.
    • Visualisierungs-Agent: Dieser Agent ist dafür verantwortlich, die gesammelten Daten und generierten Erkenntnisse in einer verständlichen und datengesteuerten Weise zu visualisieren.
    • Reflexionsmechanismus: Ein entscheidendes Element ist der Reflexionsmechanismus, der Wissenslücken erkennt und die Forschungsrichtung bei Bedarf anpasst. Optional kann hier eine menschliche Interaktion („human-in-the-loop“) erfolgen, um die Steuerung zu optimieren.

    Diese Komponenten ermöglichen die automatisierte Erstellung von Berichten, die Verarbeitung von Echtzeit-Datenströmen und eine nahtlose Bereitstellung innerhalb der Unternehmensumgebung. Die Validierung auf internen Datensätzen sowie die überlegene Leistung auf offenen Benchmarks wie DeepResearch Bench und DeepConsult, ohne menschliche Steuerung, unterstreichen das Potenzial von EDR.

    Produktionsreife Agenten-Workflows mit kontrollierter Autonomie

    Die Herausforderung bei der Implementierung solcher Systeme in Unternehmen besteht darin, die Autonomie der Agenten mit der Notwendigkeit von Observability, Reproduzierbarkeit und Kostenkontrolle in Einklang zu bringen. Hier setzt der Ansatz von ZenML an, der einen produktionsreifen Workflow für "Steerable Deep Research" entwickelt hat. Dieser Ansatz, der auf dem EDR-Framework aufbaut, transformiert das Konzept der Deep Research in eine strukturierte, nachvollziehbare und steuerbare Lösung.

    Herausforderungen autonomer Agenten-Workflows in Unternehmen

    Traditionelle autonome Agenten-Workflows weisen oft folgende Limitationen auf:

    • Mangelnde Observability: Es ist schwierig nachzuvollziehen, warum ein System bestimmte Entscheidungen getroffen hat oder wo Fehler aufgetreten sind.
    • Begrenzte Steuerbarkeit: Nach dem Start des Agenten gibt es kaum Möglichkeiten, dessen Richtung oder Tiefe der Recherche zu beeinflussen.
    • Geringe Reproduzierbarkeit: Dieselbe Anfrage kann zu unterschiedlichen Ergebnissen und Recherchepfaden führen.
    • Unvorhersehbare Kosten: Die tatsächlichen Rechen- oder API-Kosten sind oft erst nach Abschluss der Aufgabe ersichtlich.
    • Schwierigkeiten beim Debugging: Fehler in autonomen Entscheidungsketten sind kaum nachzuvollziehen.

    Diese Punkte stellen erhebliche Hindernisse für den Einsatz in Unternehmensumgebungen dar, die Vorhersagbarkeit, Nachvollziehbarkeit und Kostenkontrolle erfordern.

    ZenMLs Ansatz: Intelligente Workflows statt uneingeschränkter Autonomie

    ZenML hat sich zum Ziel gesetzt, diese Lücke zu schließen, indem es einen intelligenten Workflow entwickelt, der menschliche Kontrolle bewahrt und gleichzeitig die Recherchekapazitäten erweitert. Der ZenML Deep Research Pipeline führt eine strukturierte, nachvollziehbare Recherche durch. Er zerlegt komplexe Anfragen in Unterfragen, durchsucht parallele Quellen, synthetisiert Erkenntnisse aus verschiedenen Perspektiven und nutzt Anthropic's Model Context Protocol (MCP) für eine verbesserte Tool-Nutzung. All dies geschieht unter vollständiger Transparenz hinsichtlich Kosten, Entscheidungen und Zwischenergebnissen.

    Technische Architektur und Workflow

    Die ZenML Deep Research Pipeline integriert mehrere Kernkomponenten in einem einheitlichen Workflow:

    • Einstiegspunkt und Konfiguration: Über einen CLI-Einstiegspunkt (run.py) können Benutzer vordefinierte Modi (z.B. „rapid“, „balanced“, „deep“) auswählen, um die Anzahl der Unterfragen und Suchvorgänge zu steuern.
    • Parallele Forschungs-Pipeline-Struktur: Die Pipeline nutzt eine Fan-Out/Fan-In-Architektur, um die Verarbeitung von Unterfragen zu parallelisieren.

    Schlüsselschritte im Workflow:

    1. Prompts initialisieren: Laden aller Prompt-Templates, die als versionierte Artefakte für Reproduzierbarkeit gespeichert werden.
    2. Abfragezerlegung: Ein Large Language Model (LLM) zerlegt die Hauptanfrage in fokussierte Unterfragen.
    3. Parallele Informationsbeschaffung: Für jede Unterfrage werden parallele Schritte ausgeführt, die Suchanfragen generieren, Web-Suchen durchführen und die Informationen synthetisieren.
    4. Ergebnisse zusammenführen: Die Ergebnisse der parallelen Schritte werden zusammengeführt, um eine kombinierte SearchData und SynthesisData zu erzeugen.
    5. Cross-Viewpoint-Analyse: Ein LLM analysiert die synthetisierten Antworten, um Unterschiede oder Gemeinsamkeiten aus verschiedenen Perspektiven zu identifizieren.
    6. Reflexionsgenerierung: Das LLM reflektiert über den aktuellen Stand, identifiziert Lücken und empfiehlt gegebenenfalls weitere Suchanfragen.
    7. Menschliche Genehmigung (optional): Eine optionale menschliche Eingabe kann erforderlich sein, um zusätzliche Suchanfragen zu genehmigen.
    8. Genehmigte Suchen ausführen: Genehmigte Folgeabfragen werden ausgeführt, um die Forschung zu vertiefen.
    9. MCP-gesteuerte Agentensuche: Ein fortschrittlicher Rechercheschritt nutzt Anthropic's Model Context Protocol (MCP) und die Exa API, um gezielte, toolgestützte Suchen durchzuführen.
    10. Erstellung des Abschlussberichts: Ein umfassender HTML-Bericht wird kompiliert, der alle gesammelten Daten, Analysen und Erkenntnisse strukturiert darstellt.
    11. Metadaten-Erfassung: Observability-Daten, wie LLM-Nutzung, Token-Counts und Kosten, werden gesammelt und analysiert.

    LLM-Observability mit Langfuse

    Der Workflow bietet volle Observability für alle LLM-Interaktionen durch die Integration von Langfuse. Langfuse verfolgt Prompts, Antworten, Token-Counts und geschätzte Kosten. Dies unterstützt das Debugging und die Optimierung von KI-Workflows. Alle LLM-Aufrufe über die LiteLLM-Bibliothek werden automatisch an einen Langfuse-Server protokolliert. Dies ermöglicht eine detaillierte Analyse der Kosten nach Modell, Prompt-Typ oder Pipelineschritt.

    LiteLLM: Ein leichter LLM-Proxy

    Das Projekt verwendet LiteLLM, eine OpenAI-kompatible LLM-Proxy-Bibliothek, um mit verschiedenen Sprachmodellen zu interagieren. LiteLLM bietet eine einheitliche API, die Anfragen an unterschiedliche Modellanbieter weiterleitet, ohne dass der Code, der das LLM aufruft, geändert werden muss. Dies ermöglicht eine hohe Flexibilität und den nahtlosen Wechsel zwischen LLM-Backends wie OpenAI, Anthropic oder Meta.

    MCP-Integration: Anthropic’s Model Context Protocol mit Exa

    Die Integration des Model Context Protocol (MCP) von Anthropic in Verbindung mit der Exa API stellt einen zentralen Fortschritt dar. MCP ermöglicht es dem Claude-Modell, externe Tools oder APIs während der Generierung zu nutzen. Dies verleiht dem Claude-Modell die Fähigkeit, über die Exa API hochrangige Suchen durchzuführen. Exa ist eine Suchplattform mit spezialisierten Endpunkten, einschließlich semantischer Suche. Diese Integration erlaubt es dem KI-Agenten, dynamisch Werkzeugaufrufe an Exa zu senden, um gezielte Informationen zu beschaffen und in seine Antworten zu integrieren. Während frühere Schritte statische Webabfragen verwenden, ermöglicht der MCP-Schritt dem KI-Agenten, selbst zu entscheiden, wonach als Nächstes gesucht werden soll, was die Gründlichkeit der Recherche erhöht.

    Web-Suche über Tavily und Exa

    Die Pipeline nutzt die externen Suchdienste Tavily und Exa, um faktische Informationen zu sammeln. Tavily bietet erweiterte Suchfunktionen und liefert URLs, Snippets und den vollständigen Rohinhalt von Webseiten. Exa ist eine Such-API, die sowohl neuronale (vektorbasierte semantische Suche) als auch keyword-basierte Suchmodi unterstützt. Die Möglichkeit, beide Dienste zu kombinieren, ermöglicht eine breitere und tiefere Informationsbeschaffung. Die Rohdaten von Tavily/Exa werden in ein standardisiertes SearchResult Pydantic-Modell umgewandelt, wodurch nachfolgende Schritte unabhängig von der verwendeten Suchmaschine sind.

    Benutzerdefinierte Visualisierungen

    Um die Ergebnisse und Zwischenergebnisse leicht interpretierbar zu machen, implementiert das Projekt benutzerdefinierte Visualisierungen für verschiedene Artefakttypen. ZenML ermöglicht es, jedem Artefakt eine Visualisierung (HTML-Datei oder Bild) zuzuordnen. Dies umfasst:

    • Query Context Visualisierung: Eine interaktive Mindmap-Ansicht der Hauptanfrage und ihrer Unterfragen.
    • Suchergebnis-Visualisierung: Ein HTML-Bericht mit einer Kostenübersicht und einer Liste der Ergebnisse pro Unterfrage.
    • Synthese- & Analyse-Visualisierung: Eine HTML-Seite, die die Antworten für jede Unterfrage, das Konfidenzniveau des Modells und Quellenangaben anzeigt.
    • Abschlussbericht: Ein umfassender HTML-Forschungsbericht, der alle Abschnitte strukturiert darstellt.
    • Tracing Metadata Visualisierung: Ein Kosten- und Nutzungsbericht, der detaillierte Metriken zur LLM-Nutzung und den Gesamtkosten liefert.

    Diese Visualisierungen verwandeln den Pipeline-Lauf in einen interaktiven Bericht über Ergebnisse und Prozesse, der eine klare Nachvollziehbarkeit der Recherche ermöglicht.

    Fazit und Ausblick

    Die ZenML Deep Research Pipeline demonstriert die Orchestrierung komplexer Agenten-Workflows durch modulare Schritte. Die Architektur – von der Abfragezerlegung über parallele Suchen, iterative Verfeinerung, eine MCP-gesteuerte Agentensuche bis hin zur finalen Berichterstellung – zeigt, wie LLM-Reasoning mit Suchmaschinen und menschlicher Aufsicht kombiniert werden kann, um glaubwürdige und umfassende Ergebnisse zu erzielen. Jede Komponente, von der Langfuse-Observability über die LiteLLM-Integration für Modellflexibilität bis hin zu Exa und Tavily für die Datenerfassung, Anthropic MCP für die Werkzeugnutzung und benutzerdefinierten Visualisierungen für Transparenz, trägt dazu bei, das System produktionsreif und erweiterbar zu machen.

    Dieses Projekt ist mehr als nur ein Skript, das eine API aufruft; es ist eine vollständige Pipeline, die einen LLM-gesteuerten Forschungsprozess in klare Phasen mit messbaren Ausgaben strukturiert. Die Nutzung von ZenML bietet Versionierung, Caching und Bereitstellungsoptionen und macht es somit für reale Anwendungen geeignet. Ob als KI-Forschungsassistent oder als Vorlage für ähnliche LLM-Workflows verwendet, das Design des Workflows demonstriert eine effektive Orchestrierung von LLMs, Suchwerkzeugen und menschlichem Feedback, um tiefe, erklärbare Forschungsergebnisse zu erzielen.

    Die größte Entwicklung liegt jedoch in der vertikalen Anpassung. Während die aktuelle Implementierung als allgemeine Forschungs-Pipeline dient, entsteht der eigentliche Unternehmenswert, wenn sie für spezifische Domänen adaptiert wird. Ein Finanzforschungsagent benötigt beispielsweise spezifische Prompts, spezialisierte Datenquellen wie SEC-Einreichungen und domänenspezifische Qualitätsmetriken. Eine medizinische Forschungspipeline erfordert PubMed MCP oder RAG-Integration, klinische Studiendatenbanken und Bewertungsrahmen, die medizinische Evidenzhierarchien verstehen. Jede Domäne erfordert maßgeschneiderte Bewertungsansätze, die widerspiegeln, was in diesem spezifischen Kontext als gute Forschung gilt.

    Zukünftige Anwendungen werden die kontrollierte Autonomie mit tieferer Domänenexpertise verbinden. Die menschlichen Genehmigungspunkte der Pipeline könnten sich zu ausgeklügelten Qualitäts-Gates entwickeln, bei denen Domänenexperten die Forschungsrichtung basierend auf neuen Erkenntnissen steuern können. Die MCP-Integration deutet auf eine Zukunft hin, in der mehrere spezialisierte Agenten innerhalb strukturierter Workflows zusammenarbeiten – nicht chaotische Multi-Agenten-Systeme, sondern orchestrierte Intelligenz, bei der jede Komponente klare Verantwortlichkeiten und beobachtbares Verhalten aufweist. Dieser Ansatz bietet einen Weg zu wirklich nützlichen KI-Forschungsassistenten, die menschliche Expertise erweitern, anstatt sie vollständig zu ersetzen.

    Möchten Sie mehr über die Implementierung dieser Konzepte in Ihren eigenen Projekten erfahren? Der vollständige ZenML Deep Research Pipeline ist auf GitHub verfügbar und bietet einen hervorragenden Ausgangspunkt, um zu verstehen, wie beobachtbare, produktionsreife Agentensysteme aufgebaut werden können.

    Bibliographie

    - Prabhakar, A., Ram, R., Chen, Z., Savarese, S., Wang, F., Xiong, C., Wang, H., & Yao, W. (2022). *Steerable Multi-Agent Deep Research for Enterprise Analytics*. arXiv. - ZenML Blog. (2025, June 17). *Steerable Deep Research: Building Production-Ready Agentic Workflows with Controlled Autonomy*. ZenML.io. - OpenAI. (2025, February 2). *Introducing deep research*. OpenAI.com. - Hugging Face. (2025, October 19). *Daily Papers*. Huggingface.co. - ChatPaper. (2025, October 21). *Explore and AI Chat with the Academic Papers*. Chatpaper.com. - Deep Learning Monitor. (2025, October 20). *Find new Arxiv papers, tweets and Reddit...*. Deeplearn.org.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen