Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
In einer Ära exponentiell wachsender Informationsmengen stehen Unternehmen vor der immensen Herausforderung, unstrukturierte Daten in kohärente, umsetzbare Erkenntnisse umzuwandeln. Autonome Agenten versprechen hierbei große Fortschritte, stoßen jedoch oft an Grenzen, wenn es um domänenspezifische Nuancen, die Abstimmung von Absichten und die Unternehmensintegration geht. Eine aktuelle Entwicklung, die in diesem Kontext besondere Beachtung verdient, ist das Konzept der „Steerable Multi-Agent Deep Research for Enterprise Analytics“.
Salesforce AI Research hat mit der „Enterprise Deep Research“ (EDR)-Plattform ein Multi-Agenten-System vorgestellt, das speziell darauf ausgelegt ist, diese Herausforderungen zu meistern. EDR ist ein Framework, das eine automatisierte, steuerbare Tiefenrecherche für Unternehmensanalysen ermöglicht. Es integriert mehrere spezialisierte Agenten, die zusammenarbeiten, um komplexe Forschungsaufgaben zu bewältigen und fundierte Einblicke zu generieren.
Das EDR-System basiert auf fünf zentralen Komponenten, die eine umfassende und adaptive Recherche ermöglichen:
Diese Komponenten ermöglichen die automatisierte Erstellung von Berichten, die Verarbeitung von Echtzeit-Datenströmen und eine nahtlose Bereitstellung innerhalb der Unternehmensumgebung. Die Validierung auf internen Datensätzen sowie die überlegene Leistung auf offenen Benchmarks wie DeepResearch Bench und DeepConsult, ohne menschliche Steuerung, unterstreichen das Potenzial von EDR.
Die Herausforderung bei der Implementierung solcher Systeme in Unternehmen besteht darin, die Autonomie der Agenten mit der Notwendigkeit von Observability, Reproduzierbarkeit und Kostenkontrolle in Einklang zu bringen. Hier setzt der Ansatz von ZenML an, der einen produktionsreifen Workflow für "Steerable Deep Research" entwickelt hat. Dieser Ansatz, der auf dem EDR-Framework aufbaut, transformiert das Konzept der Deep Research in eine strukturierte, nachvollziehbare und steuerbare Lösung.
Traditionelle autonome Agenten-Workflows weisen oft folgende Limitationen auf:
Diese Punkte stellen erhebliche Hindernisse für den Einsatz in Unternehmensumgebungen dar, die Vorhersagbarkeit, Nachvollziehbarkeit und Kostenkontrolle erfordern.
ZenML hat sich zum Ziel gesetzt, diese Lücke zu schließen, indem es einen intelligenten Workflow entwickelt, der menschliche Kontrolle bewahrt und gleichzeitig die Recherchekapazitäten erweitert. Der ZenML Deep Research Pipeline führt eine strukturierte, nachvollziehbare Recherche durch. Er zerlegt komplexe Anfragen in Unterfragen, durchsucht parallele Quellen, synthetisiert Erkenntnisse aus verschiedenen Perspektiven und nutzt Anthropic's Model Context Protocol (MCP) für eine verbesserte Tool-Nutzung. All dies geschieht unter vollständiger Transparenz hinsichtlich Kosten, Entscheidungen und Zwischenergebnissen.
Die ZenML Deep Research Pipeline integriert mehrere Kernkomponenten in einem einheitlichen Workflow:
run.py) können Benutzer vordefinierte Modi (z.B. „rapid“, „balanced“, „deep“) auswählen, um die Anzahl der Unterfragen und Suchvorgänge zu steuern.SearchData und SynthesisData zu erzeugen.Der Workflow bietet volle Observability für alle LLM-Interaktionen durch die Integration von Langfuse. Langfuse verfolgt Prompts, Antworten, Token-Counts und geschätzte Kosten. Dies unterstützt das Debugging und die Optimierung von KI-Workflows. Alle LLM-Aufrufe über die LiteLLM-Bibliothek werden automatisch an einen Langfuse-Server protokolliert. Dies ermöglicht eine detaillierte Analyse der Kosten nach Modell, Prompt-Typ oder Pipelineschritt.
Das Projekt verwendet LiteLLM, eine OpenAI-kompatible LLM-Proxy-Bibliothek, um mit verschiedenen Sprachmodellen zu interagieren. LiteLLM bietet eine einheitliche API, die Anfragen an unterschiedliche Modellanbieter weiterleitet, ohne dass der Code, der das LLM aufruft, geändert werden muss. Dies ermöglicht eine hohe Flexibilität und den nahtlosen Wechsel zwischen LLM-Backends wie OpenAI, Anthropic oder Meta.
Die Integration des Model Context Protocol (MCP) von Anthropic in Verbindung mit der Exa API stellt einen zentralen Fortschritt dar. MCP ermöglicht es dem Claude-Modell, externe Tools oder APIs während der Generierung zu nutzen. Dies verleiht dem Claude-Modell die Fähigkeit, über die Exa API hochrangige Suchen durchzuführen. Exa ist eine Suchplattform mit spezialisierten Endpunkten, einschließlich semantischer Suche. Diese Integration erlaubt es dem KI-Agenten, dynamisch Werkzeugaufrufe an Exa zu senden, um gezielte Informationen zu beschaffen und in seine Antworten zu integrieren. Während frühere Schritte statische Webabfragen verwenden, ermöglicht der MCP-Schritt dem KI-Agenten, selbst zu entscheiden, wonach als Nächstes gesucht werden soll, was die Gründlichkeit der Recherche erhöht.
Die Pipeline nutzt die externen Suchdienste Tavily und Exa, um faktische Informationen zu sammeln. Tavily bietet erweiterte Suchfunktionen und liefert URLs, Snippets und den vollständigen Rohinhalt von Webseiten. Exa ist eine Such-API, die sowohl neuronale (vektorbasierte semantische Suche) als auch keyword-basierte Suchmodi unterstützt. Die Möglichkeit, beide Dienste zu kombinieren, ermöglicht eine breitere und tiefere Informationsbeschaffung. Die Rohdaten von Tavily/Exa werden in ein standardisiertes SearchResult Pydantic-Modell umgewandelt, wodurch nachfolgende Schritte unabhängig von der verwendeten Suchmaschine sind.
Um die Ergebnisse und Zwischenergebnisse leicht interpretierbar zu machen, implementiert das Projekt benutzerdefinierte Visualisierungen für verschiedene Artefakttypen. ZenML ermöglicht es, jedem Artefakt eine Visualisierung (HTML-Datei oder Bild) zuzuordnen. Dies umfasst:
Diese Visualisierungen verwandeln den Pipeline-Lauf in einen interaktiven Bericht über Ergebnisse und Prozesse, der eine klare Nachvollziehbarkeit der Recherche ermöglicht.
Die ZenML Deep Research Pipeline demonstriert die Orchestrierung komplexer Agenten-Workflows durch modulare Schritte. Die Architektur – von der Abfragezerlegung über parallele Suchen, iterative Verfeinerung, eine MCP-gesteuerte Agentensuche bis hin zur finalen Berichterstellung – zeigt, wie LLM-Reasoning mit Suchmaschinen und menschlicher Aufsicht kombiniert werden kann, um glaubwürdige und umfassende Ergebnisse zu erzielen. Jede Komponente, von der Langfuse-Observability über die LiteLLM-Integration für Modellflexibilität bis hin zu Exa und Tavily für die Datenerfassung, Anthropic MCP für die Werkzeugnutzung und benutzerdefinierten Visualisierungen für Transparenz, trägt dazu bei, das System produktionsreif und erweiterbar zu machen.
Dieses Projekt ist mehr als nur ein Skript, das eine API aufruft; es ist eine vollständige Pipeline, die einen LLM-gesteuerten Forschungsprozess in klare Phasen mit messbaren Ausgaben strukturiert. Die Nutzung von ZenML bietet Versionierung, Caching und Bereitstellungsoptionen und macht es somit für reale Anwendungen geeignet. Ob als KI-Forschungsassistent oder als Vorlage für ähnliche LLM-Workflows verwendet, das Design des Workflows demonstriert eine effektive Orchestrierung von LLMs, Suchwerkzeugen und menschlichem Feedback, um tiefe, erklärbare Forschungsergebnisse zu erzielen.
Die größte Entwicklung liegt jedoch in der vertikalen Anpassung. Während die aktuelle Implementierung als allgemeine Forschungs-Pipeline dient, entsteht der eigentliche Unternehmenswert, wenn sie für spezifische Domänen adaptiert wird. Ein Finanzforschungsagent benötigt beispielsweise spezifische Prompts, spezialisierte Datenquellen wie SEC-Einreichungen und domänenspezifische Qualitätsmetriken. Eine medizinische Forschungspipeline erfordert PubMed MCP oder RAG-Integration, klinische Studiendatenbanken und Bewertungsrahmen, die medizinische Evidenzhierarchien verstehen. Jede Domäne erfordert maßgeschneiderte Bewertungsansätze, die widerspiegeln, was in diesem spezifischen Kontext als gute Forschung gilt.
Zukünftige Anwendungen werden die kontrollierte Autonomie mit tieferer Domänenexpertise verbinden. Die menschlichen Genehmigungspunkte der Pipeline könnten sich zu ausgeklügelten Qualitäts-Gates entwickeln, bei denen Domänenexperten die Forschungsrichtung basierend auf neuen Erkenntnissen steuern können. Die MCP-Integration deutet auf eine Zukunft hin, in der mehrere spezialisierte Agenten innerhalb strukturierter Workflows zusammenarbeiten – nicht chaotische Multi-Agenten-Systeme, sondern orchestrierte Intelligenz, bei der jede Komponente klare Verantwortlichkeiten und beobachtbares Verhalten aufweist. Dieser Ansatz bietet einen Weg zu wirklich nützlichen KI-Forschungsassistenten, die menschliche Expertise erweitern, anstatt sie vollständig zu ersetzen.
Möchten Sie mehr über die Implementierung dieser Konzepte in Ihren eigenen Projekten erfahren? Der vollständige ZenML Deep Research Pipeline ist auf GitHub verfügbar und bietet einen hervorragenden Ausgangspunkt, um zu verstehen, wie beobachtbare, produktionsreife Agentensysteme aufgebaut werden können.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen