KI für Ihr Unternehmen – Jetzt Demo buchen

Innovatives Framework für effizientes Wissens-Mining mit Sprachmodellen und Proxy-Agenten

Kategorien:
No items found.
Freigegeben:
October 15, 2025

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Große Sprachmodelle (LLMs) sind exzellent in der Interpretation komplexer Anweisungen für das Wissens-Mining, jedoch oft zu kostspielig und langsam für den Einsatz in großem Maßstab.
    • Traditionelle Extraktionspipelines sind effizient, aber unflexibel und schlecht generalisierbar.
    • Falconer ist ein neues Framework, das die agentische Denkweise von LLMs mit der Effizienz kleiner Proxy-Modelle kombiniert.
    • LLMs fungieren in Falconer als "Planer" und "Annotatoren", um Aufgaben zu zerlegen und Trainingsdaten für kleinere Modelle zu erzeugen.
    • Das Framework vereinheitlicht Klassifikations- und Extraktionsaufgaben in zwei atomare Operationen: `get_label` und `get_span`.
    • Experimente zeigen, dass Falconer die Genauigkeit von LLMs erreicht, während es die Inferenzkosten um bis zu 90 % senkt und das großskalige Wissens-Mining um mehr als das 20-fache beschleunigt.
    • Die Forschung unterstreicht das Potenzial von "Small Language Models" (SLMs) und spezialisierten Proxy-Modellen für effiziente und skalierbare KI-Anwendungen.

    Skalierbares Wissens-Mining: Die Synergie von großen Sprachmodellen und kleinen Proxy-Agenten

    Die Extraktion strukturierter Informationen aus riesigen Mengen unstrukturierter Texte, bekannt als Wissens-Mining, ist eine zentrale Herausforderung in der heutigen datengesteuerten Welt. Während große Sprachmodelle (LLMs) eine bemerkenswerte Fähigkeit zur Interpretation komplexer Benutzeranweisungen in diesem Bereich gezeigt haben, stoßen sie bei der Skalierung auf erhebliche Hürden. Ihre hohen Inferenzkosten und Latenzzeiten machen ihren umfassenden Einsatz für großvolumige Aufgaben oft unerschwinglich. Im Gegensatz dazu sind traditionelle Pipelines aus Klassifikatoren und Extraktoren zwar effizient, aber oft unflexibel, auf spezifische Aufgaben zugeschnitten und können nicht leicht auf neue Problemstellungen verallgemeinert werden.

    Eine aktuelle Forschungsarbeit mit dem Titel "A Tale of LLMs and Induced Small Proxies: Scalable Agents for Knowledge Mining" stellt mit Falconer ein innovatives kollaboratives Framework vor, das darauf abzielt, diese Limitationen zu überwinden. Falconer kombiniert die leistungsstarken Denkfähigkeiten von LLMs mit der Effizienz und Skalierbarkeit leichter Proxy-Modelle, um das Wissens-Mining zu revolutionieren.

    Falconer: Eine Architektur für effizientes Wissens-Mining

    Im Kern von Falconer steht eine intelligente Aufgabenteilung, die die Stärken beider Modelltypen optimal nutzt. LLMs übernehmen dabei zwei entscheidende Rollen:

    • Planer: Das LLM zerlegt komplexe Benutzeranweisungen in ausführbare Pipelines, die aus atomaren Operationen und expliziten Kontrollflüssen bestehen. Dies ermöglicht eine strukturierte und nachvollziehbare Herangehensweise an das Wissens-Mining.
    • Annotator (via Generator): Das LLM generiert hochwertige Überwachungsdaten, die anschließend zum Training kleiner, spezialisierter Proxy-Modelle verwendet werden. Dieser Prozess ermöglicht es, die fortgeschrittenen Fähigkeiten des LLM auf effizientere Modelle zu übertragen.

    Das Framework vereinheitlicht grundlegende Klassifikations- und Extraktionsaufgaben in zwei primitive, anweisungsfolgende Operationen:

    • get_label(texts: List[str], instruction: str) -> List[bool]: Führt Klassifikationen durch, um zu bestimmen, ob ein gegebener Text einer spezifischen Anweisung entspricht (z. B. "Ist dies eine positive Laptop-Bewertung?").
    • get_span(texts: List[str], instruction: str) -> List[List[str]]: Extrahiert relevante Textabschnitte (Entitäten oder Attribute) aus einem Text basierend auf einer Anweisung (z. B. "Extrahieren Sie Laptop-Preise.").

    Diese Primitive dienen als atomare Bausteine für den Aufbau komplexer Wissens-Mining-Pipelines. Beispielsweise könnte die Aufgabe "Alle Laptop-Preise aus positiven Amazon-Bewertungen extrahieren" durch eine Sequenz orchestriert werden: Zuerst wird get_label angewendet, um positive Bewertungen zu filtern, und anschließend get_span auf die gefilterten Texte, um die Preise zu extrahieren. Diese explizite Kodifizierung von Anweisungen in Aufgabenpipelines gewährleistet eine hohe Generalisierbarkeit über verschiedene Aufgabenformulierungen hinweg und erhöht die Transparenz.

    Cuckoo: Das Herzstück der Effizienz

    Das Ausführungsmodul von Falconer basiert auf einem leichten, anweisungsfolgenden Proxy-Modell, das als Cuckoo bezeichnet wird (eine Variante namens Super Rainbow Cuckoo, basierend auf früheren Arbeiten von Peng et al., 2025). Cuckoo wird unter dem "Next Tokens Extraction" (NTE)-Paradigma trainiert, das sowohl eine robuste Anweisungsbefolgung als auch eine feingranulare token-Ebene-Überwachung ermöglicht. Dies geschieht durch:

    • Pre-Training: Automatische Generierung von BIO-gelabelten Daten für wiederholte Spannen in großen Korpora (z. B. C4-Datensatz), um allgemeine Extraktionsfähigkeiten ohne manuelle Annotation zu ermöglichen.
    • Post-Training: Feinabstimmung auf diverse, hochwertige öffentliche Datensätze, wobei nur NTE-Labels beibehalten werden, die für Benutzeranweisungen relevant sind, um starke Anweisungsbefolgungsfähigkeiten zu vermitteln.

    Cuckoo vereint Klassifikation und Extraktion in einem einzigen Modell. Für die Klassifikation werden Aufgaben als Natural Language Inference (NLI)-Probleme reformuliert, wobei anweisungsbasierte Prompt-Templates verwendet werden, um zu bestimmen, ob ein Satz ein Kandidatenlabel impliziert. Dies erlaubt Cuckoo, Prompts wie "Ist dies eine positive Laptop-Bewertung?" oder "Extrahieren Sie den Preis" direkt zu interpretieren, wodurch traditionelle, schema-spezifische und fragile handgefertigte Pipelines ersetzt werden. Cuckoo bietet eine deutlich bessere Effizienz (bis zu 20-mal weniger FLOPs und 1000-mal weniger Speicher) im Vergleich zu GPT-ähnlichen Modellen, während es eine wettbewerbsfähige Genauigkeit beibehält.

    Generierung und Feinabstimmung der Proxy-Modelle

    Die Komponente Generator stellt sicher, dass das Proxy-Modell effektiv an spezifische Wissens-Mining-Aufgaben angepasst wird. Sie arbeitet in drei Stufen:

    • Korpus-Sampling: Ein kleiner Prozentsatz (z. B. 5 %) des Zielkorpus wird gesampelt, um die authentische Domänenverteilung beizubehalten.
    • LLM-Annotation: Ein leistungsstarkes LLM (z. B. GPT-4.1) annotiert diese Stichproben gemäß den kodifizierten Aufgabenbeschreibungen des Planers. Dieser Prozess reichert natürlich vorkommende Daten mit hochwertigen Labels an.
    • Metamodell-Feinabstimmung: Die annotierten Stichproben werden verwendet, um das Cuckoo-Metamodell feinabzustimmen, wodurch es aufgabenspezifisches Wissen erwerben kann, während seine Effizienzvorteile erhalten bleiben.

    Evaluierung und Ergebnisse

    Zur Evaluierung von Falconer wurden neue Benchmarks für das anweisungsfolgende Wissens-Mining erstellt, die sowohl die Fähigkeit des LLM-Planers zur korrekten Aufgabenzerlegung als auch die End-to-End-Leistung der generierten Proxy-Modelle bewerten. Die Evaluierungen konzentrierten sich auf die Konsistenz mit menschlichen Annotationen und die Annäherung an das Verhalten großer Modelle.

    Die experimentellen Ergebnisse bestätigen die Effektivität von Falconer:

    • Genauigkeit: Von Falconer inkubierte Proxy-Modelle erreichen eine Genauigkeit bei der Anweisungsbefolgung, die der von hochmodernen LLMs (wie GPT-4o) sehr nahekommt. Auf gelabelten NER-Datensätzen übertrifft das mit 2048 Stichproben (5 % des Korpus) feinabgestimmte Metamodell GPT-4o in verschiedenen Aufgabenkategorien.
    • Effizienz: Falconer reduziert die Inferenzkosten um bis zu 90 % und beschleunigt das großskalige Wissens-Mining um mehr als das 20-fache im Vergleich zur direkten LLM-Ausführung. Ein einziges vereinheitlichtes Metamodell erreicht eine Leistung, die von separaten, aufgabenspezifischen Modellen kaum zu unterscheiden ist, wodurch der Bereitstellungsaufwand reduziert wird. Das Pre-Training beschleunigt die Konvergenz für neue Aufgaben erheblich.
    • "Arising Abilities": Interessanterweise führt die Feinabstimmung von Cuckoo mit verrauschten Annotationen von GPT-4o (das manchmal schlecht abschneidet, z. B. F1 von 0,27 bei Biologie-Aufgaben) immer noch zu erheblichen Leistungssteigerungen. Diese "arising ability" wird dem umfangreichen vortrainierten Wissen des Metamodells zugeschrieben, insbesondere seiner Sensibilität für Token-Struktur und Positionsinformationen, die während des NTE-Pre-Trainings kodiert wurden. Experimente mit degradierten Positionsdaten zeigen die Robustheit von Cuckoo.
    • Kontinuierliche Integration: Modelle, die sequenziell auf mehrere Aufgaben feinabgestimmt werden, behalten eine Leistung bei, die mit der von Modellen vergleichbar ist, die von einem frischen Basismodell trainiert wurden. Dies demonstriert robuste kontinuierliche Lernfähigkeiten.

    Fazit und Ausblick

    Falconer bietet eine skalierbare und effiziente Grundlage für das Wissens-Mining, indem es die fortgeschrittenen Denk- und Anweisungsbefolgungsfähigkeiten von LLMs strategisch mit der Geschwindigkeit und Kosteneffizienz leichter, anweisungsbewusster Proxy-Modelle kombiniert. Diese Forschung liefert eine praktische Lösung für die Verarbeitung massiver Korpora in "Deep Research"-Anwendungen und unterstreicht das wachsende Potenzial von "Small Language Models" (SLMs) und spezialisierten Proxy-Modellen als skalierbare Agenten für die Wissensgewinnung.

    Für Unternehmen, die im Bereich der KI-gestützten Inhaltsgenerierung und -analyse tätig sind, wie beispielsweise Mindverse, sind diese Erkenntnisse von großer Bedeutung. Die Fähigkeit, komplexe Wissens-Mining-Aufgaben mit hoher Genauigkeit und gleichzeitig deutlich reduzierten Kosten und Ressourcen durchzuführen, eröffnet neue Möglichkeiten für die Entwicklung und Bereitstellung skalierbarer KI-Lösungen. Die Entwicklung kleinerer, spezialisierter Modelle, die die "Intelligenz" größerer Modelle effizient nutzen können, ist ein vielversprechender Weg zur Demokratisierung fortschrittlicher KI-Technologien.

    Bibliographie

    • Zhang, S., Yun, L., Wang, Z., Shang, J., & Peng, L. (2025). A Tale of LLMs and Induced Small Proxies: Scalable Agents for Knowledge Mining. arXiv preprint arXiv:2510.01427.
    • Tan, J., Dou, Z., Zhu, Y., Guo, P., Fang, K., & Wen, J.-R. (2024). Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs. In Proceedings of the 62nd Annual Meeting of the Association of Computational Linguistics (Volume 1: Long Papers), pp. 4420–4436, Bangkok, Thailand. Association for Computational Linguistics.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen