Forscher der Renmin University of China, der Tsinghua University und des Huawei Poisson Lab haben ein neues System namens RetroLLM entwickelt, das die Informationsverarbeitung in KI-Systemen deutlich verbessert. RetroLLM optimiert den Prozess der sogenannten Retrieval-Augmented Generation (RAG) und bietet im Vergleich zu herkömmlichen Lösungen eine höhere Effizienz und Genauigkeit.
Herkömmliche RAG-Systeme arbeiten in zwei Phasen: Zuerst wird nach relevanten Informationen gesucht und anschließend wird daraus ein Text generiert. RetroLLM hingegen kombiniert diese beiden Schritte in einem einzigen Prozess. Das System arbeitet in drei Hauptschritten:
1. **Generierung von "Clues":** Ausgehend von der ursprünglichen Anfrage erstellt RetroLLM Schlüsselwörter oder -phrasen, sogenannte "Clues". Diese dienen als Grundlage für die nachfolgende Suche nach relevanten Informationen. Beispielsweise würde das System bei einer Frage nach dem ersten Physik-Nobelpreisträger Begriffe wie "Nobelpreis" und "Physik" identifizieren.
2. **Informationsverarbeitung:** RetroLLM nutzt fortschrittliche Techniken zur Verarbeitung der Informationen. Mittels "Constrained Beam Search" evaluiert es mehrere potenzielle Textpfade gleichzeitig, ähnlich der Erkundung verschiedener Zweige eines Entscheidungsbaums, wobei der Fokus auf den vielversprechendsten Pfaden liegt. Zusätzlich verwendet RetroLLM "Forward-Looking Constrained Decoding", um nützliche Abschnitte im Voraus zu identifizieren und so die Verarbeitung irrelevanter Inhalte zu vermeiden.
3. **Effizientes Indexing:** Um große Textmengen effizient zu verarbeiten, verwendet RetroLLM hierarchische FM-Index-Constraints. Dieses ausgeklügelte Indexsystem ermöglicht eine schnelle und präzise Lokalisierung der benötigten Informationen auf verschiedenen Detailebenen.
Tests haben gezeigt, dass RetroLLM im Vergleich zu bestehenden Systemen eine um 10-15 Prozent höhere Genauigkeit erreicht. Besonders bei komplexen Fragen, die die Kombination von Informationen aus mehreren Quellen erfordern, zeigt RetroLLM seine Stärken. Das System passt seinen Ansatz an die jeweilige Frage an. Bei einfachen Anfragen benötigt es möglicherweise nur wenige Schlüsselfakten. Bei komplexeren Fragen sucht es automatisch tiefer und bezieht zusätzliche Quellen ein.
Obwohl RetroLLM insgesamt weniger Rechenleistung benötigt, haben die Forscher eine Einschränkung festgestellt: Bei der Verarbeitung einzelner Anfragen ist es etwas langsamer als einfachere Systeme. Das Team geht davon aus, dass die Kombination von kleineren und größeren Modellen dieses Problem in Zukunft lösen könnte.
Für ein Unternehmen wie Mindverse, das sich auf KI-gestützte Content-Erstellung, -Recherche und maßgeschneiderte KI-Lösungen spezialisiert hat, sind die Fortschritte von RetroLLM besonders relevant. Die verbesserte Effizienz und Genauigkeit von RAG-Systemen könnten die Leistung von Mindverse-Tools in verschiedenen Bereichen optimieren, darunter Chatbots, Voicebots, KI-Suchmaschinen und Wissenssysteme. Die Integration von Technologien wie RetroLLM könnte die Generierung von präziseren und informativeren Inhalten ermöglichen und die Entwicklung noch leistungsfähigerer KI-Lösungen vorantreiben.
Quellenverzeichnis Li, X., Jin, J., Zhou, Y., Wu, Y., Li, Z., Ye, Q., & Dou, Z. (2024). RetroLLM: Empowering Large Language Models to Retrieve Fine-grained Evidence within Generation. arXiv preprint arXiv:2412.11919. https://powerdrill.ai/discover/discover-RetroLLM-Empowering-Large-cm4sy73922dn907lt1sqe3jln https://community.openai.com/t/rag-is-not-really-a-solution/599291 https://github.com/aishwaryanr/awesome-generative-ai-guide https://paperswithcode.com/author/zhicheng-dou https://www.reddit.com/r/datascience/comments/1fqrsd3/rag_has_a_tendency_to_degrade_in_performance_as/Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen