KI für Ihr Unternehmen – Jetzt Demo buchen

Die Bewertung des Langzeitgedächtnisses in multimodalen Sprachmodellen

Kategorien:
No items found.
Freigegeben:
May 16, 2026

KI sauber im Unternehmen integrieren: Der 5-Schritte-Plan

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg

1
🎯

Strategie & Zieldefinition

Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.

✓ Messbare KPIs definiert

2
🛡️

Daten & DSGVO-Compliance

Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.

✓ 100% DSGVO-konform

3
⚙️

Technologie- & Tool-Auswahl

Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.

✓ Beste Lösung für Ihren Fall

4
🚀

Pilotprojekt & Integration

Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.

✓ Ergebnisse in 4-6 Wochen

5
👥

Skalierung & Team-Schulung

Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.

✓ Ihr Team wird KI-fit

Inhaltsverzeichnis

    mindverse studio – Ihre Plattform für digitale Effizienz

    Optimieren Sie Prozesse, automatisieren Sie Workflows und fördern Sie Zusammenarbeit – alles an einem Ort.
    Mehr über Mindverse Studio erfahren

    Das Wichtigste in Kürze

    • Die Fähigkeit von großen Sprachmodellen mit visuellen Komponenten (LVLMs), Informationen über lange, multimodale Interaktionen hinweg zu behalten, ist entscheidend für ihre Leistungsfähigkeit.
    • MEMLENS ist ein neuer, umfassender Benchmark, der speziell entwickelt wurde, um das Langzeitgedächtnis von LVLMs in multimodalen, mehrsitzigen Konversationen zu bewerten.
    • Der Benchmark umfasst 789 Fragen, die fünf Gedächtnisfähigkeiten (Informationsgewinnung, Multi-Session-Argumentation, zeitliche Argumentation, Wissensaktualisierung und Antwortverweigerung) über vier Kontextlängen (32K-256K Token) abdecken.
    • Eine Bild-Ablationsstudie zeigt, dass visuelle Evidenz für die Lösung der MEMLENS-Aufgaben unerlässlich ist, da die Genauigkeit ohne Bilder drastisch sinkt.
    • Die Bewertung von 27 LVLMs und 7 speichererweiterten Agenten offenbart, dass Long-Context-LVLMs bei kurzen Kontexten gut abschneiden, aber bei längeren Konversationen nachlassen. Speicheragenten sind längenstabil, verlieren jedoch an visueller Detailtreue durch Komprimierung.
    • Die Multi-Session-Argumentation stellt für die meisten Systeme eine große Herausforderung dar, wobei die Genauigkeit unter 30 % liegt.
    • Die Ergebnisse deuten darauf hin, dass hybride Architekturen, die Long-Context-Attention mit strukturiertem multimodalen Abruf kombinieren, für zukünftige Fortschritte notwendig sind.

    Die Herausforderung des Langzeitgedächtnisses in multimodalen Sprachmodellen

    Die Entwicklung großer Sprachmodelle (LLMs) hat in den letzten Jahren beeindruckende Fortschritte gezeigt, insbesondere in Bereichen wie Textgenerierung, Dialogführung und komplexer Problemlösung. Mit der Integration von visuellen Komponenten zu sogenannten Large Vision-Language Models (LVLMs) erweitern sich ihre Fähigkeiten auf multimodale Interaktionen. Eine zentrale Herausforderung für diese Modelle, insbesondere in realen Anwendungsszenarien, ist jedoch das effektive Management und der Abruf von Informationen über längere Zeiträume und mehrere Interaktionssitzungen hinweg. Diese Fähigkeit, die als "Langzeitgedächtnis" bezeichnet wird, ist entscheidend für das Verständnis komplexer, sich entwickelnder Konversationen, die sowohl textuelle als auch visuelle Daten umfassen.

    Bestehende Ansätze und ihre Grenzen

    Bisherige Bemühungen zur Verbesserung des Langzeitgedächtnisses in LVLMs konzentrierten sich auf zwei Hauptrichtungen: zum einen auf Long-Context-LVLMs, die darauf ausgelegt sind, sehr lange Eingabesequenzen direkt zu verarbeiten, und zum anderen auf speichererweiterte Agenten, die externe Speichermechanismen nutzen, um relevante Informationen über die aktuelle Konversation hinaus zu speichern und abzurufen. Trotz dieser Fortschritte fehlte es bisher an einem umfassenden und systematischen Benchmark, der die Leistungsfähigkeit beider Ansätze in Szenarien vergleicht, die tatsächlich multimodale Evidenz erfordern und sich über mehrere Sitzungen erstrecken.

    MEMLENS: Ein neuer Standard für die Bewertung multimodaler Langzeitgedächtnisse

    Um diese Lücke zu schließen, wurde der Benchmark MEMLENS eingeführt. MEMLENS ist darauf ausgelegt, das Langzeitgedächtnis von LVLMs in multimodalen, mehrsitzigen Konversationen zu evaluieren. Der Benchmark umfasst 789 sorgfältig kuratierte Fragen, die fünf verschiedene Gedächtnisfähigkeiten testen:

    • Informationsgewinnung: Die Fähigkeit, spezifische Details aus vergangenen Interaktionen zu extrahieren.
    • Multi-Session-Argumentation: Das Verknüpfen von Informationen aus verschiedenen Konversationssitzungen, um komplexe Schlussfolgerungen zu ziehen.
    • Zeitliche Argumentation: Das Verständnis der Reihenfolge von Ereignissen und deren Auswirkungen über die Zeit.
    • Wissensaktualisierung: Die Fähigkeit, bestehendes Wissen basierend auf neuen Informationen anzupassen oder zu aktualisieren.
    • Antwortverweigerung: Die korrekte Identifizierung von Situationen, in denen keine ausreichenden Informationen für eine Antwort vorliegen, anstatt zu halluzinieren.

    Diese Fragen werden über vier standardisierte Kontextlängen hinweg (von 32.000 bis 256.000 Token) bewertet, wobei ein modellübergreifendes Token-Zählschema angewendet wird, das sowohl Text- als auch Bildtoken berücksichtigt.

    Die Bedeutung visueller Evidenz

    Ein entscheidendes Merkmal von MEMLENS ist die explizite Berücksichtigung multimodaler Evidenz. Eine durchgeführte Bild-Ablationsstudie unterstreicht die Notwendigkeit visueller Informationen: Bei Fragen, deren Beantwortung visuelle Evidenz erfordert (80,4 % der Fragen), führte das Entfernen der Beweisbilder bei zwei führenden LVLMs zu einem Genauigkeitsabfall auf unter 2 %. Dies bestätigt, dass MEMLENS Modelle zwingt, tatsächlich visuelle Informationen zu nutzen und nicht auf textbasierte Abkürzungen zurückzugreifen.

    Ergebnisse der Benchmark-Evaluation

    Im Rahmen der Studie wurden 27 verschiedene LVLMs und 7 speichererweiterte Agenten mit MEMLENS evaluiert. Die Ergebnisse liefern differenzierte Einblicke in die Stärken und Schwächen der aktuellen Ansätze:

    • Long-Context-LVLMs: Diese Modelle zeigten bei kürzeren Kontexten eine hohe Genauigkeit, die auf einer direkten visuellen Verankerung beruht. Ihre Leistung nahm jedoch signifikant ab, je länger die Konversationen wurden. Dies deutet auf Schwierigkeiten hin, relevante Informationen über sehr lange Eingabesequenzen hinweg effektiv zu verarbeiten und zu behalten.
    • Speichererweiterte Agenten: Im Gegensatz dazu erwiesen sich speichererweiterte Agenten als längenstabil, was bedeutet, dass ihre Leistung nicht signifikant mit der Länge der Konversation abnahm. Allerdings ging bei diesen Agenten die visuelle Detailtreue durch die Komprimierung der Informationen für die Speicherung verloren, was ihre Fähigkeit beeinträchtigte, präzise visuelle Details abzurufen.

    Insbesondere die Fähigkeit zur Multi-Session-Argumentation stellte für die meisten Systeme eine erhebliche Hürde dar, wobei die Genauigkeit bei dieser Aufgabe unter 30 % lag. Dies deutet auf eine grundlegende Begrenzung bei der Integration und dem logischen Schlussfolgern über diskrete Interaktionssitzungen hinweg hin.

    Implikationen für zukünftige Architekturen

    Die Ergebnisse von MEMLENS legen nahe, dass weder der alleinige Ansatz der Skalierung von Kontextfenstern noch der alleinige Einsatz aktueller Retrieval-Agenten das Problem des langfristigen multimodalen Gedächtnisses vollständig lösen kann. Stattdessen motivieren diese Erkenntnisse die Entwicklung von hybriden Architekturen. Solche Architekturen könnten die Stärken der Long-Context-Attention (für die detaillierte Verarbeitung aktueller multimodaler Eingaben) mit den Vorteilen des strukturierten multimodalen Retrievals (für den effizienten Abruf und die Integration von Langzeitinformationen) kombinieren. Ein solcher Ansatz könnte die visuelle Wiedergabetreue über längere Zeiträume erhalten und gleichzeitig die Fähigkeit zur komplexen Argumentation über mehrere Sitzungen hinweg verbessern.

    Ausblick und Verfügbarkeit

    Der MEMLENS-Benchmark stellt einen wichtigen Schritt zur systematischen Bewertung und Weiterentwicklung von LVLMs dar. Die Autoren haben den Code und den Datensatz öffentlich zugänglich gemacht, um die Forschung in diesem kritischen Bereich zu fördern. Dies ermöglicht es der KI-Gemeinschaft, neue Modelle und Architekturen unter realistischen Bedingungen zu testen und so die Entwicklung von robusteren und intelligenteren multimodalen Systemen voranzutreiben.

    Die kontinuierliche Verbesserung des Langzeitgedächtnisses in LVLMs ist entscheidend für ihre breite Anwendung in komplexen, interaktiven Szenarien, von intelligenten Assistenten bis hin zu autonomen Systemen, die eine tiefe und dauerhafte Interaktion mit ihrer Umgebung erfordern.

    Bibliographie

    - Ren, X., Wang, Z., Du, Y., Xie, Z., Liu, C., Yang, X., Feng, H., Pan, W., Zheng, T., Xu, B., Li, Z., Song, Y., Wong, G., & See, S. (2026). MemLens: Benchmarking Multimodal Long-Term Memory in Large Vision-Language Models. Hugging Face Papers. - AI Research Roundup. (2026, May 15). MemLens: Measuring Long-Term Memory in LVLMs. YouTube. - He, Z., Zhao, H., Payani, A., & Du, M. (2025). MemLens: Uncovering Memorization in LLMs with Activation Trajectories. OpenReview. - TheMoonlight.io. (n.d.). [Literature Review] MemLens: Uncovering Memorization in LLMs with Activation Trajectories. - Gao, J., Song, J., Wu, J., Zhu, R., Shen, G., Wang, S., Wei, X., Yang, H., Zhang, S., Li, W., Wang, B., Lin, D., Wu, L., & He, C. (2026). PM4Bench: Benchmarking Large Vision-Language Models with Parallel Multilingual Multi-Modal Multi-task Corpus. arXiv preprint arXiv:2503.18484v2.

    Artikel jetzt als Podcast anhören

    Kunden die uns vertrauen:
    Arise Health logoArise Health logoThe Paak logoThe Paak logoOE logo2020INC logoEphicient logo
    und viele weitere mehr!

    Bereit für den nächsten Schritt?

    Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
    Herzlichen Dank! Deine Nachricht ist eingegangen!
    Oops! Du hast wohl was vergessen, versuche es nochmal.

    🚀 Neugierig auf Mindverse Studio?

    Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.

    🚀 Demo jetzt buchen