Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Entwicklung visueller Assistenzsysteme, sei es in Form von Smart Glasses, verkörperten Agenten oder kontinuierlichen Life-Logging-Systemen, erfordert eine Fähigkeit, die über die momentane Wahrnehmung hinausgeht: das Verständnis und die Analyse von Videostreams, die sich über Tage oder sogar Wochen erstrecken. Diese sogenannten egocentrischen Videos, die aus der Perspektive des Trägers aufgenommen werden, stellen immense Herausforderungen an bestehende KI-Modelle. Relevante Informationen sind oft spärlich über Stunden oder Tage verteilt, was ein robustes Gedächtnis und die Fähigkeit zur Schlussfolgerung über lange Zeiträume hinweg unerlässlich macht. In diesem Kontext wurde der EgoMemReason-Benchmark vorgestellt, um genau diese Lücke zu schließen und die Fähigkeiten von KI-Modellen in der Langzeit-Videoanalyse systematisch zu bewerten.
Bestehende Benchmarks für wochenlange Videos konzentrieren sich primär auf perzeptuelle Aufgaben wie die Lokalisierung von Momenten oder die globale Zusammenfassung. Sie sind jedoch nicht darauf ausgelegt, komplexes Schlussfolgern zu bewerten, das die Integration von Beweisen über mehrere Tage hinweg erfordert. Hier setzt EgoMemReason an. Er wurde entwickelt, um zu testen, wie Modelle Informationen über die Zeit akkumulieren, frühere Zustände abrufen, die zeitliche Reihenfolge verfolgen und wiederkehrende Muster aus spärlichen, wiederholten Beobachtungen abstrahieren können.
EgoMemReason strukturiert seine Bewertung um drei komplementäre Gedächtnistypen, die jeweils unterschiedliche Schlussfolgerungsoperationen über angesammelte Erfahrungen adressieren:
Der Benchmark umfasst 500 Multiple-Choice-Fragen, die sich auf diese drei Gedächtnistypen verteilen und sechs Kernherausforderungen abdecken. Im Durchschnitt erfordert jede Frage das Aggregieren von 5,1 unterschiedlichen Videosegmenten als Beweis und eine Rückverfolgung des Gedächtnisses von 25,9 Stunden. Dies übertrifft die Anforderungen früherer Benchmarks erheblich.
Die Erstellung von EgoMemReason erfolgte über einen rigorosen vierstufigen Prozess, der auf dem EgoLife-Datensatz basiert, welcher wochenlange, kontinuierliche egocentrische Aufnahmen von sechs Teilnehmern in natürlichen Alltagssituationen enthält:
Die Evaluierung von 17 verschiedenen Systemen, darunter allgemeine MLLMs, videospezifische MLLMs und agentische Video-Frameworks, zeigte, dass selbst das beste Modell (Gemini-3-Flash) lediglich eine Gesamtgenauigkeit von 39,6 % erreichte. Kein Modell überschritt 51 % bei einer einzelnen Fähigkeit. Dies unterstreicht, dass das Langzeitgedächtnis und das Schlussfolgern in diesem Bereich weiterhin eine offene Herausforderung darstellen.
Die Analyse identifizierte unterschiedliche Engpässe für die einzelnen Gedächtnistypen:
Ablationsstudien zeigten zudem, dass weder eine dichtere Frame-Abtastung noch zusätzliche Texteingaben (Transkripte, Bildunterschriften) zu einer konsistenten Verbesserung führten. Dies deutet darauf hin, dass der Kernengpass in der Art und Weise liegt, wie Modelle Informationen über lange Zeithorizonte intern speichern und abrufen, und nicht primär in der Menge der verfügbaren Eingabedaten.
Interessanterweise zeigten die Untersuchungen zu Prompt-Strategien, dass explizites, schrittweises Schlussfolgern (Chain-of-Thought) die Leistung bei speicherintensiven Aufgaben erheblich verschlechterte. Dies deutet darauf hin, dass die Schwierigkeit eher in der visuellen Wahrnehmung und dem Abruf von Informationen liegt als in der Schlussfolgerungsstrategie selbst.
EgoMemReason bietet einen umfassenden Rahmen zur Bewertung des Langzeitgedächtnisses und des Schlussfolgerns in wochenlangen egocentrischen Videos. Die Ergebnisse verdeutlichen, dass keine der aktuellen Modellarchitekturen die Anforderungen an ein robustes Langzeitgedächtnis in diesem komplexen Bereich vollständig erfüllen kann. Die identifizierten spezifischen Engpässe für Entitäts-, Ereignis- und Verhaltensgedächtnis weisen den Weg für zukünftige Forschungsrichtungen. Fortschritte erfordern demnach eine verbesserte perzeptuelle Präzision, eine strukturierte zeitliche Modellierung von Ereignissen und aggregationsbasiertes Schlussfolgern für Verhaltensmuster. Dieser Benchmark dient als diagnostisches Werkzeug, um die Entwicklung multimodaler Systeme voranzutreiben, die zu einem echten Langzeitgedächtnis und komplexen Schlussfolgerungen in dynamischen, realen Umgebungen fähig sind.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen