Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Künstliche Intelligenz, die Videos versteht und interpretiert, ist ein schnell wachsendes Forschungsfeld. Video Large Language Models (Video-LLMs) sind dabei ein vielversprechender Ansatz, der die Fähigkeiten von Sprachmodellen mit der Verarbeitung von visuellen Informationen kombiniert. Doch wie gut sind diese Modelle wirklich darin, die komplexen Zusammenhänge in Videos zu erfassen? Ein neuer Benchmark namens V-STaR (Video Spatio-Temporal Reasoning) soll genau das herausfinden, indem er die Fähigkeiten von Video-LLMs im räumlich-zeitlichen Denken testet.
Bisherige Benchmarks für Video-LLMs konzentrierten sich hauptsächlich darauf, ob Objekte in einem Video vorhanden sind. Die relationalen Zusammenhänge zwischen diesen Objekten, also die Aktionen und Ereignisse, wurden dabei weitgehend vernachlässigt. Dies führte dazu, dass schwer zu beurteilen war, ob ein Modell die Interaktionen in einem Video tatsächlich versteht oder lediglich auf vortrainierte Muster und Korrelationen zurückgreift. V-STaR schließt diese Lücke, indem er das Verständnis von Videos in eine umgekehrte räumlich-zeitliche Denkaufgabe (Reverse Spatio-Temporal Reasoning, RSTR) zerlegt. Diese Aufgabe evaluiert gleichzeitig, welche Objekte vorhanden sind, wann Ereignisse stattfinden und wo sie sich befinden.
Der V-STaR-Benchmark basiert auf einem eigens dafür erstellten Datensatz, der den räumlich-zeitlichen Denkprozess von Video-LLMs abbildet. Er enthält Fragen, die in einer Art "Gedankenkette" (Chain-of-Thought, CoT) von grob zu fein formuliert sind. Diese Fragen wurden mithilfe einer teilautomatisierten Pipeline unter Verwendung von GPT-4 generiert, um explizite Denkschritte einzubetten und so die menschliche Kognition nachzuahmen. Die Fragen folgen dabei zwei verschiedenen RSTR-Ketten: "Was-Wann-Wo" oder "Was-Wo-Wann".
Der Datensatz umfasst eine breite Palette von Videos aus neun verschiedenen Bereichen und beinhaltet insgesamt 2094 Beispiele für räumlich-zeitliches Denken. Erste Tests mit 14 verschiedenen Video-LLMs auf dem V-STaR-Benchmark haben gezeigt, dass es erhebliche Unterschiede in den Fähigkeiten der Modelle gibt. Insbesondere im kausalen räumlich-zeitlichen Denken offenbarten sich Schwächen. Diese Ergebnisse unterstreichen die Notwendigkeit weiterer Forschung, um die Zuverlässigkeit und Konsistenz des räumlich-zeitlichen Verständnisses zukünftiger Video-LLMs zu verbessern.
Die Entwickler von V-STaR hoffen, dass der Benchmark dazu beitragen wird, die Forschung im Bereich der Video-LLMs voranzutreiben und die Entwicklung robusterer und vertrauenswürdigerer Modelle zu fördern. Der Benchmark ist öffentlich zugänglich und soll Forschern und Entwicklern eine wertvolle Ressource bieten, um die Fähigkeiten ihrer Modelle zu evaluieren und zu verbessern.
V-STaR ist Teil einer breiteren Initiative zur Verbesserung des Verständnisses und der Interpretierbarkeit von KI-Modellen. Die Erkenntnisse aus diesem Benchmark könnten weitreichende Auswirkungen auf verschiedene Anwendungsbereiche haben, von der automatischen Videoanalyse bis hin zur Entwicklung interaktiver KI-Systeme.
Bibliographie: Cheng, Zixu, et al. "V-STaR: Benchmarking Video-LLMs on Video Spatio-Temporal Reasoning." arXiv preprint arXiv:2503.11495 (2025). Li, Ziqi, et al. "MVBench: A Comprehensive Multi-modal Video Understanding Benchmark." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen