Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Große Sprachmodelle für Videos (Video-LLMs) haben vielversprechende Fähigkeiten im Bereich des Videoverständnisses gezeigt. Allerdings haben sie Schwierigkeiten, zeitliche Veränderungen zu verfolgen und über zeitliche Beziehungen zu schlussfolgern. Bisher wurde diese Einschränkung auf die ineffektive zeitliche Kodierung visueller Eingaben zurückgeführt. Neue Studien zeigen jedoch, dass Videorepräsentationen genügend Informationen enthalten, sodass selbst kleine, untersuchende Klassifikatoren eine perfekte Genauigkeit erreichen können.
Überraschenderweise liegt der eigentliche Engpass in der Fähigkeit der Video-LLMs zum zeitlichen Denken im zugrunde liegenden LLM selbst begründet. Dieser hat Schwierigkeiten mit zeitlichen Konzepten, was sich in der schwachen Leistung bei Aufgaben zur Beantwortung textlicher zeitlicher Fragen zeigt.
Diese Erkenntnis führte zur Entwicklung des "Textual Temporal Reasoning Transfer" (T3). T3 synthetisiert verschiedene zeitliche Denkaufgaben im reinen Textformat aus bestehenden Bild-Text-Datensätzen. Dieser Ansatz umgeht die Knappheit von Videoproben mit komplexen zeitlichen Szenarien.
Bemerkenswerterweise verbessert T3 das zeitliche Verständnis von LongVA-7B, ohne dass Videodaten verwendet werden. Dies führt zu einer Verbesserung der absoluten Genauigkeit um 5,3 Punkte im anspruchsvollen TempCompass-Benchmark. Damit übertrifft das Modell sogar ShareGPT4Video-8B, das mit 28.000 Videoproben trainiert wurde.
Darüber hinaus erzielt das verbesserte LongVA-7B-Modell eine konkurrenzfähige Leistung bei umfassenden Video-Benchmarks. Beispielsweise erreicht es eine Genauigkeit von 49,7 % bei der Aufgabe "Temporal Reasoning" von Video-MME und übertrifft damit leistungsstarke, große Modelle wie InternVL-Chat-V1.5-20B und VILA1.5-40B.
Weitere Analysen zeigen eine starke Korrelation zwischen der Leistung bei textlichen und videobasierten zeitlichen Aufgaben. Dies bestätigt die Wirksamkeit der Übertragung von Fähigkeiten zum zeitlichen Denken von Text- auf Videobereiche. Die Ergebnisse unterstreichen das Potenzial textbasierter Trainingsdaten für die Verbesserung der zeitlichen Argumentationsfähigkeit von Video-LLMs.
Die zukünftige Forschung könnte sich auf die Entwicklung noch komplexerer textbasierter Aufgaben konzentrieren, die ein breiteres Spektrum an zeitlichen Beziehungen abdecken. Darüber hinaus könnten Methoden zur Anpassung von T3 an spezifischere Video-Domänen untersucht werden, um die Leistung in diesen Bereichen weiter zu verbessern.
Die Übertragung von zeitlichem Denken von Text auf Video stellt einen vielversprechenden Ansatz dar, um die Fähigkeiten von Video-LLMs zu verbessern. Durch die Nutzung der Leistungsfähigkeit großer Sprachmodelle im Textbereich können wir die Grenzen des Videoverständnisses erweitern und neue Möglichkeiten für Anwendungen schaffen, die ein tiefes Verständnis zeitlicher Zusammenhänge erfordern.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen