Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Die Entwicklung von großen Sprach- und Bildverarbeitungsmodellen (Large Language-Vision Models, LLVMs) schreitet rasant voran. Dabei stellt die vergleichende Bewertung verschiedener Modelle und Trainingsdaten eine Herausforderung dar. Eine neue Studie untersucht nun, wie Skalierungsgesetze für einen robusten Vergleich von Open-Source-LLVMs und Datensätzen eingesetzt werden können.
Skalierungsgesetze beschreiben den Zusammenhang zwischen der Modellleistung, der Modellgröße, der Menge der Trainingsdaten und dem Rechenaufwand. Sie erlauben Vorhersagen über die Performance von Modellen bei Vergrößerung dieser Faktoren. Die vorliegende Arbeit nutzt diese Gesetze nicht nur zur Performance-Prognose, sondern auch zum direkten Vergleich verschiedener Modelle und Datensätze.
Im Fokus der Studie stehen zwei prominente Open-Source-LLVMs: CLIP und MaMMUT. CLIP verwendet einen kontrastiven Lernansatz, während MaMMUT zusätzlich einen generativen Verlust für Bildunterschriften einsetzt. Die Forscher leiteten Skalierungsgesetze für beide Modelle ab, basierend auf umfangreichen Messungen über verschiedene Modellgrößen und Datenmengen hinweg.
Die Ergebnisse zeigen, dass MaMMUT im Vergleich zu CLIP eine stärkere Leistungsverbesserung mit zunehmender Skalierung und eine höhere Dateneffizienz aufweist. Diese Beobachtung bestätigte sich konsistent über verschiedene Downstream-Tasks wie Klassifizierung, Retrieval und Segmentierung sowie über verschiedene offene Datensätze wie DataComp, DFN und Re-LAION.
Um die Vergleichbarkeit zu gewährleisten, wurden die Skalierungsgesetze unter verschiedenen Bedingungen abgeleitet, darunter auch mit konstanter Lernrate, um den Rechenaufwand zu reduzieren. Die Ergebnisse blieben dabei konsistent.
Die Studie demonstriert, dass Skalierungsgesetze ein wertvolles Werkzeug für den systematischen Vergleich von Open-Source-LLVMs und Datensätzen darstellen. Sie ermöglichen eine fundierte Bewertung über verschiedene Skalierungen hinweg und vermeiden irreführende Schlussfolgerungen, die auf Messungen mit einzelnen Referenzgrößen basieren.
Basierend auf den Erkenntnissen der Skalierungsgesetze trainierten die Forscher openMaMMUT-L/14, eine Variante von MaMMUT, mit 12,8 Milliarden Samples aus dem DataComp-1.4B Datensatz. Dieses Modell erreicht eine Zero-Shot-Genauigkeit von 80,3% auf ImageNet-1k und übertrifft damit oder entspricht als vollständig Open-Source-Modell anderen Modellen derselben Rechenklasse.
Die Veröffentlichung der trainierten Modelle, Zwischencheckpoints und des Codes zur Reproduktion der Experimente unterstreicht den Open-Source-Charakter der Forschung und ermöglicht es der Community, auf diesen Ergebnissen aufzubauen und die Entwicklung von LLVMs weiter voranzutreiben.
Die Anwendung von Skalierungsgesetzen zur Modellbewertung und -entwicklung verspricht, die Forschung im Bereich der Bild- und Sprachverarbeitung zu beschleunigen und die Entwicklung noch leistungsfähigerer und effizienterer Modelle zu ermöglichen. Insbesondere für Unternehmen wie Mindverse, die sich auf KI-basierte Content-Erstellung und maßgeschneiderte KI-Lösungen spezialisiert haben, bieten diese Erkenntnisse wertvolle Anhaltspunkte für die Auswahl und Optimierung von Modellen.
Bibliographie: http://www.arxiv.org/abs/2506.04598 http://paperreading.club/page?id=313774 https://huggingface.co/papers?q=Scaling%20Consistency https://huggingface.co/JJitsev https://arxiv.org/abs/2503.19551 https://papers.cool/arxiv/cs.AI?sort=1 https://openreview.net/forum?id=i9K2ZWkYIP https://westai.de/publikationen/florenz-scaling-laws-for-systematic-generalization-in-vision-language-models/ https://hfday.ru/ https://papers.nips.cc/paper_files/paper/2022/hash/8c22e5e918198702765ecff4b20d0a90-Abstract-Conference.htmlEntdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen