Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Fähigkeit von Künstlicher Intelligenz, visuelle Informationen zu verstehen und zu interpretieren, hat in den letzten Jahren erhebliche Fortschritte gemacht. Insbesondere im Bereich der Bild- und Videoverarbeitung sind durch innovative Architekturen und großskalige Vortrainingsmethoden bemerkenswerte Ergebnisse erzielt worden. Trotz dieser Entwicklungen bestehen weiterhin Herausforderungen bei der Skalierung von Visionsmodellen auf das Niveau und die Komplexität von Daten, die in industriellen Anwendungen anfallen. Ein Forschungsteam hat hierzu ein neues, einheitliches Visionsmodell namens Xray-Visual vorgestellt, das speziell für die Verarbeitung von Bild- und Videodaten im industriellen Maßstab, insbesondere aus sozialen Medien, konzipiert wurde.
Xray-Visual ist als eine einheitliche Visionsmodellarchitektur konzipiert, die sowohl Bilder als auch Videos verarbeiten kann. Der Kern dieser Architektur ist ein Vision Transformer (ViT)-Backbone, der durch eine effiziente Token-Reorganisation (EViT) ergänzt wird. Diese Erweiterung ermöglicht es dem Modell, höhere Eingangsauflösungen mit minimiertem Rechenaufwand zu verarbeiten, indem inattentive Tokens selektiv entfernt werden. Dies führt zu einer verbesserten Recheneffizienz, während die Genauigkeit erhalten bleibt. Die Fähigkeit, Bilder und Videos gemeinsam zu trainieren, ist ein zentrales Merkmal, da dies zu reichhaltigeren Repräsentationen führt und den Bereitstellungsaufwand reduziert, da ein einziges Modell für beide Modalitäten verwendet werden kann.
Das Training von Xray-Visual stützt sich auf eine umfangreiche Datengrundlage, die aus über 15 Milliarden kuratierten Bild-Text-Paaren und 10 Milliarden Video-Hashtag-Paaren von Plattformen wie Facebook und Instagram besteht. Die Datenkuratierung umfasst robuste Pipelines, die Strategien zur Ausbalancierung und Rauschunterdrückung integrieren. Ziel ist es, die semantische Vielfalt zu maximieren und gleichzeitig das Rauschen in den Labels zu minimieren. Dies beinhaltet detaillierte Bereinigungsmaßnahmen für Bildunterschriften und Hashtags, wie die Entfernung von URLs, Emojis und nicht-semantischen Inhalten, sowie die Filterung nach englischsprachigen Inhalten. Für Videos wurde ein spezieller Datensatz namens URU erstellt, der sich auf Hashtags konzentriert, die relevantere visuelle und semantische Beschreibungen des Videoinhalts enthalten.
Das Training von Xray-Visual erfolgt in einem dreistufigen Prozess, der verschiedene Lernparadigmen kombiniert:
- Stufe 1: Selbstüberwachtes Masked Autoencoding (MAE)
In dieser Phase lernt das Modell visuelle Repräsentationen aus unbeschrifteten Bild- und Videodaten durch Rekonstruktion. Für Bilder werden 75 % der Patches maskiert, für Videos sogar 90 %. Das Modell wird darauf trainiert, die maskierten Bereiche zu rekonstruieren, wodurch es grundlegende visuelle Merkmale erlernt.
- Stufe 2: Semi-überwachte Hashtag-Klassifizierung
Nach dem MAE-Vortraining wird das Modell durch Hashtag-Klassifizierung weiter verfeinert. Dieser semi-überwachte Ansatz nutzt die URU-Nomen-Hashtag-Datensätze, um objektzentrierte Repräsentationen zu lernen.
- Stufe 3: Kontrastives Lernen im CLIP-Stil
Die letzte Stufe beinhaltet kontrastives Lernen im CLIP-Stil unter Verwendung von Bild- und Video-Bildunterschriften. Dies dient dazu, visuelle und textliche Repräsentationen aufeinander abzustimmen und die Generalisierungsfähigkeit zu verbessern. Hierbei werden sowohl ViSE-Daten mit Nutzer-Bildunterschriften als auch URU-Aktionsdaten für Videos verwendet, um sowohl objekt- als auch aktionsbezogene Konzepte zu erfassen.
Zusätzliche Ziele wie Denoising und SLIP (Self-supervision meets Language-Image Pre-training) verstärken die gelernten Merkmale weiter. Insbesondere der Ersatz von Standard-Text-Encodern durch große Sprachmodelle (LLMs) wie LLaMA-1b spielt eine Rolle für die Retrieval-Leistung in realen Umgebungen.
Xray-Visual demonstriert eine hohe Leistung über eine Reihe von Benchmarks hinweg. Reinen Bildmodellen gelingt eine Genauigkeit von 89,3 % auf ImageNet, während die integrierte Bild-Video-Architektur 88,1 % auf ImageNet und 78,1 % auf Kinetics erreicht. Diese Ergebnisse werden bei geringeren Eingangsauflösungen (336 Pixel) und einem reduzierten Token-Einsatz (288 Tokens) im Vergleich zu anderen führenden Visionsmodellen erzielt.
Ein wesentlicher Vorteil von Xray-Visual liegt in seiner Recheneffizienz. Das Modell erreicht eine bis zu vierfache Effizienzsteigerung im Vergleich zu Standard-Vision-Encodern, indem es nur 25 % der visuellen Tokens während der Verarbeitung nutzt. Diese Effizienz ermöglicht Skalierbarkeit und hohe Leistung, ohne die Genauigkeit zu beeinträchtigen.
Das Modell zeigt eine starke Robustheit gegenüber Domänenverschiebungen und adversariellen Störungen. Dies wird durch die Integration von Denoising-Verlusten und die Nutzung von LLMs als Text-Encoder erreicht, was die Generalisierungsfähigkeiten, insbesondere in realen Umgebungen, signifikant verbessert. Die Fähigkeit, auch auf internen Benchmarks, die reale Szenarien abbilden, eine hohe Leistung zu erbringen, unterstreicht die praktische Anwendbarkeit des Modells.
Um die Effizienz weiter zu steigern, setzt Xray-Visual auf progressive Auflösung und Token Merging. Das Training erfolgt in mehreren Phasen, beginnend mit niedrigeren Auflösungen und schrittweise steigend, um das Modell effizient an hochauflösende Eingaben anzupassen. Token Merging (ToMe) reduziert die Anzahl der verarbeiteten Tokens in verschiedenen Schichten des ViT-Backbones, was die Rechenkosten senkt. Bei Anwendung während der Inferenz führt dies zu minimalen Leistungseinbußen bei gleichzeitiger erheblicher Steigerung der Inferenzgeschwindigkeit.
Die Integration von großen Sprachmodellen (LLMs) wie LLaMA-1b als Text-Encoder im LLM2CLIP-Framework ist ein zentraler Aspekt zur Verbesserung der Retrieval-Leistung. Diese LLMs sind in der Lage, umfangreiche Textkorpora zu verarbeiten und komplexe Sequenzen zu handhaben, was zu reichhaltigeren linguistischen Repräsentationen und einer besseren semantischen Ausrichtung führt. Dies hat sich insbesondere bei internen Retrieval-Aufgaben als vorteilhaft erwiesen.
Ein Denoising-Verlust wird in das Trainingsziel integriert, um den Trainingsprozess zu stabilisieren, robustere visuelle Repräsentationen zu fördern und die Skalierbarkeit bei zunehmender Anzahl von Trainingsbeispielen zu verbessern. Darüber hinaus kommt eine umfassende Datenaugmentations-Pipeline zum Einsatz, die etablierte Techniken mit domänenspezifischen Erweiterungen, wie der Gaußschen Weichzeichnung, kombiniert. Dies unterstützt die Generalisierungsfähigkeit des Modells, insbesondere bei variierenden Eingabequalitäten.
Die Leistungsfähigkeit von Xray-Visual ermöglicht verschiedene praktische Anwendungen, insbesondere in industriellen Systemen. Das Modell dient als Komponente in Empfehlungssystemen, wo es relevante Videos basierend auf Eingabebildern oder -videos abruft. Weitere Einsatzgebiete sind bidirektionale Anzeigen-zu-Reels-Retrieval-Systeme und umfassende Anzeigen-zu-Anzeigen-Matching-Pipelines.
Für eine skalierbare Bereitstellung werden Techniken wie die Dimensionalitätsreduktion und Quantisierung angewendet. Lineare Adapter können auf vortrainierten Embeddings trainiert werden, um eine schnelle aufgabenspezifische Anpassung zu ermöglichen. Die Reduzierung der Dimensionalität von Embeddings, beispielsweise auf 100 Dimensionen, kann die Kosten erheblich senken, auch wenn dies mit einem gewissen Leistungsabfall einhergehen kann. Quantisierungstechniken, die Embeddings auf int8-Genauigkeit reduzieren, bieten eine noch effizientere Speicherung und verringern den Leistungsabfall im Vergleich zur reinen Dimensionalitätsreduktion.
Die Generierung semantischer IDs aus den Embeddings spielt eine Rolle in Empfehlungssystemen. Diese diskreten Tokenizer, die mithilfe von VQVAE-V2-Varianten wie Residual Quantization und Product Quantization erstellt werden, ermöglichen es Modellen, auf ungesehene oder ähnliche Elemente zu generalisieren und hierarchische Inhaltsstrukturen zu erfassen. Dies fördert ein ausgewogenes Lernen und die Nutzung eines gemeinsamen Vokabulars.
Xray-Visual stellt einen wichtigen Schritt in der Entwicklung skalierbarer, multimodaler Visionsmodelle dar. Durch die Kombination einer robusten Datenkuratierung, eines mehrstufigen Trainingsansatzes und effizienter Architekturoptimierungen erzielt das Modell eine hohe Leistung und Effizienz. Die Integration von LLMs als Text-Encoder und die Berücksichtigung realer Anwendungsfälle, wie die Robustheit gegenüber Domänenverschiebungen, unterstreichen das Potenzial von Xray-Visual für industrielle Anwendungen. Die kontinuierliche Forschung in Bereichen wie der Datenkuratierung, Modellarchitekturen und Trainingstechniken wird entscheidend sein, um die Grenzen des visuellen Verständnisses weiter zu verschieben und KI-Systeme zu entwickeln, die den Anforderungen komplexer realer Umgebungen gerecht werden.
- Mishra, S., Lin, T.-Y., Wang, L., Xu, H., Liu, Y., Hsu, M., Ahuja, C., Yuan, H., Cheng, J., Chen, H.-Y., Xu, H., Li, C., Awasthi, A., Moon, J., Husa, D., Ge, M., Singla, S., Chowdhury, A., Dingh, P., Shukla, S. N., Yang, Y., Jacobs, D., Guo, Q., Xiao, J., Fan, X., & Singh, A. (2026). Xray-Visual Models: Scaling Vision models on Industry Scale Data. https://arxiv.org/abs/2602.16918 - Hugging Face (2026). Xray-Visual Models: Scaling Vision models on Industry Scale Data. https://huggingface.co/papers/2602.16918 - Scientific Reports (2026). A lightweight multi-scale detection framework for X-ray images with supervised contrastive learning. https://www.nature.com/articles/s41598-026-38000-0 - Scientific Reports (2026). Efficient industrial point cloud anomaly detection via spatial context aggregation and selective anomalous feature generation. https://www.nature.com/articles/s41598-026-41255-2 - Scientific Reports (2026). An explainable vision transformer model with transfer learning for accurate bean leaf disease classification. https://www.nature.com/articles/s41598-026-41723-9 - DEV Community (2026). From Toy Model to DeepSeek Giant: The Innocence of x + f(x). https://dev.to/ryo_suwito/from-toy-model-to-deepseek-giant-the-innocence-of-x-fx-4peo
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen