Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die rapide Entwicklung im Bereich der künstlichen Intelligenz, insbesondere bei generativen Modellen, führt zu ständigen Innovationen. Eine aktuelle Forschungsarbeit mit dem Titel "The Diffusion Duality, Chapter II: Ψ-Samplers and Efficient Curriculum" beleuchtet signifikante Fortschritte bei diskreten Diffusionsmodellen, die weitreichende Implikationen für die Sprach- und Bildmodellierung haben könnten.
Diskrete Diffusionsmodelle, insbesondere solche mit uniformem Zustand (Uniform-state Discrete Diffusion Models, USDMs), zeigen eine hohe Leistungsfähigkeit bei der Generierung und Steuerung in wenigen Schritten, da sie eine inhärente Fähigkeit zur Selbstkorrektur besitzen. Dies macht sie in bestimmten Szenarien gegenüber autoregressiven oder maskierten Diffusionsmodellen vorteilhaft. Ein limitierender Faktor war jedoch bisher die Skalierung der Stichprobenqualität bei zunehmender Anzahl von Schritten mittels traditioneller Ancestral Sampler.
Die aktuelle Forschungsarbeit stellt eine innovative Familie von Predictor-Corrector (PC)-Samplern für diskrete Diffusionsmodelle vor. Diese Sampler verallgemeinern bestehende Methoden und lassen sich auf beliebige Rauschprozesse anwenden. In Kombination mit Uniform-state Diffusion demonstrieren die neuen PC-Sampler eine überlegene Leistung gegenüber Ancestral Sampling in verschiedenen Aufgabenbereichen:
Ein entscheidender Vorteil dieser PC-Methoden ist ihre Fähigkeit, die Generierungsqualität kontinuierlich zu verbessern, wenn die Anzahl der Sampling-Schritte erhöht wird. Dies steht im Gegensatz zu konventionellen Samplern, deren Qualität bei mehr Schritten stagniert. Diese Erkenntnisse stellen die bisherige Annahme infrage, dass Masked Diffusion die unvermeidliche Zukunft des diffusionsbasierten Sprachmodellings darstellt.
Neben den Fortschritten beim Sampling wurde ein speichereffizientes Curriculum für die Trainingsphase der Gaußschen Relaxation entwickelt. Diese Methode reduziert die Trainingszeit um 25 % und den Speicherbedarf um 33 % im Vergleich zu früheren Ansätzen wie Duo, während sie eine vergleichbare Perplexität auf OpenWebText und LM1B sowie eine starke Downstream-Leistung beibehält. Das Curriculum Learning trägt dazu bei, die Varianz des Trainings zu reduzieren und somit die Konvergenz zu beschleunigen.
Die Forschungsarbeit baut auf der Idee der "Diffusion Duality" auf, die eine fundamentale Verbindung zwischen diskreter und kontinuierlicher Gaußscher Diffusion herstellt. Es wird gezeigt, dass diskrete Diffusionsprozesse als Transformationen zugrunde liegender kontinuierlicher Gaußscher Diffusionsprozesse verstanden werden können. Diese Dualität ermöglicht es, bewährte Techniken aus der Gaußschen Diffusion auf diskrete Modelle zu übertragen, was neue Möglichkeiten für effizientere Trainings- und Sampling-Algorithmen eröffnet.
Die praktischen Anwendungen dieser Dualität sind vielfältig. Durch die Integration von Techniken aus der Gaußschen Diffusion in das Design von USDMs konnten signifikante Verbesserungen erzielt werden:
Experimentelle Ergebnisse auf Standard-Sprachmodellierungs-Benchmarks wie LM1B und OpenWebText bestätigen die Überlegenheit der neuen Methode. Duo, der implementierte Ansatz, übertrifft frühere USDMs und Gaußsche Diffusionsmodelle und schließt die Lücke zu Absorbing State Diffusion Modellen auf weniger als 2 Perplexitätspunkte. Bei Zero-Shot-Evaluierungen auf sieben verschiedenen Datensätzen übertrifft Duo sogar autoregressive Transformatoren in drei Fällen.
Die vorgestellten Ergebnisse deuten darauf hin, dass die Integration von Konzepten aus der kontinuierlichen Gaußschen Diffusion in diskrete Modelle ein vielversprechender Weg ist, um deren Leistungsfähigkeit zu steigern. Insbesondere die Entwicklung von Ψ-Samplern und die Anwendung von Curriculum Learning bieten neue Perspektiven für die Gestaltung effizienterer und leistungsfähigerer generativer KI-Modelle. Die Arbeit legt eine theoretische Grundlage, die weitere Forschung anregen könnte, um diese Verbindungen zu nutzen und USDMs durch Übernahme von Techniken aus der Gaußschen Diffusion weiter zu verbessern – eine Verbindung, die für Masked Diffusion Models bisher nicht existiert.
Für Unternehmen, die auf fortschrittliche KI-Technologien angewiesen sind, bedeuten diese Entwicklungen konkrete Vorteile. Die signifikante Reduzierung der Trainingszeiten und des Speicherbedarfs kann zu erheblichen Kosteneinsparungen und einer Beschleunigung der Entwicklungszyklen führen. Die verbesserte Qualität und Effizienz der Generierung von Sprach- und Bildinhalten ermöglicht präzisere und leistungsfähigere Anwendungen in Bereichen wie Content-Erstellung, Datenanalyse und intelligenten Assistenzsystemen. Die Fähigkeit, Modelle mit weniger Rechenressourcen zu trainieren und schneller hochqualitative Ergebnisse zu erzielen, ist ein entscheidender Wettbewerbsvorteil in der heutigen datengesteuerten Wirtschaft.
Die detaillierten Ergebnisse und der Code sind auf der Projektseite der Autoren verfügbar, was die Reproduzierbarkeit und Weiterentwicklung dieser innovativen Ansätze fördert.
Bibliographie:
- Deschenaux, J., Gulcehre, C., & Sahoo, S. S. (2026). The Diffusion Duality, Chapter II: Ψ-Samplers and Efficient Curriculum. arXiv preprint arXiv:2602.21185. - Sahoo, S. S., Deschenaux, J., Gokaslan, A., Wang, G., Chiu, J. T., & Kuleshov, V. (2025). The Diffusion Duality. Proceedings of Machine Learning Research, 267, 52584-52619. - Deschenaux, J., Gulcehre, C., & Sahoo, S. S. (2026). ICLR Poster The Diffusion Duality, Chapter II: Ψ-Samplers and Efficient Curriculum. ICLR 2026. - Deep Learning Monitor. (n.d.). Find new Arxiv papers, tweets and Reddit ... Abgerufen von https://deeplearn.org/ - Hugging Face. (n.d.). Daily Papers. Abgerufen von https://huggingface.co/papers - Watson, D., Ho, J., Norouzi, M., & Chan, W. (2021). Learning to Efficiently Sample from Diffusion Probabilistic Models. arXiv preprint arXiv:2106.03802. - Sahoo, S. S., Deschenaux, J., Gokaslan, A., Wang, G., Chiu, J. T., & Kuleshov, V. (2019). The Diffusion Duality. arXiv preprint arXiv:2506.10892v1. - Sahoo, S. S., Deschenaux, J., Gokaslan, A., Wang, G., Chiu, J. T., & Kuleshov, V. (2025). THE DIFFUSION DUALITY. Published as a workshop paper at DeLTa Workshop (ICLR 2025). - Du, Y., Durkan, C., Strudel, R., Tenenbaum, J. B., Dieleman, S., Fergus, R., Sohl-Dickstein, J., Doucet, A., & Grathwohl, W. (2024). Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC. arXiv preprint arXiv:2302.11552v3.Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen