Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Landschaft der Künstlichen Intelligenz (KI) ist einem stetigen Wandel unterworfen, angetrieben durch kontinuierliche Innovationen im Bereich der großen Sprachmodelle (LLMs). Eine jüngste Entwicklung, die in Fachkreisen aufmerksam verfolgt wird, ist die Veröffentlichung des technischen Berichts zu Qwen3, der neuesten Iteration der Qwen-Modellfamilie. Diese Serie von LLMs, entwickelt vom Qwen-Team, zielt darauf ab, die Grenzen der Leistungsfähigkeit, Effizienz und mehrsprachigen Kompetenz zu erweitern.
Die Qwen3-Serie zeichnet sich durch eine hybride Architektur aus, die sowohl dichte Modelle als auch Mixture-of-Expert (MoE)-Architekturen umfasst. Diese Vielfalt ermöglicht eine breite Palette von Anwendungen und Skalierungen, mit Parametern von 0,6 Milliarden bis zu beeindruckenden 235 Milliarden. Insbesondere die MoE-Modelle, wie Qwen3-235B-A22B (mit 235 Milliarden Gesamtparametern und 22 Milliarden aktivierten Parametern) und Qwen3-30B-A3B (mit 30 Milliarden Gesamtparametern und 3 Milliarden aktivierten Parametern), demonstrieren, wie durch spezialisierte Experten eine hohe Leistung bei gleichzeitig optimiertem Rechenaufwand erzielt werden kann.
Die Möglichkeit, zwischen verschiedenen Modellgrößen zu wählen, bietet Unternehmen die Flexibilität, die KI-Ressourcen präzise auf ihre spezifischen Anforderungen abzustimmen. Kleinere Modelle wie Qwen3-4B können beispielsweise die Leistung von Vorgängermodellen mit deutlich mehr Parametern übertreffen, was eine effizientere Nutzung der Infrastruktur ermöglicht.
Ein zentrales Merkmal von Qwen3 ist die Einführung eines hybriden Ansatzes zur Problemlösung, der einen "Denkmodus" und einen "Nicht-Denkmodus" in einem einzigen Framework vereint. Diese Integration eliminiert die Notwendigkeit, zwischen verschiedenen Modellen für unterschiedliche Aufgaben – beispielsweise zwischen einem chat-optimierten Modell und einem spezialisierten Reasoning-Modell – zu wechseln.
Diese Flexibilität wird durch einen "Denkbudget"-Mechanismus ergänzt, der es Benutzern ermöglicht, Rechenressourcen während der Inferenz adaptiv zuzuweisen. Dadurch kann ein Gleichgewicht zwischen Latenz und Leistung basierend auf der Komplexität der Aufgabe gefunden werden. Dies stellt einen Fortschritt in der Kontrolle und Effizienz von LLMs dar, insbesondere für B2B-Anwendungen, bei denen sowohl Geschwindigkeit als auch Präzision von Bedeutung sind.
Die mehrsprachige Unterstützung von Qwen3 wurde signifikant ausgebaut. Während Qwen2.5 29 Sprachen unterstützte, erweitert Qwen3 diese Fähigkeit auf beeindruckende 119 Sprachen und Dialekte. Diese Erweiterung verbessert die globale Zugänglichkeit und ermöglicht ein optimiertes sprachübergreifendes Verständnis sowie eine verbesserte Generierungsfähigkeit. Für international agierende Unternehmen bedeutet dies eine erhebliche Erleichterung bei der Implementierung globaler KI-Lösungen, die in der Lage sind, mit einer breiten Palette von Sprachen und kulturellen Nuancen umzugehen.
Empirische Bewertungen belegen, dass Qwen3 in diversen Benchmarks herausragende Ergebnisse erzielt. Dazu gehören Bereiche wie Codegenerierung, mathematisches Denken und Agentenaufgaben. Die Modelle zeigen sich dabei wettbewerbsfähig gegenüber größeren MoE-Modellen und proprietären Lösungen. Dies unterstreicht das Potenzial von Qwen3, in anspruchsvollen Geschäftsbereichen eingesetzt zu werden, von der Automatisierung komplexer Entwicklungsprozesse bis hin zur Unterstützung bei datenintensiven Analysen.
Die Optimierung für Agentenfunktionen ist ein weiterer Schwerpunkt, der Qwen3 für die Integration in intelligente Systeme prädestiniert, die externe Tools nutzen oder komplexe, mehrstufige Aufgaben autonom bewältigen müssen.
Die Leistungssteigerung von Qwen3 ist das Ergebnis eines erweiterten und verfeinerten Trainingsprozesses. Im Vergleich zu Qwen2.5, das mit 18 Billionen Tokens vortrainiert wurde, nutzt Qwen3 fast die doppelte Menge an Daten, nämlich etwa 36 Billionen Tokens, die 119 Sprachen und Dialekte abdecken. Diese umfangreiche Datenbasis wurde nicht nur aus dem Web, sondern auch aus PDF-ähnlichen Dokumenten gewonnen, wobei Qwen2.5-VL zur Textextraktion und Qwen2.5 zur Qualitätsverbesserung eingesetzt wurde. Um die Menge an mathematischen und Code-Daten zu erhöhen, wurden synthetische Daten mittels Qwen2.5-Math und Qwen2.5-Coder generiert.
Der Vortrainingsprozess erfolgte in drei Stufen:
Nach dem Vortraining erfolgte ein vierstufiger Post-Trainings-Pipeline, um die hybriden Fähigkeiten des Modells zu entwickeln. Dieser umfasste langes Chain-of-Thought (CoT) Cold Start, reasoning-basiertes Reinforcement Learning (RL), die Fusion des Denkmodus und allgemeines RL. Diese Schritte zielen darauf ab, das Modell mit grundlegenden Denkfähigkeiten auszustatten, die Erkundungs- und Verwertungsfähigkeiten zu verbessern und eine nahtlose Mischung aus Argumentation und schnellen Antwortfähigkeiten zu gewährleisten.
Alle Qwen3-Modelle sind unter der Apache 2.0 Lizenz öffentlich zugänglich, was die Reproduzierbarkeit und die gemeinschaftsgetriebene Forschung und Entwicklung fördert. Dies ist ein wichtiger Aspekt für Unternehmen, die auf Open-Source-Lösungen setzen oder eigene Anpassungen vornehmen möchten.
Die Modelle sind auf Plattformen wie Hugging Face, ModelScope und Kaggle verfügbar. Für die Bereitstellung werden Frameworks wie SGLang und vLLM empfohlen, während für die lokale Nutzung Tools wie Ollama, LMStudio, MLX, llama.cpp und KTransformers zur Verfügung stehen. Dies erleichtert die Integration von Qwen3 in bestehende Workflows in Forschung, Entwicklung und Produktionsumgebungen.
Qwen3 stellt einen bedeutenden Fortschritt in der Entwicklung von KI-Modellen dar. Die Kombination aus skalierbarer Architektur, innovativen Denkmodi, umfassender Mehrsprachigkeit und starker Leistung in verschiedenen Benchmarks positioniert Qwen3 als ein leistungsfähiges Werkzeug für Unternehmen, die ihre KI-Strategien weiterentwickeln möchten. Die fortlaufende Forschung und Entwicklung zielt darauf ab, die Modelle in Bezug auf Datenumfang, Modellgröße, Kontextlänge, Modalitäten und Reinforcement Learning mit Umgebungsfeedback weiter zu verbessern, um den Übergang von modellzentriertem Training zu agentenzentriertem Training zu unterstützen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen