Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Das chinesische Open-Source-KI-Ökosystem hat in den letzten Jahren eine bemerkenswerte Transformation durchlaufen. Insbesondere seit dem sogenannten "DeepSeek Moment" im Januar 2025, als DeepSeek sein R1-Modell veröffentlichte, welches die globale KI-Landschaft maßgeblich beeinflusste, sind strategische Veränderungen und eine explosionsartige Zunahme neuer Open-Source-Modelle und Akteure zu beobachten. Diese Entwicklung ist nicht nur auf die schiere Anzahl der Modelle beschränkt, sondern umfasst auch tiefgreifende architektonische und hardwarebezogene Entscheidungen, die das Fundament für ein nachhaltiges und flexibles KI-Ökosystem legen.
Ein zentraler architektonischer Trend im chinesischen Open-Source-KI-Sektor ist die fast einstimmige Hinwendung zu Mixture-of-Experts (MoE)-Architekturen. Führende Modelle wie Kimi K2, MiniMax M2 und Qwen3 haben diese Struktur übernommen. Obwohl DeepSeek R1 selbst kein MoE-Modell war, demonstrierte es die Machbarkeit, starke Schlussfolgerungsfähigkeiten offen, reproduzierbar und praktisch umsetzbar zu gestalten. Angesichts der realen Beschränkungen in China, wie etwa limitierte Rechenressourcen, hat sich MoE als eine natürliche Lösung erwiesen, um hohe Leistungsfähigkeit bei gleichzeitiger Kostenkontrolle zu gewährleisten und Modelle trainierbar, einsetzbar und weit verbreitet zu machen.
MoE-Modelle funktionieren wie ein steuerbares Rechenverteilungssystem. Innerhalb eines einzigen Fähigkeitsrahmens werden Rechenressourcen dynamisch zugewiesen, indem je nach Aufgabenkomplexität und Wert unterschiedliche Anzahlen von Experten aktiviert werden. Dies bedeutet, dass nicht jede Inferenz die volle Menge an Ressourcen verbraucht und nicht alle Bereitstellungsumgebungen identische Hardwarebedingungen aufweisen müssen. Die strategische Ausrichtung chinesischer Open-Source-Modelle im Jahr 2025 zielte somit nicht unbedingt auf die absolut höchste Leistung ab, sondern auf nachhaltigen Betrieb, flexible Bereitstellung und kontinuierliche Weiterentwicklung, um das beste Kosten-Leistungs-Verhältnis zu erzielen.
Ab Februar 2025 verlagerte sich der Fokus der Open-Source-Aktivitäten nicht mehr ausschließlich auf Textmodelle. Es erfolgte eine rasche Expansion in multimodale und agentenbasierte Richtungen. Modelle, die "Any-to-Any"-Funktionen bieten, Text-zu-Bild, Bild-zu-Video, Text-zu-Video, Text-to-Speech (TTS) sowie 3D-Modelle und Agenten entwickelten sich parallel. Die Gemeinschaft trieb dabei nicht nur Modellgewichte voran, sondern ein vollständiges Set an Engineering-Assets, einschließlich Inferenz-Bereitstellung, Datensätzen und Evaluierung, Toolchains, Workflows und Edge-to-Cloud-Koordination. Das gleichzeitige Aufkommen von Videogenerierungstools, 3D-Komponenten, Destillationsdatensätzen und Agenten-Frameworks deutete auf mehr als isolierte Durchbrüche hin – es signalisierte wiederverwendbare System-Level-Fähigkeiten.
Der Wettbewerb um die Führung in nicht-textuellen Modalitäten, ähnlich dem Einfluss von DeepSeek im Textbereich, intensivierte sich. StepFun veröffentlichte leistungsstarke multimodale Modelle, die sich in der Audio-, Video- und Bildgenerierung sowie -verarbeitung oder -bearbeitung auszeichneten. Das neueste Speech-to-Speech-Modell, Step-Audio-R1.1, erreichte Spitzenleistungen und übertraf proprietäre Modelle. Tencent spiegelte diese Verlagerung durch Open-Source-Arbeiten in den Bereichen Video und 3D wider. Modelle wie Hunyuan Video und Projekte wie Hunyuan 3D zeugen von einem wachsenden Wettbewerb jenseits textzentrierter Modelle.
Modelle im Bereich von 0,5 Milliarden bis 30 Milliarden Parametern erfreuten sich zunehmender Beliebtheit, da sie leichter lokal ausführbar, fein abstimmbar und in Geschäftssysteme sowie Agenten-Workflows integrierbar sind. Ein Beispiel hierfür ist die Qwen-Serie, bei der Qwen 1.5-0.5B die meisten Derivatmodelle aufweist. In Umgebungen mit begrenzter Rechenleistung oder strengen Compliance-Anforderungen eignen sich diese kleineren Modelle wesentlich besser für den langfristigen Betrieb. Gleichzeitig nutzten führende Akteure oft große MoE-Modelle im Bereich von 100 Milliarden bis 700 Milliarden Parametern als Kapazitätsgrenzen oder "Lehrermodelle", um diese Fähigkeiten dann in viele kleinere Modelle zu destillieren. Dies führte zu einer klaren Struktur: einige sehr große Modelle an der Spitze und viele praktische Modelle darunter. Der wachsende Anteil kleiner Modelle in monatlichen Übersichten reflektierte den realen Nutzungsbedarf in der Gemeinschaft.
Nach der Veröffentlichung von DeepSeek R1 wurde Apache 2.0 zur nahezu standardmäßigen Wahl für Open-Source-Modelle der chinesischen Gemeinschaft. Permissivere Lizenzen senkten die Hürden für die Nutzung, Modifikation und Bereitstellung von Modellen in der Produktion erheblich, was Unternehmen die Integration von Open-Source-Modellen in reale Systeme erleichterte. Die Vertrautheit mit Standardlizenzen wie Apache 2.0 und MIT erleichterte ebenfalls die Nutzung; präskriptive und maßgeschneiderte Lizenzen schaffen durch Unkenntnis und neue rechtliche Barrieren zusätzliche Reibung, was zu einem Rückgang ihrer Verwendung führte.
Im Jahr 2025 erfolgte eine deutliche Ausrichtung der Modellveröffentlichungen an Inferenz-Frameworks, Quantisierungsformaten, Serving-Engines und Edge-Runtimes. Ein vorrangiges Ziel war nicht mehr nur, Modellgewichte zum Download anzubieten, sondern sicherzustellen, dass Modelle direkt auf der Ziel-Hardware im Inland laufen konnten – und zwar zuverlässig und effizient. Diese Veränderung zeigte sich am deutlichsten auf der Inferenzseite. Beispielsweise bot DeepSeek-V3.2-Exp von Tag eins an Unterstützung für Huawei Ascend- und Cambricon-Chips, nicht als Cloud-Demos, sondern als reproduzierbare Inferenz-Pipelines, die zusammen mit den Gewichten veröffentlicht wurden, um Entwicklern die direkte Validierung der realen Leistung zu ermöglichen.
Gleichzeitig zeigten sich Signale auf der Trainingsseite. Die Open-Source-Modelle "Ling" der Ant Group nutzen optimiertes Training auf inländischen KI-Chips, um eine Leistung nahe der NVIDIA H800 zu erreichen, wodurch die Kosten für das Training von einer Billion Token um etwa 20 % gesenkt wurden. Die offenen Qianfan-VL-Modelle von Baidu dokumentierten klar, dass das Modell auf einem Cluster von mehr als 5.000 Baidu Kunlun P800-Beschleunigern, ihren Flaggschiff-KI-Chips, trainiert wurde, mit Details zur Parallelisierung und Effizienz. Anfang 2026 wurden sowohl Zhipus GLM-Image als auch das neueste offene Modell von China Telecom, TeleChat3, als vollständig auf inländischen Chips trainiert angekündigt. Diese Offenlegungen zeigten, dass inländische Rechenkapazitäten nicht mehr auf die Inferenz beschränkt waren, sondern begonnen hatten, in Schlüsselphasen der Trainings-Pipeline einzutreten.
Auf der Serving- und Infrastrukturseite werden Engineering-Fähigkeiten systematisch Open Source zur Verfügung gestellt. Moonshot AI veröffentlichte sein Serving-System "Mooncake" und unterstützte explizit Funktionen wie die Trennung von Prefill/Decoding. Durch die Bereitstellung produktionsreifer Erfahrungen in Open Source erhöhten diese Bemühungen die Basislinie für Bereitstellung und Betrieb in der gesamten Community erheblich, wodurch Modelle zuverlässiger und in großem Maßstab ausgeführt werden konnten. Diese Richtung spiegelte sich im gesamten Ökosystem wider. Baidus FastDeploy 2.0 betonte extreme Quantisierung und Cluster-Level-Optimierung, um Inferenzkosten bei knappen Rechenbudgets zu reduzieren. Alibabas Qwen-Ökosystem verfolgte eine Full-Stack-Integration, die Modelle, Inferenz-Frameworks, Quantisierungsstrategien und Cloud-Bereitstellungs-Workflows eng aufeinander abstimmte, um die Reibung von der Entwicklung bis zur Produktion zu minimieren. Berichte über Rechenbeschränkungen in China bedrohen jedoch die Expansion; Zhipu AI schränkt Berichten zufolge die Nutzung inmitten eines Rechenengpasses ein.
Wenn Modelle, Tools und Engineering zusammen geliefert werden, wächst das Ökosystem nicht mehr durch das Hinzufügen von Projekten, sondern durch strukturelle Differenzierung auf einer gemeinsamen Basis – und beginnt, sich eigenständig zu entwickeln. Die Frage, wie China auf die US-Hardwareverkäufe und Exportkontrollen reagieren wird, während NVIDIA H200s verkauft, bleibt weiterhin offen. Die Verschiebung der globalen Compute-Landschaft ist dabei von zentraler Bedeutung.
Der "DeepSeek Moment" im Januar 2025 löste mehr als nur eine Welle neuer offener Modelle aus. Er zwang zu einer tiefergehenden Neubetrachtung, wie KI-Systeme gebaut werden sollten, wenn Open Source nicht mehr optional, sondern grundlegend ist und warum diese zugrunde liegenden Entscheidungen nun strategisches Gewicht haben.
Chinesische Unternehmen optimieren nicht mehr nur isolierte Modelle. Stattdessen verfolgen sie unterschiedliche architektonische Wege, die darauf abzielen, vollständige Ökosysteme aufzubauen, die für eine Open-Source-Welt geeignet sind. In einer zunehmend kommodifizierten Modelllandschaft signalisieren diese Entscheidungen eine klare Verschiebung des Wettbewerbs von der Modellleistung zum Systemdesign.
Bibliographie:
- Architectural Choices in China's Open-Source AI Ecosystem. Hugging Face Blog. Verfügbar unter: https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment-blog-2 - Beyond DeepSeek: China's Diverse Open-Weight AI Ecosystem and Its Policy Implications. Stanford HAI. Verfügbar unter: https://hai.stanford.edu/assets/files/hai-digichina-issue-brief-beyond-deepseek-chinas-diverse-open-weight-ai-ecosystem-policy-implications.pdf - One Year Since the “DeepSeek Moment”. Hugging Face Blog. Verfügbar unter: https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment - China’s Open Source AI Strategy: Global Shifts in the Race for Artificial Intelligence. BeAiThink. Verfügbar unter: https://beaithink.com/open-source-ai-strategy-global-shifts-in-the-race-for-artificial-intelligence/ - China's drive toward self-reliance in artificial intelligence: from chips ... MERICS. Verfügbar unter: https://merics.org/en/report/chinas-drive-toward-self-reliance-artificial-intelligence-chips-large-language-models - The Inference Revolution: How China's Open-Source and Domestic ... Interesting Engineering. Verfügbar unter: https://interestingengineering.substack.com/p/the-inference-revolution-how-chinasLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen