Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Das chinesische KI-Labor DeepSeek hat mit der Veröffentlichung seiner neuesten Modelle, V4-Pro und V4-Flash, eine bemerkenswerte Entwicklung im Bereich der Künstlichen Intelligenz (KI) eingeleitet. Diese Modelle, die mit bis zu 1,6 Billionen Parametern und einem Kontextfenster von einer Million Tokens ausgestattet sind, positionieren sich als ernstzunehmende Konkurrenten zu etablierten Anbietern wie OpenAI, Google und Anthropic, insbesondere durch ihre aggressive Preisgestaltung und technologische Effizienz.
Die DeepSeek V4-Modelle basieren auf einer Mischung aus Expertenarchitekturen (Mixture-of-Experts, MoE). V4-Pro verfügt über 1,6 Billionen Gesamtparameter mit 49 Milliarden aktiven, während V4-Flash mit 284 Milliarden Gesamtparametern und 13 Milliarden aktiven Parametern aufwartet. Beide Modelle bieten ein Kontextfenster von einer Million Tokens und sind unter der MIT-Lizenz als Open-Weight-Modelle auf Plattformen wie Hugging Face verfügbar.
Eine zentrale Innovation ist die neue hybride Aufmerksamkeitsarchitektur, die Token-Kompression mit DeepSeeks Sparse Attention kombiniert. Diese Architektur ermöglicht eine drastische Reduzierung des Rechenaufwands für die Verarbeitung langer Kontexte. Laut dem technischen Bericht benötigt V4-Pro nur 27 Prozent der FLOPs und 10 Prozent des KV-Caches im Vergleich zu seinem Vorgänger V3.2, wenn ein Kontext von einer Million Tokens verarbeitet wird. V4-Flash übertrifft diese Effizienz sogar noch, indem es den Bedarf auf 10 Prozent der FLOPs und 7 Prozent des KV-Caches senkt.
Diese Effizienzgewinne sind direkt in die Preisgestaltung eingeflossen. V4-Flash wird zu einem Preis von 0,14 US-Dollar pro Million Eingabetokens und 0,28 US-Dollar pro Million Ausgabetokens angeboten, was es günstiger macht als OpenAI's GPT-5.4 Nano. V4-Pro kostet 1,74 US-Dollar für Eingabe- und 3,48 US-Dollar für Ausgabetokens, womit es Gemini 3.1 Pro, GPT-5.5 und Claude Sonnet 4.6 deutlich unterbietet.
Auf dem GDPval-AA-Benchmark von Artificial Analysis führt V4-Pro alle Open-Weight-Modelle mit 1.554 Elo-Punkten an, noch vor GLM-5.1 (1.535) und Kimi K2.6 (1.484). Dies stellt einen signifikanten Sprung von etwa 355 Elo-Punkten gegenüber V3.2 dar. DeepSeek räumt jedoch ein, dass V4-Pro "leicht hinter GPT-5.4 und Gemini-3.1-Pro zurückbleibt" und den führenden Modellen etwa drei bis sechs Monate hinterherhinkt. Trotz dieses geringfügigen Leistungsunterschieds im Vergleich zu den absoluten Spitzenmodellen, könnte der enorme Kostenvorteil für viele Anwendungsfälle ausschlaggebend sein.
Die Veröffentlichung von DeepSeek V4-Pro und V4-Flash hat die Diskussion um die Wirtschaftlichkeit und Zugänglichkeit fortschrittlicher KI-Modelle neu entfacht. Während die führenden US-Modelle weiterhin in einigen Bereichen die Benchmark-Listen anführen, zwingt DeepSeek durch seine Preispolitik Entwickler und Unternehmen dazu, die Kosten-Nutzen-Rechnung bei der Bereitstellung von Hochleistungs-KI neu zu bewerten.
Hinsichtlich des Vortrainingskorpus bleibt das DeepSeek-Team relativ vage. V4-Flash wurde auf 32 Billionen Tokens trainiert, V4-Pro auf 33 Billionen. Der Fokus lag dabei auf mehrsprachigen Daten, sorgfältig kuratierten wissenschaftlichen Papieren und technischen Berichten sowie agentischen Daten während des Mittrainings. Webdaten wurden nach "stapelweise automatisch generierten und vorlagenbasierten Inhalten" gefiltert. Spezifische Datensätze oder Lizenzquellen werden im Paper nicht genannt.
Die Destillation spielt eine zentrale Rolle in der Post-Trainingsphase. DeepSeek hat die frühere gemischte Reinforcement-Learning-Phase vollständig durch On-Policy-Destillation ersetzt. Das Labor trainiert zunächst über zehn spezialisierte Inhouse-Modelle für Mathematik, Code, Agenten und Befolgung von Anweisungen mittels überwachtem Fine-Tuning und GRPO. Ein einziges Studentenmodell lernt dann von all diesen Inhouse-Lehrern.
DeepSeek hat V4 speziell für agentische Arbeitsabläufe entwickelt. Die Modelle sind in Tools wie Claude Code, OpenClaw und OpenCode integriert und werden bereits intern für agentisches Coding genutzt. Die API unterstützt sowohl OpenAI- als auch Anthropic-kompatible Schnittstellen.
Besonders hervorzuheben ist die Hardware-Kompatibilität: Das Experten-Parallelisierungsverfahren wurde sowohl auf Nvidia-GPUs als auch auf Huawei Ascend NPUs validiert. Der Open-Source-Mega-Kernel MegaMoE ist CUDA-basiert, und DeepSeek hat die cuBLAS-Bibliothek von Nvidia durch die eigene DeepGEMM ersetzt. Huawei hat zudem angekündigt, dass sein Ascend Supernode, basierend auf Ascend 950 AI-Chips, die V4-Modelle vollständig unterstützt.
Diese Entwicklungen unterstreichen DeepSeeks Bestreben, nicht nur leistungsstarke, sondern auch kosteneffiziente und flexibel einsetzbare KI-Modelle anzubieten, die den globalen Markt nachhaltig beeinflussen könnten.
Die Veröffentlichung der DeepSeek V4-Modelle hat das Potenzial, den Wettbewerb im Bereich der generativen KI weiter zu verschärfen. Indem DeepSeek "gut genug" Modelle zu einem Bruchteil der Kosten anbietet, übt es erheblichen Druck auf die Konkurrenz aus, ihre eigenen Preismodelle und Effizienzstrategien zu überdenken. Für Unternehmen bedeutet dies eine erweiterte Auswahl an leistungsstarken und kostengünstigen KI-Lösungen, die den Zugang zu fortschrittlicher KI demokratisieren könnten.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen