Jetzt reinschauen – neue Umgebung live

Deepseek R1-0528: Fortschritte im Bereich Open-Source-KI-Modelle

Kategorien:
No items found.
Freigegeben:
June 3, 2025

Artikel jetzt als Podcast anhören

Deepseeks R1: Ein großer Schritt für Open-Source-KI-Modelle

Der chinesische KI-Entwickler Deepseek hat ein bedeutendes Update für sein Flaggschiffmodell R1 veröffentlicht. Die neue Version, Deepseek-R1-0528, verspricht erhebliche Leistungssteigerungen in verschiedenen Bereichen wie Mathematik, Programmierung und logischem Denken. Besonders bemerkenswert ist, dass diese Fortschritte ohne Änderungen an der ursprünglichen Architektur des Modells erzielt wurden, sondern durch verbesserte Algorithmen und erhöhte Rechenleistung.

Ein Schlüsselbereich der Verbesserung liegt im mathematischen Denkvermögen. Deepseek berichtet von einer Steigerung der Genauigkeit im AIME 2025 Mathe-Test von 70 auf 87,5 Prozent. Gleichzeitig verarbeitet das Modell nun deutlich mehr Informationen pro Anfrage, was auf eine tiefere Analyse hindeutet. Die durchschnittliche Anzahl an Tokens pro Prompt stieg von 12.000 auf 23.000. Neben der Leistungssteigerung betont Deepseek auch eine Reduzierung von Halluzinationen, also der Generierung von falschen oder unsinnigen Informationen, sowie eine erweiterte Unterstützung für JSON-Ausgabe und Funktionsaufrufe.

Breite Leistungssteigerungen über verschiedene Benchmarks

Die von Deepseek veröffentlichten Benchmarks zeigen Verbesserungen in einem breiten Spektrum von Aufgaben. In Mathematiktests wie AIME 2024, HMMT 2025 und CNMO 2024 erzielte R1-0528 deutlich höhere Punktzahlen als die Vorgängerversion. Ähnliche Fortschritte wurden auch in Programmier-Benchmarks wie LiveCodeBench, Aider-Polyglot und SWE Verified verzeichnet. Auch die Codeforces-Bewertung des Modells stieg von 1530 auf 1930 Punkte.

Im Bereich des allgemeinen Wissens und der Logik zeigen Benchmarks wie GPQA-Diamond, Humanity's Last Exam, MMLU-Pro und MMLU-Redux ebenfalls Verbesserungen. Eine leichte Ausnahme bildet OpenAI's SimpleQA, wo ein minimaler Rückgang zu verzeichnen ist. Deepseek betont, dass alle Tests mit standardisierten Parametern und einer maximalen Kontextlänge von 64.000 Tokens durchgeführt wurden.

Unabhängige Bewertung bestätigt Fortschritte

Die unabhängige Plattform Artificial Analysis bestätigt die von Deepseek berichteten Fortschritte. R1-0528 erreichte einen Wert von 68 auf dem Intelligence Index, ein deutlicher Anstieg gegenüber der vorherigen Version mit 60 Punkten. Dieser Sprung ist vergleichbar mit dem von OpenAI's o1 (62) zu o3 (70) und positioniert Deepseek im gleichen Leistungsbereich wie Google's Gemini 2.5 Pro. Artificial Analysis führt die Verbesserungen hauptsächlich auf verstärktes Post-Training mit Reinforcement Learning zurück. Der Token-Verbrauch in der Evaluierung stieg um 40 Prozent, was auf längere und detailliertere Antworten hindeutet.

Kompaktes Modell mit Fokus auf mathematisches Denken

Zusätzlich zum Haupt-Update hat Deepseek auch ein kleineres, destilliertes Modell namens Deepseek-R1-0528-Qwen3-8B veröffentlicht. Dieses basiert auf Alibabas Qwen3 8B und wurde mit Chain-of-Thought-Daten von R1-0528 nachtrainiert. Trotz seiner geringeren Größe erreicht dieses Modell im AIME 2024 eine Genauigkeit von 86 Prozent – vergleichbar mit dem deutlich größeren Qwen3-235B-thinking. Deepseek sieht dies als Beweis dafür, dass kompakte Modelle mit Fokus auf mathematisches Denken wettbewerbsfähige Ergebnisse bei deutlich geringerem Ressourcenbedarf liefern können.

Open-Source-Lizenzierung fördert Zugänglichkeit und Innovation

Deepseek-R1-0528 wird unter der MIT-Lizenz veröffentlicht, einer der freizügigsten Open-Source-Lizenzen. Dies ermöglicht eine breite Nutzung, Modifikation und Verbreitung des Modells, auch für kommerzielle Zwecke. Die Qwen-basierten Modelle von Deepseek, wie Deepseek-R1-0528-Qwen3-8B, fallen unter die Qianwen-Lizenz, die zwar einige Einschränkungen hinsichtlich der Weiterverbreitung modifizierter Werke enthält, aber dennoch eine kommerzielle Nutzung erlaubt.

Mit diesem Update schließt Deepseek die Lücke zu den führenden proprietären Modellen aus den USA und festigt gleichzeitig seine Position im Bereich der Open-Source-KI. Die Kombination aus hoher Leistung, offener Lizenzierung und Fokus auf effizientere Modelle macht Deepseek-R1-0528 zu einem wichtigen Akteur in der sich schnell entwickelnden KI-Landschaft.

Quellen: - https://the-decoder.com/deepseeks-r1-model-closes-the-gap-with-openai-and-google-after-major-update/ - https://www.theverge.com/ai-artificial-intelligence/676294/deepseek-r1-0528-ai-model-reasoning - https://profit.pakistantoday.com.pk/2025/05/30/deepseek-r1-update-narrows-gap-with-openai-and-google-in-ai-performance/ - https://cointelegraph.com/news/deepseek-claims-upgraded-model-reasons-better-has-reduced-hallucination-rate - https://medium.com/@leucopsis/deepseeks-new-r1-0528-performance-analysis-and-benchmark-comparisons-6440eac858d6 - https://www.cnbc.com/2025/05/29/chinas-deepseek-releases-upgraded-r1-ai-model-in-openai-competition.html - https://www.exchange4media.com/marketing-news/deepseek-unveils-upgraded-r1-model-challenges-openai-as-us-china-tensions-linger-143921.html - https://www.reddit.com/r/LocalLLaMA/comments/1kxry4x/new_upgraded_deepseek_r1_is_now_almost_on_par/ - https://medial.app/news/deepseek-says-a-new-r1-update-is-closing-the-gap-with-openai-o3-and-gemini-25-pro-c5aca8a9eafd4
Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.