Lange Zeit waren Nvidias High-End-Grafikprozessoren der Hopper-Generation, insbesondere die H100, fast ausschließlich großen Unternehmen und Forschungseinrichtungen vorbehalten. Der Bedarf an den leistungsstarken KI-Beschleunigern überstieg die Produktionskapazitäten, und der Fokus lag auf der Belieferung von Schlüsselkunden wie Meta, Microsoft und Google. Doch nun zeichnet sich eine Veränderung ab: Die H100 hält Einzug in den deutschen Retail-Handel und wird damit auch für kleinere Unternehmen und Privatpersonen zugänglich.
Diese Entwicklung dürfte mit der fortschreitenden Verfügbarkeit der Nachfolgergeneration Blackwell, insbesondere der H200, zusammenhängen. Nvidia kann nun die Lieferketten für die Hopper-GPUs lockern und den Fokus auf die Produktion der neuen Architektur richten. Verschiedene Retail-Händler wie Mindfactory und Jacob Elektronik listen bereits unterschiedliche Varianten der H100.
Angeboten wird unter anderem die H100 NVL als PCI-Express-Steckkarte. Die NVL-Variante basiert auf der GH100-GPU mit 132 aktiven Streaming-Multiprozessoren, was 16.896 Shader-Kernen entspricht. Der Speicher besteht aus sechs HBM3-Stacks (High-Bandwidth Memory) mit einer Kapazität von 94 Gigabyte. Mit einer Boost-Taktfrequenz von 1837 MHz erreicht die H100 NVL eine Rechenleistung von 31 Teraflops (FP64), 62 Teraflops (FP32) und 124 Teraflops (FP16). Die integrierten Tensor-Kerne für KI-Berechnungen erreichen sogar bis zu 3341 Teraops (INT8) bei aktivierter Sparsity-Funktion.
Wichtig zu erwähnen ist, dass die H100 trotz ihrer hohen Rechenleistung nicht als Gaming-Grafikkarte geeignet ist. Lediglich 512 Shader-Kerne sind für das Rendern von 3D-Grafik zuständig – weniger als in den integrierten GPUs aktueller AMD-Ryzen-Prozessoren. Zudem verfügt die Karte über keine aktive Kühlung und benötigt daher eine leistungsstarke Gehäusebelüftung. Die Stärken der H100 liegen im Bereich KI-Berechnungen, Modellsimulationen und High-Performance-Computing (HPC).
Die H100 NVL ist im deutschen Retail-Handel ab etwa 30.700 Euro erhältlich. Auch die ursprüngliche H100 wird als PCIe-Karte angeboten, allerdings zu einem deutlich höheren Preis von rund 37.500 Euro. Diese Variante bietet mit 114 Shader-Multiprozessoren und 80 Gigabyte HBM2e-Speicher eine geringere Leistung. Die neueste Generation, die H200 mit 141 Gigabyte HBM3e-Speicher, ist bisher nur über spezialisierte Serverhändler verfügbar und kostet rund 35.400 Euro (exkl. MwSt.).
Nvidia bietet auch komplette DGX-Systeme an, die mit mehreren H100 oder H200 GPUs ausgestattet sind. So kostet das DGX B200 System mit acht B200-GPUs und zwei Intel Xeon Platinum 8570 Prozessoren knapp 565.000 Euro (exkl. MwSt.).
Obwohl Nvidia derzeit den Markt für KI-Beschleuniger dominiert, formiert sich zunehmende Konkurrenz. Unternehmen wie Google, Microsoft und AMD investieren in die Entwicklung eigener KI-Chips. Auch Startups wie Groq arbeiten an Alternativen zu Nvidias Produkten. Der zunehmende Wettbewerb könnte in Zukunft zu sinkenden Preisen und einer breiteren Verfügbarkeit von KI-Hardware führen.
Bibliographie: https://www.trendingtopics.eu/nvidia-h100-wer-hat-mehr/ https://www.golem.de/news/nvidia-h100-scalper-verkaufen-aktuelle-ki-gpus-bei-ebay-2304-173460.html https://www.elektronikpraxis.de/ki-chips-handelsbeschraenkungen-setzen-nvidias-china-geschaeft-zu-a-0b08882fde840a8c357ed3bb2dc64faa/ https://www.primeline-solutions.com/de/news-und-presse/nvidia-h100-das-neue-flaggschiff-fuer-enterprise-gpu-computing/ https://www.reddit.com/r/hardware/comments/16kaq82/nvidia_sold_900_tons_of_h100_gpus_last_quarter/?tl=de https://www.computerbase.de/2024-01/wettruesten-mit-openai-zuckerberg-will-340-000-nvidia-h100-gpus-fuer-die-agi-entwicklung/ https://www.wikifolio.com/de/de/blog/nvidia-lang-lebe-der-ki-koenig https://www.pcgameshardware.de/Kuenstliche-Intelligenz-Hardware-279517/News/Embargo-fuer-Nvidia-H100-1428074/Finde es heraus: KnowledgeGPT vernetzt dein gesamtes Unternehmenswissen und macht es nutzbar.
Beta-Platz reservieren: Nur 100 Plätze verfügbar.
Jetzt Platz reservieren