Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Google hat die allgemeine Verfügbarkeit seiner sechsten Generation von Tensor Processing Units (TPUs), genannt Trillium oder v6e, für Google Cloud-Kunden bekannt gegeben. Die neuen Chips versprechen einen erheblichen Leistungssprung für KI-Anwendungen und sollen die steigenden Anforderungen von großen, multimodalen KI-Modellen erfüllen. Google betont neben der Leistungssteigerung auch die verbesserte Energieeffizienz der neuen TPU-Generation.
Die Trillium TPUs wurden speziell für das Training, die Feinabstimmung und die Inferenz von komplexen KI-Modellen entwickelt. Sie bilden das Herzstück von Googles "AI Hypercomputer", einer Supercomputer-Architektur, die leistungsoptimierte Hardware mit offener Software, gängigen ML-Frameworks und flexiblen Nutzungsmodellen kombiniert. Die Architektur integriert über 100.000 Trillium-Chips pro Jupiter-Netzwerkstruktur mit einer Bandbreite von 13 Petabit/s und ermöglicht die Skalierung verteilter Trainingsaufgaben auf Hunderttausende von Beschleunigern. Zu den wichtigsten Verbesserungen von Trillium gegenüber der Vorgängergeneration gehören:
Eine mehr als vierfache Verbesserung der Trainingsleistung
Eine bis zu dreifache Steigerung des Inferenzdurchsatzes
Eine um 67 Prozent höhere Energieeffizienz
Eine 4,7-fache Steigerung der Spitzenrechenleistung pro Chip
Die doppelte High Bandwidth Memory (HBM)-Kapazität
Die doppelte Interchip Interconnect (ICI)-Bandbreite
Die Trillium TPUs sollen in einer Vielzahl von KI-Workloads überzeugen, darunter:
Skalierung von KI-Trainingsworkloads
Training von LLMs, einschließlich dichter und Mixture of Experts (MoE)-Modelle
Inferenzleistung und Sammlungsplanung
Einbettungsintensive Modelle
Bereitstellung von Preis-Leistungs-Verhältnis für Training und Inferenz
Google hebt die nahezu lineare Skalierbarkeit von Trillium hervor, die es ermöglicht, große Modelle wie Gemini 2.0 deutlich schneller zu trainieren. Durch die Verteilung der Arbeitslast auf mehrere Trillium-Hosts, die über eine Hochgeschwindigkeitsverbindung innerhalb eines 256-Chip-Pods und das Jupiter-Rechenzentrumsnetzwerk verbunden sind, wird eine hohe Effizienz erreicht. Auch bei der Optimierung bestehender KI-Modelle durch Feinabstimmung mit eigenen Trainingsdaten soll Trillium punkten. Für Inferenzaufgaben bietet Trillium eine verbesserte Leistung und neue Funktionen wie die Sammlungsplanung, die eine intelligente Verwaltung mehrerer TPU-Slices ermöglicht.
Trillium-TPU-Instanzen sind in Europa im Rechenzentrum Amsterdam verfügbar. Die Preise richten sich nach der Nutzungsdauer und beginnen bei 2,97 US-Dollar pro Chipstunde bei On-Demand-Nutzung. Bei einer zugesicherten Nutzung von einem Jahr sinkt der Preis auf 2,08 US-Dollar, bei drei Jahren auf 1,34 US-Dollar. Weitere Standorte für Trillium-Instanzen sind South Carolina, Ohio und Tokio.
Mit Trillium stellt Google eine leistungsstarke und energieeffiziente Hardware für KI-Anwendungen in der Cloud bereit. Die neuen TPUs versprechen, die Entwicklung und den Einsatz von großen, multimodalen KI-Modellen zu beschleunigen und die Innovation im Bereich der Künstlichen Intelligenz voranzutreiben. Die verbesserte Skalierbarkeit und die neuen Funktionen wie die Sammlungsplanung machen Trillium zu einer attraktiven Option für Unternehmen und Forschungseinrichtungen, die KI-Lösungen entwickeln und einsetzen.
Bibliographie: https://www.heise.de/news/KI-Chips-Google-bringt-Trillium-TPUs-in-die-Cloud-10197085.html https://de.marketscreener.com/kurs/aktie/ALPHABET-INC-24203373/news/Google-bringt-Trillium-Chip-auf-den-Markt-und-verbessert-die-Leistung-von-KI-Rechenzentren-um-das-F-46721919/ https://cloud.google.com/blog/products/compute/trillium-tpu-is-ga https://cloud.google.com/tpu?hl=de https://de.tradingview.com/news/reuters.com,2024:newsml_L8N3HH7UV:0/ https://the-decoder.de/google-soll-dank-eigener-tpu-chips-ki-rechenleistung-dominieren/ https://www.golem.de/news/tpu-v6e-alias-trillium-googles-neuer-ki-beschleuniger-rechnet-deutlich-schneller-2405-185127.html https://the-decoder.de/google-setzt-auf-ki-chip-designer-alphachip-bereits-in-dritter-tpu-generationen-im-einsatz/ https://blog.google/feed/trillium-tpus/Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen