Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
In einer zunehmend globalisierten Welt suchen Nationen nach Wegen, um ihre künstliche Intelligenz (KI) unabhängig und auf ihre eigenen Bedürfnisse zugeschnitten zu entwickeln. Dabei geht es nicht nur um technologische Souveränität, sondern auch um die Einhaltung lokaler Werte und Gesetze. NVIDIA unterstützt diese Bestrebungen nun durch die Einführung von vier neuen NVIDIA Neural Inference Microservices (NIM).
Diese neuen Mikroservices sind darauf ausgelegt, die Erstellung und den Einsatz von generativen KI-Anwendungen zu vereinfachen. Sie unterstützen regional angepasste Modelle, die eine tiefere Benutzerbindung durch ein verbessertes Verständnis lokaler Sprachen und kultureller Nuancen ermöglichen. Dies führt zu genaueren und relevanteren Antworten.
Dieser Schritt erfolgt vor dem Hintergrund eines erwarteten Booms im asiatisch-pazifischen Markt für generative KI-Software. ABI Research prognostiziert einen Anstieg der Umsätze von 5 Milliarden US-Dollar in diesem Jahr auf beeindruckende 48 Milliarden US-Dollar bis 2030.
Zu den neuen Angeboten gehören zwei regionale Sprachmodelle: Llama-3-Swallow-70B, das auf japanischen Daten trainiert wurde, und Llama-3-Taiwan-70B, das für Mandarin optimiert ist. Diese Modelle sind darauf ausgelegt, ein gründlicheres Verständnis der lokalen Gesetze, Vorschriften und kulturellen Feinheiten zu besitzen.
Zusätzlich wird das japanische Sprachangebot durch die RakutenAI 7B Modellfamilie verstärkt. Diese Modelle, die auf dem Mistral-7B basieren und sowohl auf englischen als auch japanischen Datensätzen trainiert wurden, sind als zwei verschiedene NIM-Mikroservices für Chat- und Instruct-Funktionen verfügbar. Bemerkenswert ist, dass Rakutens Modelle beeindruckende Ergebnisse im LM Evaluation Harness-Benchmark erzielt haben und den höchsten Durchschnittswert unter den offenen japanischen großen Sprachmodellen zwischen Januar und März 2024 erreichten.
Das Training großer Sprachmodelle (LLMs) auf regionalen Sprachen ist entscheidend für die Verbesserung der Effizienz der Ausgaben. Durch die genaue Reflexion kultureller und sprachlicher Feinheiten ermöglichen diese Modelle eine präzisere und nuanciertere Kommunikation. Im Vergleich zu Basismodellen wie Llama 3 zeigen diese regionalen Varianten eine überlegene Leistung beim Verständnis von Japanisch und Mandarin, bei der Bearbeitung regionaler rechtlicher Aufgaben, beim Beantworten von Fragen sowie beim Übersetzen und Zusammenfassen von Texten.
Dieser globale Vorstoß für souveräne KI-Infrastrukturen zeigt sich in bedeutenden Investitionen von Ländern wie Singapur, den Vereinigten Arabischen Emiraten, Südkorea, Schweden, Frankreich, Italien und Indien.
„LLMs sind keine mechanischen Werkzeuge, die denselben Nutzen für alle bieten. Sie sind eher intellektuelle Werkzeuge, die mit der menschlichen Kultur und Kreativität interagieren. Der Einfluss ist wechselseitig, wobei nicht nur die Modelle von den Daten, auf denen wir sie trainieren, beeinflusst werden, sondern auch unsere Kultur und die Daten, die wir generieren, von LLMs beeinflusst werden“, sagte Rio Yokota, Professor am Global Scientific Information and Computing Center des Tokyo Institute of Technology.
„Daher ist es von größter Bedeutung, souveräne KI-Modelle zu entwickeln, die unseren kulturellen Normen entsprechen. Die Verfügbarkeit von Llama-3-Swallow als NVIDIA NIM-Mikroservice ermöglicht es Entwicklern, das Modell einfach zu nutzen und für japanische Anwendungen in verschiedenen Branchen bereitzustellen.“
NVIDIA’s NIM-Mikroservices ermöglichen es Unternehmen, Regierungsstellen und Universitäten, native LLMs in ihren eigenen Umgebungen zu hosten. Entwickler profitieren von der Möglichkeit, anspruchsvolle Copiloten, Chatbots und KI-Assistenten zu erstellen. Verfügbar mit NVIDIA AI Enterprise, sind diese Mikroservices für die Inferenzoptimierung unter Verwendung der Open-Source-Bibliothek NVIDIA TensorRT-LLM optimiert, was eine verbesserte Leistung und Bereitstellungsgeschwindigkeit verspricht.
Leistungsverbesserungen sind mit den Llama 3 70B Mikroservices offensichtlich, die als Basis für die neuen Llama–3-Swallow-70B und Llama-3-Taiwan-70B Angebote dienen. Diese bieten bis zu 5-mal höhere Durchsatzraten, was zu reduzierten Betriebskosten und verbesserten Benutzererfahrungen durch minimierte Latenzzeiten führt.
Die Einführung der neuen NVIDIA NIM-Mikroservices markiert einen bedeutenden Schritt in Richtung einer zunehmend souveränen und lokal angepassten KI. Durch die Unterstützung regionaler Sprachmodelle und die Optimierung der Inferenzleistung bietet NVIDIA eine robuste Plattform, die es Nationen und Unternehmen ermöglicht, ihre KI-Strategien effektiver und kulturell relevanter zu gestalten.
Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen