Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Google hat die neueste Version seines Foundation Models für Zeitreihenprognosen, TimesFM 2.0, veröffentlicht. Das Modell ist ab sofort über Hugging Face sowohl in JAX als auch in PyTorch verfügbar und verspricht signifikante Verbesserungen in der Genauigkeit und der maximalen Kontextlänge im Vergleich zur Vorgängerversion.
TimesFM 2.0 setzt neue Maßstäbe in der Zeitreihenprognose. Laut Google führt das Modell die GIFT-Eval-Rangliste in Bezug auf Punkt- und probabilistische Prognosegenauigkeit an. Die erweiterte Kontextlänge ermöglicht es dem Modell, längere Zeitreihen zu verarbeiten und somit komplexere Muster und Abhängigkeiten zu erkennen. Dies ist besonders relevant für Anwendungen, die von langfristigen Prognosen abhängig sind.
Ähnlich wie große Sprachmodelle basiert TimesFM auf einer Decoder-only Transformer-Architektur. Zeitreihenabschnitte, sogenannte "Patches", werden analog zu Tokens in Sprachmodellen behandelt. Das Modell verarbeitet diese Patches sequenziell und nutzt dabei den Kontext vergangener Daten, um zukünftige Werte vorherzusagen. Ein entscheidender Unterschied zu Sprachmodellen liegt in der Verarbeitung der Eingabedaten. TimesFM verwendet mehrschichtige Perzeptron-Blöcke, um die Zeitreihen-Patches in geeignete Token für die Transformer-Schichten umzuwandeln. Zusätzlich werden Positionskodierungen verwendet, um die zeitliche Reihenfolge der Daten zu berücksichtigen.
TimesFM 2.0 bietet eine hohe Flexibilität in Bezug auf Kontext- und Horizontlänge. Das Modell kann Zeitreihen mit unterschiedlichen Granularitäten verarbeiten, von hochfrequenten Daten bis hin zu jährlichen Werten. Die Frequenz der Daten wird dem Modell als kategorialer Indikator übergeben. Google empfiehlt spezifische Kategorien für unterschiedliche Frequenzbereiche, betont jedoch, dass diese auch als freier Parameter angepasst werden können, um den individuellen Anforderungen der Anwendung gerecht zu werden.
Die Veröffentlichung von TimesFM 2.0 in JAX und PyTorch erleichtert die Integration des Modells in bestehende Machine-Learning-Workflows. Hugging Face bietet detaillierte Anleitungen zur Installation und Verwendung des Modells. Entwickler können das Modell direkt über die bereitgestellten APIs verwenden und sowohl Array-Eingaben als auch Pandas DataFrames verarbeiten. Die Dokumentation enthält Codebeispiele für verschiedene Anwendungsfälle, die den Einstieg in die Nutzung von TimesFM 2.0 vereinfachen.
Die Veröffentlichung von TimesFM 2.0 unterstreicht die wachsende Bedeutung von Foundation Models für die Zeitreihenprognose. Die verbesserte Genauigkeit und Flexibilität des Modells eröffnen neue Möglichkeiten für Unternehmen und Entwickler. Für Mindverse als Anbieter von KI-gestützten Content-Tools bietet TimesFM 2.0 das Potenzial, die Funktionalität der Plattform zu erweitern und Kunden noch leistungsfähigere Lösungen für die Analyse und Prognose von Zeitreihendaten anzubieten.
Bibliographie: - https://x.com/GoogleAI/status/1877811801984757857 - https://huggingface.co/google/timesfm-2.0-500m-jax - https://huggingface.co/collections/google/timesfm-release-66e4be5fdb56e960c1e482a6 - https://github.com/google-research/timesfm/issues - https://huggingface.co/google/timesfm-2.0-500m-pytorch/tree/main - https://research.google/blog/a-decoder-only-foundation-model-for-time-series-forecasting/ - https://github.com/huggingface/transformers - https://huggingface.co/google/timesfm-1.0-200m-pytorchLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen