Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Bibliothek Hugging Face Transformers hat sich in den letzten fünf Jahren zu einem fundamentalen Baustein im Bereich des maschinellen Lernens entwickelt. Mit der Veröffentlichung der Version 5 wird nun ein bedeutender Meilenstein erreicht, der sich auf eine verbesserte Interoperabilität, Vereinfachung der Modelldefinitionen und Leistungssteigerungen konzentriert. Diese Entwicklung ist von Relevanz für alle Akteure im B2B-Sektor, die auf modernste KI-Modelle angewiesen sind.
Seit der ersten Release-Kandidaten-Version 4.0.0rc-1 im November 2020 hat sich die Nutzung der Transformers-Bibliothek exponentiell entwickelt. Die täglichen Installationen über Pip sind von 20.000 auf über 3 Millionen gestiegen, was insgesamt über 1,2 Milliarden Installationen bedeutet. Die Anzahl der unterstützten Modellarchitekturen hat sich von 40 auf über 400 erhöht, und die Community hat mehr als 750.000 kompatible Modell-Checkpoints auf dem Hugging Face Hub bereitgestellt. Dieses Wachstum unterstreicht die zentrale Rolle, die Transformers im sich ständig erweiternden KI-Ökosystem spielt.
Die Entwicklung von Version 5 wurde von mehreren Hauptzielen geleitet, die darauf abzielen, die Bibliothek noch zugänglicher und leistungsfähiger zu machen:
Ein zentrales Anliegen war die Vereinfachung der Codebasis und der Modellintegration. Ein modularer Ansatz, der bereits im vergangenen Jahr verstärkt verfolgt wurde, ermöglicht eine einfachere Wartung und schnellere Integration neuer Modelle. Dies reduziert den Aufwand für Entwickler und fördert eine breitere Standardisierung. Ein Beispiel hierfür ist die Einführung des AttentionInterface, das eine zentrale Abstraktion für Aufmerksamkeitsmechanismen bietet.
Die Werkzeuge zur Modellkonvertierung wurden ebenfalls verbessert. Mittels maschinellen Lernens werden Code-Ähnlichkeiten erkannt, um den Prozess der Integration neuer Modelle zu automatisieren und manuelle Schritte zu reduzieren. Dies soll die Konsistenz der Integrationen gewährleisten.
Das Training von Modellen bleibt ein Schwerpunkt. In Version 5 wurde die Unterstützung für das Vortraining und die Feinabstimmung in großem Maßstab erheblich verbessert. Dies beinhaltet Überarbeitungen der Modellinitialisierung, um die Kompatibilität mit verschiedenen Parallelisierungsansätzen zu gewährleisten, sowie die Implementierung optimierter Kernel für Vorwärts- und Rückwärtsdurchläufe. Die Bibliothek ist nun auch besser mit externen Tools wie TorchTitan, Megatron und NanoTron kompatibel.
Die Zusammenarbeit mit Tools zur Feinabstimmung wie Unsloth, Axolotl und LlamaFactory wird fortgesetzt, um eine breite Unterstützung für unterschiedliche Anwendungsfälle zu gewährleisten.
Die Inferenz wurde in Version 5 durch mehrere Paradigmenwechsel optimiert. Dazu gehören die Einführung spezialisierter Kernel, klarere Standardeinstellungen und neue APIs. Die Bibliothek unterstützt nun auch kontinuierliches Batching und Paged-Attention-Mechanismen, die intern bereits länger genutzt wurden und nun breiter verfügbar gemacht werden. Eine neue Funktion transformers serve ermöglicht zudem den Einsatz eines OpenAI-API-kompatiblen Servers zur Bereitstellung von Modellen.
Die Interoperabilität mit dedizierten Inferenz-Engines wie vLLM, SGLang und TensorRT-LLM wurde ebenfalls verstärkt, um die Nutzung der Transformers-Modelle in Produktionsumgebungen zu erleichtern.
Die Zusammenarbeit mit populären Inferenz-Engines wie ONNXRuntime, Llama.cpp und MLX wurde intensiviert, um die Kompatibilität zu verbessern. Dies ermöglicht es, Modelle, die in Transformers integriert werden, schnell in diesen Engines zu nutzen und deren Optimierungen zu profitieren. Ein Beispiel hierfür ist die einfache Konvertierung von Transformers-Modellen in GGUF-Dateien für die Nutzung mit Llama.cpp.
Auch die lokale Inferenz wird durch die Zusammenarbeit mit dem Executorch-Team vorangetrieben, um Modelle auf Endgeräten verfügbar zu machen, einschließlich multimodaler Modelle für Vision und Audio.
Die Quantisierung wird in Version 5 als erstklassige Funktion behandelt. Angesichts der zunehmenden Verbreitung von Modellen in niedriger Präzision (z.B. 8-Bit und 4-Bit) und der Optimierung von Hardware für solche Workloads, wurde die Quantisierungs-API überarbeitet. Veraltete Argumente wie load_in_4bit und load_in_8bit wurden zugunsten des umfassenderen quantization_config-Arguments entfernt.
Die kontinuierliche Weiterentwicklung zeigt sich auch in der jüngsten Version 5.5.0, die neue Modelle und weitere Verbesserungen mit sich bringt:
Version 5 führt auch einige breaking changes und wichtige API-Anpassungen ein, die von Entwicklern berücksichtigt werden sollten:
TokenizersBackend bevorzugt wird.torchscript und torch.fx wurde eingestellt, um sich auf die neueren APIs dynamo und export zu konzentrieren.use_auth_token wurden zugunsten von token ersetzt. Standardeinstellungen für report_to wurden auf "none" geändert, was eine explizite Angabe der Reporting-Backends erfordert.Die Version 5 von Hugging Face Transformers repräsentiert eine umfassende Überarbeitung und Weiterentwicklung, die darauf abzielt, die Nutzung von KI-Modellen noch effizienter und zugänglicher zu gestalten. Die Konzentration auf Interoperabilität, Vereinfachung und Leistungsverbesserungen wird voraussichtlich einen positiven Einfluss auf die Entwicklung und Bereitstellung von KI-Lösungen haben.
Die Community wird ermutigt, die Release-Kandidaten zu testen und Feedback zu geben, um die weitere Entwicklung zu unterstützen und sicherzustellen, dass die Bibliothek den Anforderungen des sich schnell entwickelnden KI-Sektors gerecht wird.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen