Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
In der dynamischen Landschaft der Künstlichen Intelligenz (KI) stellt die Automatisierung komplexer Entwicklungsschritte einen entscheidenden Fortschritt dar. Hugging Face, bekannt für seine Beiträge zur Open-Source-KI-Community, hat kürzlich „ml-intern“ vorgestellt – einen autonomen KI-Agenten, der den Post-Training-Workflow von Large Language Models (LLMs) optimieren soll. Eine bemerkenswerte Erweiterung dieses Tools ist der neu implementierte „YOLO-Modus“, der die Fähigkeiten des Agenten in der Durchführung umfangreicher und zeitintensiver Aufgaben erweitert.
ml-intern ist als Open-Source-KI-Agent konzipiert, der die Aufgaben eines Machine Learning (ML)-Ingenieurs autonom ausführen kann. Dazu gehören das Lesen von Forschungsarbeiten, das Trainieren von Modellen und das Bereitstellen von ML-Modellen. Die Entwicklung dieses Agenten zielt darauf ab, den gesamten Forschungs- und Entwicklungszyklus zu automatisieren, der traditionell erhebliche manuelle Eingriffe von ML-Forschenden und -Ingenieuren erfordert.
Die Funktionen von ml-intern umfassen:
Die gesamte Überwachungsinfrastruktur basiert auf Trackio, einem Hub-nativen Experiment-Tracker, der als Open-Source-Alternative zu kommerziellen Lösungen positioniert ist.
Der kürzlich hinzugefügte „YOLO-Modus“ erweitert die Fähigkeiten von ml-intern erheblich. Dieser Modus ermöglicht es dem Agenten, langwierige Aufgaben auszuführen, wie beispielsweise parallele Abalationsstudien, um die optimale Datenmischung für einen Post-Training-Lauf zu bestimmen. Diese Funktion adressiert einen häufigen Engpass in der ML-Entwicklung, bei dem die manuelle Durchführung solcher Experimente zeitaufwendig und ressourcenintensiv ist. Durch die Automatisierung dieser Prozesse kann der YOLO-Modus die Effizienz und Geschwindigkeit der Modelloptimierung potenziell steigern.
Die Leistungsfähigkeit von ml-intern wurde anhand des PostTrainBench-Benchmarks evaluiert, der von Forschenden der Universität Tübingen und des Max-Planck-Instituts eingeführt wurde. Dieser Benchmark testet die Fähigkeit eines Agenten, ein Basismodell innerhalb eines strengen Zeitfensters von 10 Stunden auf einer einzigen H100-GPU nachzutrainieren.
In einer offiziellen Demo gelang es ml-intern, das Qwen3-1.7B-Basismodell, das initial einen GPQA-Score von etwa 10% erreichte, innerhalb von 10 Stunden auf 32% zu verbessern. Dies stellt eine signifikante Steigerung dar, insbesondere im Vergleich zu Modellen wie Claude Code, das auf derselben Aufgabe einen Benchmark von 22,99% erreichte. Die Fähigkeit von ml-intern, 32% aus dem relativ kleinen 1.7B Qwen-Modell zu extrahieren, deutet auf eine hohe „Dateneffizienz“ hin, die manuelle Forscher in einem so kurzen Zeitrahmen oft nur schwer reproduzieren können.
Zusätzlich demonstrierte ml-intern in anderen Tests fortgeschrittene Trainingsstrategien:
ml-intern ist auf dem smolagents-Framework von Hugging Face aufgebaut und integriert sich nativ in das Ökosystem von Hugging Face, einschließlich Hugging Face Jobs für Rechenleistung. Die Architektur beinhaltet eine „Agentic Loop“ mit bis zu 300 Iterationen pro Aufgabe, einen Kontextmanager für die Nachrichtenhistorie und automatische Komprimierung sowie einen ToolRouter für den Zugriff auf Hugging Face Dokumente, Datensätze, Jobs und GitHub-Codesuche. Die Ausführung erfolgt in einer Sandbox-Umgebung.
Das Tool ist über ein Kommandozeilen-Interface (CLI) und als mobile sowie Desktop-Webanwendung zugänglich. Hugging Face stellt zudem GPU-Ressourcen und Anthropic-Credits für frühe Nutzer bereit, um die Adoption des Tools zu fördern.
Die Einführung von ml-intern und insbesondere des YOLO-Modus durch Hugging Face markiert einen Schritt in Richtung vollautomatisierter ML-Entwicklungsprozesse. Die Fähigkeit, komplexe und langwierige Aufgaben autonom zu bewältigen, könnte die Effizienz in der Forschung und Entwicklung von KI-Modellen signifikant steigern. Die Open-Source-Natur des Projekts ermöglicht es der Community, die Grenzen und Möglichkeiten dieses Tools weiter zu erforschen und anzupassen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen