Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Landschaft der Künstlichen Intelligenz im Bereich der Softwareentwicklung erlebt eine dynamische Entwicklung, insbesondere durch den Fortschritt großer Sprachmodelle (LLMs). Ein aktuelles Beispiel hierfür ist die Veröffentlichung des "DELULU"-Benchmarks durch Microsoft auf Hugging Face. Dieses neue Evaluierungstool zielt darauf ab, die Leistung von LLMs bei der Code-Vervollständigung, insbesondere bei sogenannten "Fill-in-the-Middle" (FIM)-Aufgaben, realistischer und diagnostizierbarer zu gestalten.
Die Code-Vervollständigung ist eine zentrale Funktion in modernen Entwicklungsumgebungen und ein wichtiges Anwendungsfeld für code-spezifische LLMs. Traditionelle Benchmarks wie HumanEval oder MBPP konzentrieren sich oft auf die Generierung eigenständiger Funktionen oder einzelner Dateien aus natürlicher Sprachbeschreibung. Sie berücksichtigen jedoch nicht die gängige Praxis, bestehenden Code iterativ zu modifizieren und zu erweitern.
Hier setzt das Konzept des "Fill-in-the-Middle" (FIM) an. Bei FIM-Aufgaben müssen Modelle fehlende Code-Segmente vervollständigen, wobei sowohl der vorhergehende (Präfix) als auch der nachfolgende (Suffix) Kontext berücksichtigt wird. Dies ahmt die realen Interaktionen von Entwicklern beim Schreiben und Bearbeiten von Code nach.
Im Kontext des FIM-Pretrainings haben sich zwei Hauptansätze etabliert:
Um die Effektivität von AST-FIM in realen Szenarien zu bewerten, wurde das "Real-FIM-Eval"-Benchmark entwickelt. Dieses Benchmark zeichnet sich durch folgende Merkmale aus:
Die Studien zur Evaluierung von FIM-Methoden wurden mit Llama-3-Architekturen in 1B- und 8B-Parametergrößen durchgeführt. Die Modelle wurden von Grund auf neu trainiert, wobei sowohl Rand-FIM als auch AST-FIM zum Einsatz kamen. Die Trainingsdaten bestanden zu 90% aus Programmiercodes von GitHub und zu 10% aus natürlicher Sprache.
Die Ergebnisse zeigen, dass AST-FIM Rand-FIM in allen Unteraufgaben des SAFIM-Benchmarks überlegen ist. Dies liegt daran, dass AST-FIM das Modell direkt darauf trainiert, maskierte AST-Strukturen zu vervollständigen, was gut mit dem Ziel des SAFIM-Benchmarks übereinstimmt, die Vervollständigung von AST-Strukturen zu bewerten. Noch wichtiger ist, dass AST-FIM auch auf dem Real-FIM-Eval-Benchmark eine bessere Leistung als Rand-FIM erzielt. Das durch AST-FIM bereitgestellte Trainingssignal ist besser auf reale Code-Bearbeitungsmuster abgestimmt, was zu einer überlegenen Leistung bei realistischen FIM-Aufgaben führt. Diese Leistungssteigerung ist über den gesamten Trainingsverlauf hinweg konsistent, wobei AST-FIM bereits nach 50-70% der Trainings-Tokens eine ähnliche Leistung wie Rand-FIM erreicht.
Ein wesentlicher Befund ist, dass AST-FIM die sogenannte "Left-to-Right" (L2R)-Generierungsfähigkeit der Modelle beibehält, ohne sie zu beeinträchtigen. Während Rand-FIM bei hohen FIM-Raten die L2R-Leistung negativ beeinflussen kann (was möglicherweise auf die Zerstörung kohärenter Code-Strukturen durch zufällige Maskierungen zurückzuführen ist), zeigt AST-FIM eine L2R-Leistung, die nahezu identisch mit der von rein L2R-trainierten Modellen ist. Dies deutet darauf hin, dass AST-FIM durch die Arbeit an sinnvollen Code-Strukturen die strukturelle Kohärenz des Codes bewahrt. Die Trainingsverluste von AST-FIM liegen zwischen denen von Rand-FIM und L2R, was darauf hindeutet, dass AST-FIM komplexer als L2R, aber einfacher als Rand-FIM zu lernen ist.
Die Erkenntnisse aus den 1B-Modellen bestätigen sich auch bei größeren 8B-Modellen. AST-FIM übertrifft Rand-FIM unter gleichen Bedingungen in L2R-Aufgaben und FIM-Aufgaben (SAFIM und Real-FIM-Eval). Das AST-FIM-Modell mit 8B Parametern, trainiert über 2 Billionen Tokens, zeigt eine wettbewerbsfähige Leistung im Vergleich zu anderen Basismodellen ähnlicher Größe und übertrifft diese in der Regel bei den FIM-Benchmarks.
Trotz der vielversprechenden Ergebnisse gibt es weiterhin Bereiche für Verbesserungen:
Die Entwicklung des "DELULU"-Benchmarks und die Fortschritte im AST-FIM-Pretraining durch Microsoft stellen einen wichtigen Schritt in der Optimierung von Code-LLMs dar. Für Unternehmen im B2B-Bereich, die auf effiziente und präzise Code-Generierung und -Vervollständigung angewiesen sind, ergeben sich daraus folgende Schlüsselerkenntnisse:
Die Integration syntax-bewusster Pretraining-Methoden in Decoder-only LLMs stellt einen Fortschritt dar, der die Fähigkeiten von Code-LLMs im Bereich der Code-Vervollständigung erheblich verbessert, ohne die Kernfunktionen der L2R-Generierung zu beeinträchtigen. Dies eröffnet neue Möglichkeiten für effektivere und intelligentere Werkzeuge in der Softwareentwicklung.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen