Für Teams, Einzelnutzer, Kanzleien und Transkription – derselbe Mindverse Look, klar aufgeteilt nach Anwendungsfall.
für Teams und Unternehmen
Die Plattform für Unternehmen, die eigene KI-Workflows, Wissensdatenbanken und Assistenten produktiv einsetzen möchten.
für Einzelnutzer und Creator
Der einfachste Einstieg in das Mindverse-Ökosystem für Content, Recherche, Bilder, Audio und produktives Arbeiten.
für Juristen und Kanzleien
Die spezialisierte KI-Lösung für juristische Recherche, Vertragsarbeit und kanzleispezifische Workflows.
für Audio, Meetings und Transkription
Schnelle KI-Transkription für Audiodateien und Meetings – ideal zum sofortigen Start oder für regelmäßige Nutzung.

Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Welt der Künstlichen Intelligenz entwickelt sich rasant weiter, und mit ihr die Anforderungen an die Robustheit, Zuverlässigkeit und Wartbarkeit von KI-Anwendungen. In diesem Kontext haben IBM Research und seine Partner kürzlich bedeutende Neuerungen vorgestellt: die Veröffentlichung von Mellea 0.4.0 und den zugehörigen Granite Libraries. Diese Entwicklungen zielen darauf ab, die Erstellung strukturierter, überprüfbarer und sicherheitsbewusster KI-Workflows auf Basis von IBM Granite-Modellen zu vereinfachen und zu optimieren.
Mellea ist eine Open-Source-Python-Bibliothek, die darauf ausgelegt ist, probabilistisches Prompt-Verhalten durch strukturierte, wartbare und vorhersagbare KI-Workflows zu ersetzen. Im Gegensatz zu allgemeinen Orchestrierungs-Frameworks konzentriert sich Mellea auf die Wartbarkeit und Vorhersagbarkeit von LLM-basierten Programmen durch Funktionen wie Constraint-Decoding, strukturierte Reparaturzyklen und komponierbare Pipelines.
Die neueste Version, Mellea 0.4.0, baut auf den grundlegenden Bibliotheken und Workflow-Primitiven von Version 0.3.0 auf. Sie erweitert die Integrationsmöglichkeiten der Bibliothek und führt neue Architekturmuster für die Strukturierung generativer Workflows ein. Zu den wichtigsten Neuerungen gehören:
Die Granite Libraries stellen eine Sammlung spezialisierter Modelladapter dar. Deren Zweck ist es, klar definierte Operationen auf Teile einer Eingabekette oder Konversation durchzuführen. Anstatt auf allgemeines Prompting zu setzen, ist jedes spezialisierte Modell für eine spezifische Aufgabe feinabgestimmt, wie beispielsweise die Abfrageumschreibung, die Erkennung von Halluzinationen oder die Überprüfung der Richtlinienkonformität. Durch den Einsatz spezialisierter Adapter kann die Genauigkeit jeder Aufgabe bei einem moderaten Kostenaufwand für die Parameteranzahl erhöht werden, ohne die Fähigkeiten des Basismodells zu beeinträchtigen.
Im Rahmen dieser Veröffentlichung wurden drei Libraries für das Granite-4.0-Micro-Modell vorgestellt, die jeweils auf unterschiedliche Pipeline-Aufgaben abzielen und aus einer Sammlung von LoRA-Adaptern bestehen:
Die Entwicklung von Mellea ist ein Forschungsprojekt von IBM Research, das darauf abzielt, die Interaktion mit Sprachmodellen so vorhersagbar wie jede andere Software zu gestalten. Dies geschieht unter anderem durch das Auferlegen von Anforderungen zur Inferenzzeit. Mellea ist Teil einer umfassenderen Forschungsagenda, die IBM als "Generative Computing" bezeichnet. Diese Vision sieht einen strukturierteren und vereinfachten Designansatz vor, der es schlanken, quelloffenen LLMs wie den Granite-Modellen ermöglichen soll, ebenso gut oder besser als größere Modelle zu performen.
Ein Kernproblem, das Mellea zu lösen versucht, ist die Unzuverlässigkeit von LLM-Aufrufen in KI-gesteuerten Pipelines. Durch die Einführung von typisierten Ausgaben, überprüfbaren Anforderungen und automatischen Wiederholungsversuchen soll die Robustheit und Testbarkeit von KI-Anwendungen erheblich verbessert werden. Dies ist besonders relevant für kleine und mittelgroße Sprachmodelle (SLMs), die aufgrund ihrer geringeren Rechenleistung, Speicherkapazität und Energieeffizienz zunehmend an Bedeutung gewinnen.
Die Integration von Mellea 0.4.0 mit den Granite Libraries eröffnet Unternehmen neue Möglichkeiten, KI-Anwendungen effizienter und zuverlässiger zu gestalten. Die Nutzung spezialisierter Adapter und strukturierter Workflows kann dazu beitragen, die Genauigkeit von Aufgaben zu erhöhen und gleichzeitig die Komplexität und die Fehleranfälligkeit zu reduzieren.
Die Verfügbarkeit dieser Tools als Open Source unterstreicht das Engagement von IBM, die Entwicklung und Anwendung von vertrauenswürdiger und transparenter KI zu fördern. Die Möglichkeit, generative Programme als OpenAI-kompatible Modell-Endpoints zu betreiben oder in bestehende Python-Klassen zu integrieren, bietet Entwicklern eine hohe Flexibilität.
Die kontinuierliche Weiterentwicklung von Mellea und den Granite-Modellen, einschließlich der geplanten Veröffentlichung weiterer Modellgrößen und Varianten mit expliziter Begründungsunterstützung, signalisiert einen klaren Fokus auf die Verbesserung der praktischen Anwendbarkeit von KI im Unternehmenskontext. Ziel ist es, die Eintrittsbarrieren für fortgeschrittene KI zu senken und Unternehmen sowie Open-Source-Entwicklern kostengünstigen Zugang zu hochleistungsfähigen LLMs zu ermöglichen.
Die Kombination aus Mellea zur Strukturierung von Workflows und den spezialisierten Granite Libraries zur Aufgabenoptimierung stellt einen Schritt in Richtung einer reiferen und stabileren KI-Entwicklung dar, die von der reinen Experimentierphase zu einer Phase der zuverlässigen und wartbaren Implementierung übergeht.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen