Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
In der Landschaft der künstlichen Intelligenz stellen multimodale große Sprachmodelle (MLLMs) einen entscheidenden Fortschritt dar, da sie die Verarbeitung und das Verständnis verschiedener Datenmodalitäten wie Text und Bilder ermöglichen. Während proprietäre MLLMs beeindruckende Fähigkeiten demonstrieren, hinken vollständig quelloffene Alternativen oft hinterher. Ein zentraler Grund hierfür ist die Qualität der Daten, die für das überwachte Fine-Tuning (SFT) verwendet werden. Bestehende Open-Source-Datensätze weisen häufig Rauschen auf und es mangelt an Daten für komplexes logisches Denken, wie es bei der Chain-of-Thought (CoT)-Methodik erforderlich ist. Dies hemmt die Entwicklung fortgeschrittener Modellfähigkeiten. Vor diesem Hintergrund wurde das Projekt „Bee“ ins Leben gerufen, um diese Herausforderungen gezielt anzugehen und eine neue Ära für vollständig offene MLLMs einzuleiten.
Ein Kernstück der „Bee“-Initiative ist die Einführung von Honey-Data-15M, einem neuen SFT-Datensatz, der etwa 15 Millionen Frage-Antwort-Paare umfasst. Dieser Datensatz ist das Ergebnis einer sorgfältigen Aufbereitung, die mehrere Reinigungstechniken und eine innovative duale CoT-Anreicherungsstrategie integriert. Die duale CoT-Strategie unterscheidet zwischen kurzen und langen Denkketten, um unterschiedliche Komplexitätsgrade des logischen Denkens abzudecken. Dies ermöglicht es dem Modell, sowohl prägnante Erklärungen als auch detaillierte, schrittweise Argumentationen zu erlernen. Die Qualität der Daten in Honey-Data-15M ist entscheidend, um das Potenzial von MLLMs voll auszuschöpfen und die Lücke zu proprietären Modellen zu schließen.
Die Forschung hinter „Bee“ unterstreicht, dass nicht die schiere Menge an Daten, sondern deren Qualität und spektrale Vielfalt der Schlüssel zur Entwicklung leistungsstarker MLLMs ist. Die Herausforderungen bei der Datenkuratierung für MLLMs sind vielfältig:
Honey-Data-15M begegnet diesen Problemen durch einen mehrstufigen Ansatz, der darauf abzielt, ein Höchstmaß an Datenintegrität und -relevanz zu gewährleisten.
Um die Erstellung und Pflege solch hochwertiger Datensätze zu ermöglichen, wurde HoneyPipe eingeführt, eine Datenkuratierungspipeline, die auf dem zugrunde liegenden Framework DataStudio basiert. Diese Suite bietet der Gemeinschaft eine transparente und anpassbare Methodik zur Datenkuratierung, die über statische Datensatzveröffentlichungen hinausgeht. Sie ermöglicht eine systematische, reproduzierbare und adaptive Sammlung und Filterung von Daten im großen Maßstab.
Die HoneyPipe-Pipeline ist modular aufgebaut und umfasst folgende Schritte:
Die vollständige Offenlegung des Quellcodes und der Rezepte ermöglicht es der Forschungsgemeinschaft, die Pipeline zu reproduzieren und kontinuierlich zu verfeinern, was die Nachhaltigkeit und Weiterentwicklung des Projekts sichert.
Zur Validierung des Datensatzes und der Pipeline wurde Bee-8B trainiert, ein 8-Milliarden-Parameter-Modell, das auf Honey-Data-15M basiert. Experimente zeigen, dass Bee-8B einen neuen Stand der Technik (SOTA) für vollständig quelloffene MLLMs etabliert. Das Modell erreicht eine Leistung, die mit aktuellen semi-offenen Modellen wie InternVL3.5-8B konkurrenzfähig ist und diese in einigen Fällen sogar übertrifft.
Bee-8B wurde mit einem fünfstufigen Trainingsregime entwickelt, das darauf abzielt, die multimodale Ausrichtung und die Denkfähigkeit zu maximieren:
Diese gestufte Methodik optimiert systematisch sowohl die Generalisierungsfähigkeit als auch die aufgabenspezifische Leistung, wobei jede Stufe inkrementelle Verbesserungen liefert, die in detaillierten Ablationsstudien dokumentiert sind.
Bee-8B wurde mit VLMEvalKit über mehrere Domänen hinweg evaluiert:
Bee-8B unterstützt zwei Inferenzmodalitäten: "Non-Thinking" (deterministische, prägnante Ausgabe) und "Thinking" (höhere Temperatur, längere Ausgabe für detaillierte Argumentation). Die Fortschritte von rohen zu angereicherten Daten und durch alle fünf Trainingsstufen werden in Radarplots und Ablationstabellen visualisiert, die konsistente Verbesserungen in Genauigkeit, Denkfähigkeit und Robustheit zeigen.
Das „Bee“-Projekt liefert mehrere grundlegende Beiträge:
Diese Infrastruktur positioniert „Bee-8B“ als reproduzierbare Grundlage für weitere Forschung, Experimente und Anpassungen in multimodalen Aufgaben und leistet einen wichtigen Beitrag zur Förderung der Open-Source-KI-Gemeinschaft.
Die Veröffentlichung von „Bee-8B“ eröffnet neue Wege für die Forschung an offenen MLLMs:
„Bee-8B“ und die unterstützende Open-Science-Infrastruktur sind bereit, weitere Fortschritte bei hochwertigen, vollständig quelloffenen multimodalen KI-Systemen für akademische und industrielle Anwendungen voranzutreiben.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen