Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Die jüngsten Fortschritte in der Künstlichen Intelligenz (KI) haben dazu geführt, dass Modelle zunehmend multimodal werden und in der Lage sind, Text, Bilder, Sprache und Video zusammen zu verarbeiten. Während diese Modelle bei natürlichen Fotos und Porträts gut abschneiden, zeigen sie signifikante Schwächen beim Verständnis abstrakter visueller Darstellungen wie Diagrammen und Grafiken. Dies ergab eine Studie der Zhejiang University in China.
Die Forscher der Zhejiang University entwickelten eine Methode namens „multimodale Selbstanweisung“, um einen vielfältigen Datensatz mit 11.193 abstrakten Bildern und zugehörigen Fragen zu erstellen. Diese Bilder deckten acht gängige Szenarien ab: Dashboards, Straßenkarten, Diagramme, Tabellen, Flussdiagramme, Beziehungsgrafiken, visuelle Rätsel und 2D-Grundrisse. Mithilfe von Python-Bibliotheken wie Matplotlib wurden die Fragen eng an die Grafiken angepasst.
Als die Modelle auf diesem Datensatz getestet wurden, erzielten selbst fortschrittliche Modelle wie GPT-4o und Claude 3.5 Sonnet nur durchschnittliche Genauigkeiten von 64,7% bzw. 59,9% über alle Aufgaben hinweg. Dies liegt deutlich unter der menschlichen Leistung, die mindestens 82,1% betrug.
„Unser Benchmark zeigt, dass aktuelle multimodale Sprachmodelle weit von einer menschlichen Leistungsfähigkeit entfernt sind. Sie scheitern sogar an einfachen alltäglichen Aufgaben, z. B. das Ablesen der Uhrzeit auf einer Uhr oder das Planen einer Route mithilfe einer Karte“, schlussfolgern die Forscher.
Ein Beispiel: GPT-4o erzielte nur eine Genauigkeit von 54,8% bei Dashboard-Aufgaben, die das Ablesen von Uhren und Zählern beinhalteten. Die Modelle hatten auch Schwierigkeiten mit räumlichen Beziehungen in Grundrissen und machten Fehler bei abstrakten Konzepten in Diagrammen und Grafiken.
Offene Modelle schnitten noch schlechter ab, insbesondere bei Aufgaben des visuellen Denkens. Während geschlossene Modelle wie Claude 3.5 Sonnet bis zu 62% Genauigkeit bei der Navigation von Straßenkarten und visuellen Rätseln erreichten, lagen die kleineren offenen Modelle unter 20%.
Um zu testen, ob synthetische Daten die Leistung verbessern könnten, passten die Forscher das offene Llava-1.5-7B-Modell mit 62.476 Anweisungen für Grafiken, Tabellen und Straßenkarten an. Dies steigerte die Genauigkeit bei Straßenkartenaufgaben auf 67,7%, was GPT-4V um 23,3% übertraf.
Der Ansatz beruht auf geschlossenen Modellen wie GPT-4o zur Erstellung hochwertiger Referenzdaten, was kostspielig ist. Zukünftige Arbeiten zielen darauf ab, offene Modelle wie LLaMA 3 oder DeepSeek-V2 zu verwenden.
Die Forscher planen, über die aktuellen acht Szenarien hinaus zu erweitern und die Auflösung des visuellen Encoders zu erhöhen, den sie als eine wesentliche Einschränkung der aktuellen multimodalen Sprachmodelle ansehen.
Diese Studie trägt zu den wachsenden Beweisen bei, dass die Bildverarbeitung in großen Sprachmodellen je nach Nutzungsszenario noch nicht ausgereift ist. Eine kürzlich durchgeführte Studie zeigte, dass LMMs Probleme haben, spezifische visuelle Objekte in großen Bildsätzen zu finden.
Die aktuellen Schwächen von KI-Modellen beim Verständnis abstrakter visueller Darstellungen stellen eine bedeutende Herausforderung dar, insbesondere in professionellen Bereichen, die stark auf solche Informationen angewiesen sind. Die Verbesserung dieser Fähigkeiten könnte die Anwendbarkeit von KI in zahlreichen Branchen erheblich erweitern und ihre Effizienz und Zuverlässigkeit erhöhen.
Entdecken Sie die Vorteile gegenüber ChatGPT Plus
Sie nutzen bereits ChatGPT Plus? Das ist ein guter Anfang! Aber stellen Sie sich vor, Sie hätten Zugang zu allen führenden KI-Modellen weltweit, könnten mit Ihren eigenen Dokumenten arbeiten und nahtlos im Team kollaborieren.
Die professionelle KI-Plattform für Unternehmen – leistungsstärker, flexibler und sicherer als ChatGPT Plus. Mit über 50 Modellen, DSGVO-konformer Infrastruktur und tiefgreifender Integration in Unternehmensprozesse.
❌ Kein strukturierter Dokumentenvergleich
❌ Keine Bearbeitung im Dokumentkontext
❌ Keine Integration von Unternehmenswissen
✅ Gezielter Dokumentenvergleich mit Custom-Prompts
✅ Kontextbewusste Textbearbeitung im Editor
✅ Wissensbasierte Analyse & Zusammenfassungen
Erstellen Sie leistungsstarke Wissensdatenbanken aus Ihren Unternehmensdokumenten.Mindverse Studio verknüpft diese direkt mit der KI – für präzise, kontextbezogene Antworten auf Basis Ihres spezifischen Know-hows.DSGVO-konform, transparent und jederzeit nachvollziehbar.
❌ Nur ein Modellanbieter (OpenAI)
❌ Keine Modellauswahl pro Use Case
❌ Keine zentrale Modellsteuerung für Teams
✅ Zugriff auf über 50 verschiedene KI-Modelle
✅ Modellauswahl pro Prompt oder Assistent
✅ Zentrale Steuerung auf Organisationsebene
❌ Keine echte Teamkollaboration
❌ Keine Rechte- oder Rollenverteilung
❌ Keine zentrale Steuerung oder Nachvollziehbarkeit
✅ Teamübergreifende Bearbeitung in Echtzeit
✅ Granulare Rechte- und Freigabeverwaltung
✅ Zentrale Steuerung & Transparenz auf Organisationsebene
Nutzen Sie Mindverse Studio als zentrale Plattform für abteilungsübergreifende Zusammenarbeit.Teilen Sie Wissen, erstellen Sie gemeinsame Workflows und integrieren Sie KI nahtlos in Ihre täglichen Prozesse – sicher, skalierbar und effizient.Mit granularen Rechten, transparenter Nachvollziehbarkeit und Echtzeit-Kollaboration.
Sehen Sie Mindverse Studio in Aktion. Buchen Sie eine persönliche 30-minütige Demo.
🎯 Kostenlose Demo buchenLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen