Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Künstliche Intelligenz (KI) hat in den letzten Jahren bemerkenswerte Fortschritte gemacht, insbesondere im Bereich der visuellen Sprachmodelle (VLMs). Diese Modelle können Bilder erkennen, beschreiben und sogar Fragen dazu beantworten. Eine neue Studie der Technischen Universität Darmstadt zeigt jedoch, dass selbst die fortschrittlichsten KI-Bildmodelle bei einfachen Aufgaben der visuellen Logik versagen.
Die Forscher testeten verschiedene VLMs anhand von Bongard-Problemen – einfachen visuellen Rätseln, die die meisten Menschen intuitiv lösen können. Diese Rätsel, entwickelt vom russischen Wissenschaftler Michail Bongard, präsentieren zwölf einfache Bilder, die in zwei Gruppen unterteilt sind. Die Herausforderung besteht darin, die Regel zu identifizieren, die diese Gruppen trennt – eine Aufgabe, die abstraktes Denkvermögen erfordert.
Die Ergebnisse der Studie sind verblüffend: Die Modelle hatten Schwierigkeiten mit grundlegenden Aufgaben, die die meisten Menschen als einfach empfinden. So fiel es ihnen beispielsweise schwer, zwischen vertikalen und horizontalen Linien zu unterscheiden oder die Drehrichtung einer Spirale zu bestimmen. Diese grundlegenden visuellen Konzepte stellten selbst die fortschrittlichsten KI-Modelle vor Herausforderungen.
GPT-4o, das derzeit als das fortschrittlichste multimodale Modell gilt, konnte nur 21 von 100 visuellen Rätseln lösen. Andere bekannte KI-Modelle, darunter Claude, Gemini und LLaVA, schnitten noch schlechter ab. Selbst als die Forscher Multiple-Choice-Optionen bereitstellten, verbesserten sich die Ergebnisse nur geringfügig. Die KI-Modelle zeigten nur dann eine signifikante Verbesserung, wenn die Anzahl der möglichen Antworten stark eingeschränkt war – unter diesen Bedingungen schafften es GPT-4 und Claude, 68 bzw. 69 von 100 Rätseln zu lösen.
Die Forscher untersuchten die Gründe für das Scheitern der Modelle im Detail an vier ausgewählten Problemen. Sie fanden heraus, dass KI-Systeme manchmal bereits auf der grundlegenden Ebene der visuellen Wahrnehmung scheitern, noch bevor sie die eigentlichen Stufen des "Denkens" und "Schlussfolgerns" erreichen. Eine einzige klare Ursache konnten sie jedoch nicht ausmachen.
Die Studie wirft Fragen zur Evaluierung von KI-Systemen auf und legt nahe, dass bestehende Benchmarks die tatsächlichen Denkfähigkeiten von Modellen möglicherweise nicht genau messen. Das Forschungsteam empfiehlt, diese Benchmarks zu überdenken, um die visuellen Denkfähigkeiten von KI besser beurteilen zu können.
Die Ergebnisse verdeutlichen, dass es eine signifikante Lücke zwischen menschlicher und maschineller visueller Intelligenz gibt. Während Menschen in der Lage sind, komplexe visuelle Muster zu erkennen und zu interpretieren, kämpfen KI-Modelle noch immer mit grundlegenden Aufgaben. Die Studie unterstreicht die Notwendigkeit weiterer Forschung, um die visuellen Fähigkeiten von KI-Systemen zu verbessern und ihnen ein tieferes Verständnis für die visuelle Welt zu ermöglichen.
Lernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen