Mit Gemini Robotics in eine neue Ära der Robotik
Google DeepMind setzt mit seinen neuen KI-Modellen Gemini Robotics und Gemini Robotics-ER neue Maßstäbe in der Robotik. Diese Modelle versprechen, Robotern ein deutlich verbessertes Verständnis ihrer Umgebung und komplexere Handlungsfähigkeiten zu verleihen. Gemini Robotics, basierend auf dem multimodalen Sprachmodell Gemini 2.0, erweitert dessen Fähigkeiten um die Dimension physischer Aktionen. Das bedeutet, Roboter können nicht nur eine größere Bandbreite an natürlichsprachlichen Anweisungen verstehen und ausführen, sondern auch ihr Verhalten dynamisch an menschliche Eingaben anpassen.
Durch die Integration des allgemeinen Weltverständnisses von Gemini 2.0 können Roboter neue Situationen besser verallgemeinern und somit auch Aufgaben bewältigen, für die sie nicht explizit trainiert wurden. Der Umgang mit unbekannten Objekten oder das Reagieren auf neue Befehle in unbekannten Umgebungen wird dadurch ermöglicht. Diese Flexibilität und Anpassungsfähigkeit erweitert die Einsatzmöglichkeiten von Robotern sowohl im industriellen als auch im privaten Bereich.
Neben der verbesserten Interaktion mit Menschen legt Gemini Robotics auch den Grundstein für gesteigerte Geschicklichkeit. Roboter erhalten die Fähigkeit, Objekte präziser zu manipulieren und komplexe, mehrstufige Aufgaben zu lösen. Ein entscheidender Vorteil von Gemini Robotics ist seine Plattformunabhängigkeit. Das Modell kann auf verschiedenen Robotertypen, von zweiarmigen Roboterplattformen wie Googles ALOHA 2 bis hin zu humanoiden Robotern wie Apptroniks Apollo, eingesetzt werden. Für komplexere Robotersysteme und anspruchsvollere Aufgaben kann Gemini Robotics angepasst und optimiert werden.
Gemini Robotics-ER: Räumliches Verständnis für präzise Aktionen
Gemini Robotics-ER (Embodied Reasoning) ergänzt Gemini Robotics um eine entscheidende Komponente: das erweiterte räumliche Verständnis. Dieses Modell verknüpft die Wahrnehmung der Umgebung mit der Robotersteuerung. Roboter können so Objekte in ihrer Umgebung nicht nur identifizieren, sondern auch deren Position im Raum präzise erfassen. Diese Information ermöglicht es ihnen, ihre Bewegungen optimal zu planen und Objekte sicher zu greifen oder zu manipulieren.
Die Entwicklung von Gemini Robotics und Gemini Robotics-ER erfolgt in enger Zusammenarbeit mit führenden Robotik-Unternehmen. Apptronik, Entwickler des humanoiden Roboters Apollo, ist ein enger Partner von Google DeepMind. Weitere Unternehmen wie Agile Robotics, Agility Robotics, Boston Dynamics und Enchanted Tools sind als "vertrauenswürdige Tester" involviert und erhalten Zugang zu Gemini Robotics-ER. Diese Kooperationen tragen dazu bei, die Modelle in realen Anwendungsszenarien zu erproben und weiterzuentwickeln. Die neuen KI-Modelle von Google DeepMind eröffnen vielversprechende Perspektiven für die Zukunft der Robotik. Durch die Kombination von fortschrittlichem Sprachverständnis, erweiterter Anpassungsfähigkeit und präzisem räumlichen Verständnis könnten Roboter in Zukunft noch komplexere Aufgaben übernehmen und in vielfältigen Bereichen zum Einsatz kommen.
Quellen:
- Heise Online: Google DeepMind: Zwei Gemini-KI-Modelle für intelligentere nützliche Roboter
- Golem.de: Gemini Robotics: Google stellt KI-Modelle für Roboter vor
- Heise Online: KI-Update: Gemini-KI für Roboter, Open-AI-Operator-KI-System schreibt Paper
- Logistik Heute: Künstliche Intelligenz: Neue Google-KI kann Roboter steuern
- all-ai.de: Google DeepMind enthüllt KI-Roboter – wird menschliche Arbeit überflüssig?
- Ingenieur.de: Google stellt mit Gemini Robotics KI-Modell für Roboter vor
- Maschinenmarkt: Neuartige Google-KI Gemini schafft neue Generation hilfreicher Roboter
- Steinlaus.de: Roboter werden schlauer: Gemini Robotics hebt die Latte
- Innovators-Guide.ch: DeepMind enthüllt neue KI-Modelle für die Robotik