Wähle deine bevorzugte Option:
für Einzelnutzer
für Teams und Unternehmen
Von der ersten Idee bis zur voll integrierten KI-Lösung – strukturiert, sicher und mit messbarem Erfolg
Wir analysieren Ihre Geschäftsprozesse und identifizieren konkrete Use Cases mit dem höchsten ROI-Potenzial.
✓ Messbare KPIs definiert
Vollständige Datenschutz-Analyse und Implementierung sicherer Datenverarbeitungsprozesse nach EU-Standards.
✓ 100% DSGVO-konform
Maßgeschneiderte Auswahl der optimalen KI-Lösung – von Azure OpenAI bis zu Open-Source-Alternativen.
✓ Beste Lösung für Ihren Fall
Schneller Proof of Concept mit nahtloser Integration in Ihre bestehende IT-Infrastruktur und Workflows.
✓ Ergebnisse in 4-6 Wochen
Unternehmensweiter Rollout mit umfassenden Schulungen für maximale Akzeptanz und Produktivität.
✓ Ihr Team wird KI-fit
Die Entwicklung von Robotern, die komplexe Aufgaben in der realen Welt bewältigen können, stellt die Robotikforschung vor große Herausforderungen. Ein vielversprechender Ansatz zur Verbesserung der Roboterfähigkeiten ist das sogenannte Pre-Training von visuellen Repräsentationen. Bisherige Ansätze nutzten dafür oft menschliche Videos, da große robotikspezifische Datensätze fehlten. Diese Methode führte jedoch zu Problemen aufgrund von Verteilungsverschiebungen und dem Mangel an dynamischen Informationen, die für die Ausführung von Roboteraufgaben entscheidend sind.
Eine neue Studie hat die Korrelation verschiedener vortrainierter Repräsentationen mit nachgelagerten Robotermanipulationsaufgaben untersucht und dabei den Begriff der "Manipulationszentrizität" eingeführt. Diese Kennzahl gibt an, wie gut die gelernten Repräsentationen die für Manipulationsaufgaben relevanten Informationen erfassen. Interessanterweise zeigte sich, dass eine hohe Manipulationszentrizität stark mit der Erfolgsrate bei der Ausführung von Aufgaben korreliert.
Aufbauend auf dieser Erkenntnis wurde das "Manipulation Centric Representation" (MCR) Framework entwickelt. MCR nutzt große robotikspezifische Datensätze wie DROID, um visuelle Repräsentationen zu trainieren, die speziell auf Manipulationsaufgaben zugeschnitten sind. Im Gegensatz zu früheren Ansätzen, die auf menschlichen Videos basieren, integriert MCR auch dynamische Informationen wie Roboteraktionen und propriozeptive Zustände.
Das MCR-Framework verwendet eine Kombination aus verschiedenen Verlustfunktionen, um die Lernleistung zu optimieren. Ein neuartiger kontrastiver Verlust sorgt dafür, dass visuelle Beobachtungen mit der Dynamik von Roboteraktionen und propriozeptiven Zuständen übereinstimmen. Zusätzlich wird ein Behavior Cloning (BC)-ähnlicher Verlust verwendet, um Aktionen während des Pre-Trainings vorherzusagen, sowie ein zeitkontrastiver Verlust, um zeitliche Informationen zu integrieren.
Die Wirksamkeit von MCR wurde in umfangreichen Experimenten sowohl in simulierten als auch in realen Umgebungen getestet. In Simulationen mit 20 verschiedenen Aufgaben in vier Domänen übertraf MCR die beste Vergleichsmethode um 14,8%. Auch in der realen Welt konnte MCR die Leistung eines UR5e-Roboterarms bei drei verschiedenen Aufgaben um beeindruckende 76,9% steigern.
Die Ergebnisse dieser Studie verdeutlichen das Potenzial von MCR und die Bedeutung von robotikspezifischen Datensätzen für das Pre-Training von Robotern. Die Integration dynamischer Informationen und die Fokussierung auf Manipulationszentrizität ermöglichen es, Roboterfähigkeiten deutlich zu verbessern. Zukünftige Forschung könnte sich darauf konzentrieren, MCR auf weitere Roboterplattformen und Aufgaben zu übertragen und die Skalierbarkeit des Ansatzes zu untersuchen. Die Entwicklung von noch größeren und vielfältigeren Robotik-Datensätzen wird ebenfalls eine wichtige Rolle spielen, um die Grenzen des MCR-Frameworks weiter auszuloten.
Bibliographie Jiang, G., et al. "Robots Pre-train Robots: Manipulation-Centric Robotic Representation from Large-Scale Robot Dataset." https://openreview.net/forum?id=yTEwmr1TJb Huang, T., et al. "OpenReview.net Robots Pre-train Robots: Manipulation-Centric Robotic Representation from Large-Scale Robot Dataset." https://openreview.net/pdf/bccfb3d0ff37f006d850b4580da6341307b5acfb.pdf Jiang, G., et al. "ロボットがロボットを事前訓練する:大規模ロボットデータセットからの操作中心のロボット表現." https://chatpaper.com/chatpaper/ja/paper/72122 Wang, Z., et al. "All Robots in One: A New Standard and Unified Dataset for Versatile, General-Purpose Embodied Agents." https://arxiv.org/html/2408.10899v1 Eysenbach, B., et al. "Open X-Embodiment: Robotic Learning Datasets and RT-X Models." https://www.researchgate.net/publication/382982173_Open_X-Embodiment_Robotic_Learning_Datasets_and_RT-X_Models Irshad, Z. "Awesome-Robotics-3D." https://github.com/zubair-irshad/Awesome-Robotics-3D Khazatsky, A., et al. "DROID: A Large-Scale In-The-Wild Robot Manipulation Dataset." https://arxiv.org/abs/2403.12945 Ramakrishnan, S., et al. "Octo: An Open-Source Multi-Agent Embodied AI Platform and Benchmark for Robotic Manipulation." https://octo-models.github.io/paper.pdf Wu, J., et al. "RoboCasa: A Realistic Simulation Benchmark for Household Robotics" https://robocasa.ai/assets/robocasa_rss24.pdf Chen, Y., et al. "SUGAR: Pre-training 3D Visual Representations for Robotics." https://openaccess.thecvf.com/content/CVPR2024/papers/Chen_SUGAR_Pre-training_3D_Visual_Representations_for_Robotics_CVPR_2024_paper.pdfLernen Sie in nur 30 Minuten kennen, wie Ihr Team mit KI mehr erreichen kann – live und persönlich.
🚀 Demo jetzt buchen