Werbung

Überraschung! Wir können „beidmanuellen“ Robotern beibringen, wie man Speisen zu reiner Glückseligkeit rührt

Wir machen keine Witze.

3D-Rendering-Roboterhand mit Bratpfanne. PhonlamaiPhoto/iStock

Robotik ist macht große Fortschritte in einer Vielzahl von Bereichen, darunter einige ziemlich ungewöhnliche. Forscher des Idiap Research Institute in der Schweiz, der Chinese University of Hong Kong CUHK und der Wuhan University WHU haben jetzt eine auf maschinellem Lernen basierende Methode entwickelt, um Roboter zu unterrichtenzum Braten wie Profiköche, laut einem Bericht TechXplore veröffentlicht am Freitag.

Intelligente Roboter, die Essen zubereiten können

"Unsere jüngste Arbeit ist die gemeinsame Anstrengung von drei Labors: der Robot Learning & Interaction-Gruppe unter der Leitung von Dr. Sylvain Calinon am Idiap Research Institute und dem Collaborative and Versatile Robots-Labor unter der Leitung von Prof. Fei Chen Cuhk und dem Labor unter der Leitung vonProf. Miao Li an der WHU“, sagte Junjia Liu, eine der Forscherinnen, die die Studie durchgeführt hat.TechXplore.

"Unsere drei Labore studieren und arbeiten seit etwa zehn Jahren zusammen. Wir haben ein besonderes Interesse daran, intelligente Roboter herzustellen, die Essen für Menschen zubereiten können."

Die neue Forschung hofft, einen Roboterkoch zu schaffen, was bisher sehr schwer zu erreichen war.

„Obwohl Haushaltsroboter in den letzten Jahren erheblich weiterentwickelt wurden, bleibt die Schaffung eines Roboterkochs in der halbstrukturierten Küchenumgebung eine große Herausforderung“, sagte Liu.

"Essenszubereitung und Kochen sind zwei entscheidende Aktivitäten im Haushalt, und ein Roboterkoch, der beliebigen Rezepten folgen und automatisch kochen kann, wäre praktisch und würde ein neues interaktives Unterhaltungserlebnis bringen."

Um eine so komplexe Aufgabe wie das Braten zu erreichen, mussten Liu und sein Team zunächst ein bimanuelles Koordinationsmodell trainieren, das als „strukturierter Transformator“ bekannt ist. Sie taten dies mit menschlichen Demonstrationen.

„Dieser Mechanismus betrachtet die Koordination als ein Sequenztransduktionsproblem zwischen den Bewegungen beider Arme und verwendet ein kombiniertes Modell aus Transformator und GNN, um dies zu erreichen“, erklärte Liu.

Werbung

"Daher wird im Online-Prozess die Bewegung des linken Arms entsprechend dem visuellen Feedback angepasst, und die entsprechende Bewegung des rechten Arms wird durch das vortrainierte strukturierte Transformatormodell basierend auf der Bewegung des linken Arms generiert."

Kochen sowohl zu Hause als auch in der Öffentlichkeit

Liu hofft nun, dass sein neues und verbessertes Modell eines Tages die Entwicklung von Robotern einleiten könnte, die sowohl zu Hause als auch in der Öffentlichkeit Mahlzeiten zubereiten können. Es könnte auch zur Entwicklung von Robotern verwendet werden, die andere Aufgaben ausführen können, für die zwei Personen erforderlich sindArme und Hände. Ein gutes Beispiel ist diese bereits beliebte Pizza-Roboter.

"Wir werden jetzt höherdimensionale Informationen einführen, um mehr humanoide Bewegungen in Küchenfertigkeiten zu lernen, wie visuelle und elektromyografische Signale", schloss Liu.

"Die Abschätzung von halbflüssigen Inhalten in dieser Arbeit wurde vereinfacht als zweidimensionale Bildsegmentierung, und wir haben nur die relative Verschiebung als gewünschtes Ziel verwendet. Daher planen wir auch, einen umfassenderen Rahmen vorzuschlagen, der aus beiden bestehtBewegungen von bimanuellen Manipulatoren und die Zustandsänderung des Objekts."

Werbung

Die Ergebnisse der Studie wurden in der Zeitschrift veröffentlicht IEEE-Robotik- und Automatisierungsbriefe.

Zusammenfassung:
Dieser Brief beschreibt einen Ansatz, um auf einem bimanuellen Robotersystem bekannte chinesische Kochkunst zu braten. Rühren erfordert eine Abfolge hochdynamischer koordinierter Bewegungen, die für einen Koch normalerweise schwer zu erlernen, geschweige denn zu übertragen istRoboter. In diesem Brief definieren wir eine kanonische Pfannenbewegung und schlagen dann einen entkoppelten Rahmen zum Erlernen dieser Manipulation von deformierbaren Objekten aus menschlicher Demonstration vor. Zuerst werden Doppelalarme des Roboters in verschiedene Rollen ein Anführer und ein Anhänger entkoppelt und erlerntmit klassischen und auf neuronalen Netzen basierenden Methoden getrennt, dann wird die bimanuelle Aufgabe in ein Koordinationsproblem transformiert Um eine allgemeine bimanuelle Koordination zu erhalten, schlagen wir zweitens ein Graph- und Transformer-basiertes Modell vor – Structured-Transformer, um die räumlich-zeitliche Beziehung zwischen dual-Armbewegungen Schließlich kann unser Framework durch Hinzufügen eines visuellen Feedbacks der Verformung des Inhalts die Bewegungen automatisch anpassen, um das gewünschte Pfannengericht zu erreichen, zbeeinflussen.Wir verifizieren das Framework mit einem Simulator und setzen es auf einem echten bimanuellen Panda-Robotersystem ein.Die experimentellen Ergebnisse bestätigen, dass unser Framework die bimanuelle Roboter-Pfannenbewegung realisieren kann und das Potenzial hat, sich auf andere deformierbare Objekte mit bimanueller Koordination auszudehnen.

Folgen Sie uns auf

ERHALTEN SIE IHRE TÄGLICHEN NACHRICHTEN DIREKT IN IHREM INBOX

Bleiben Sie kostenlos mit den neuesten Nachrichten aus Wissenschaft, Technologie und Innovation auf dem Laufenden :

Durch das Abonnieren stimmen Sie unseren zuNutzungsbedingungen und Datenschutzerklärung. Sie können sich jederzeit abmelden.