Werbung

Forscher bringen Robotern bei, Objekte wie Menschen zu greifen

Roboter lernen im Rahmen eines riesigen Forschungsprojekts, FAMULA, auf Objekte zu greifenUniversität Bielefeld. Das Forscherteam ist Teil des Exzellenzclusters Cognitive Interaction Technology CITEC.

Das Projekt arbeitet an einem Roboter, der zwei Hände hat, die in Form und Funktion den menschlichen Händen sehr ähnlich sind. Der Roboter lernt den Umgang mit Alltagsgegenständen wie Obst, Geschirr und anderen gängigen Haushaltsgegenständen.Der Roboter lernt auch, das Objekt anhand seiner Größe, Form und Farbe sowie anderer Faktoren zu unterscheiden, die den Roboter beim Greifen unterstützen.

[Bildquelle: Bielefeld]

Die im Rahmen dieses Projekts gesammelten Forschungsergebnisse werden zur Entwicklung von Robotern beitragen, die innerhalb von Haushalten unabhängig arbeiten können."Unser System lernt durch selbstständiges Ausprobieren und Erkunden - so wie Babys sich neuen Objekten nähern" sagt Neuroinformatik-Professor Dr. Helge Ritter, der das FAMULA-Projekt leitet.

Das Team musste wirklich verstehen, wie Menschen verstehen und verstehen, wie man differenzieren kann, bevor dieses Wissen Robotern vermittelt werden konnte. Dazu bildeten sie ein interdisziplinäres Team, das Forschung aus einer Vielzahl von Disziplinen nutzt. In einer Studie unter der Leitung von Sportwissenschaftler und Kognitionspsychologe Thomas Schack, die Probanden wurden gebeten, die Ähnlichkeit verschiedener Objekte zu vergleichen. „Es war überraschend, dass das Gewicht kaum eine Rolle spielt. Wir Menschen verlassen uns bei der Unterscheidung von Objekten hauptsächlich auf Form und Größe.“sagtThomas Schack

In einem anderen Test bedeckten die Forscher die Augen der Testpersonen, während sie Würfel mit unterschiedlichem Gewicht, Form und Größe handhabten, während Infrarotkameras die Bewegungen ihrer Hände aufzeichneten."Dadurch erfahren wir, wie Menschen ein Objekt berühren und welche Strategien sie bevorzugt anwenden, um seine Eigenschaften zu erkennen." erklärt Dirk Köster, Mitarbeiter von Schacks Forschungsgruppe. „Wir finden natürlich auch heraus, welche Fehler Menschen beim blinden Umgang mit Gegenständen machen.“

Werbung

Das Team hat diese Studien gemacht und bringt jetzt einem Roboter im Labor bei, wie man mit Gesten und einfachen Sprachbefehlen mit Objekten umgeht."Um zu verstehen, mit welchen Objekten sie arbeiten sollen, müssen die Roboterhände nicht nur gesprochene Sprache, sondern auch Gesten interpretieren können", Robotik-Privatdozent Sven Wachsmuth, Zentrallabor des CITEC erklärt.

Dr. Helge Ritter, der das FAMULA-Projekt leitet, geht weiter zu sagen, „Wir wollen buchstäblich verstehen, wie wir lernen, unsere Umwelt mit unseren Händen zu ‚greifen‘. Der Roboter ermöglicht es uns, unsere Erkenntnisse in der Realität zu überprüfen und die Lücken in unserem Verständnis rigoros aufzudeckentragen zum zukünftigen Einsatz komplexer, mehrfingeriger Roboterhände bei, die heute noch zu kostspielig oder komplex sind, um beispielsweise in der Industrie eingesetzt zu werden."

Werbung

ITEC hat rund eine Million Euro in FAMULA investiert und damit die Zukunft des Projekts gesichert.

Quellen: Bielefeld, EurekaAlert

SIEHE AUCH: Diese Sensoren geben Robotern ein menschenähnliches Tastgefühl

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.