Werbung

Diese Sensoren geben Robotern einen menschenähnlichen Tastsinn

Dank des MIT-Labors für Informatik und künstliche Intelligenz CSAIL des MIT sind Roboter jetzt viel schlauer geworden.

Ted Adelson ist der Leiter der Gruppe, die vor acht Jahren die Roboterwelt zum ersten Mal begeisterte, als sein Team die neue Sensortechnologie GelSight vorstellte. Der Sensor kann eine unglaublich detaillierte 3D-Karte liefern, wenn er mit einem Objekt in physischen Kontakt kommt.


Jetzt montiert das Team diese Sensoren an den Greifern von Roboterarmen. Die Roboter haben dann ein besseres Verständnis für die Objekte, mit denen sie in Kontakt kommen.

Das Forscherteam stellte seine Arbeit letzte Woche auf der Internationalen Konferenz für Robotik und Automatisierung vor. Es wurden zwei Artikel vorgestellt, die ersten präsentierten Daten von GelSight, die zeigten, wie ein Roboter die Dichte der Oberflächen beurteilen konnte, mit denen er in Kontakt kommtDieser Aspekt ist entscheidend, wenn wir uns eine Zukunft vorstellen, in der Roboter immer mehr Gegenstände übergeben. Das andere Papier zeigte die gesammelten Daten, die zeigen, wie ein Roboter kleine Objekte mit seinen Roboterarmen mit installierten GelSight-Sensoren erfassen und manipulieren konnte.

Eine Low-Tech-Lösung für ein High-Tech-Problem

In der komplexen Welt der Robotik kann der GelSight-Sensor eine Low-Tech-Lösung für ein High-Tech-Problem sein. Der GelSight besteht aus einem kleinen Stück klarem Gummi oder „Gel“, wie es von seinen Entwicklern genannt wird.Eine Seite dieses Blocks ist mit reflektierender Metallicfarbe lackiert. Auf der gegenüberliegenden Seite der Farbe befinden sich drei farbige Lichter und eine Kamera. Wenn der Gummi gegen einen Gegenstand gedrückt wird, formt sich das Gel in diese Form. Die reflektierende Metallicfarbe erleichtert diesDamit der Computer seine Geometrie versteht und Algorithmen dafür generiert. Der Computer verwendet also die eingerückte Form und die Lichtreflexionen, um die dreidimensionale Form dessen zu verstehen, was er berührt.

[Bildquelle : Melanie Gonick / MIT ]

Guter Griff

Bei den in den Tests verwendeten Robotern waren die GelSight-Sensoren an den Händen ihres flachen Greifers installiert, mit denen sie Objekte und Testoberflächen aufnehmen konnten. Für einen autonomen Roboter ist es wichtig zu wissen, mit welchen Materialien er arbeitet. Wissen, wieHart oder weich ist das Material und wie sich das Material verhält, hilft ihnen bei der sicheren und effizienten Ausführung von Aufgaben. Die GelSight-Sensoren helfen Robotern auch dabei, die Materialität und das Verhalten von Objekten zu verstehen, die ansonsten sehr ähnlich aussehen.

Werbung

[Bildquelle : Melanie Gonick / MIT ]

Die menschliche Berührung verstehen

Vor den GelSight-Sensoren verwendeten Roboter die primitive Methode, Objekte zu „stupsen“, um die Materialien zu bestimmen, indem sie erfassten, wie viel „Geben“ in jedem Material enthalten war. Forscher am MIT überlegten, wie Menschen Materialität durch Kontakt verstehen. Wir gehen im Allgemeinen davon ausInformationen über die Eigenschaften eines Materials durch Analyse des Kontaktbereichs zwischen dem Objekt und unseren Fingern. Die Art und Weise, wie sich dieser Bereich ändert, gibt Aufschluss darüber, wie wir Materialien verstehen. Beispielsweise werden weichere Objekte häufig stärker abgeflacht, wodurch die Kontaktfläche zwischen Finger und Material vergrößert wird.

Diese aufregenden Entdeckungen des MIT-Teams bedeuten, dass Roboter näher als je zuvor daran sind, Teil unseres Alltags zu werden.

Via MIT

SIEHE AUCH : 3D-gedruckte Haut könnte Robotern endlich einen Tastsinn geben

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.