Hören - Sehen - Fühlen: Entwicklung von Basis-Skills für humanoide Roboter
Archivmeldung vom 04.05.2006
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 04.05.2006 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittKein Streit mehr um die lästige Haushaltsarbeit - Karlsruhe, Mai 2012 Herr und Frau S. machen es sich nach dem Abendessen vor dem TV-Screen gemütlich, aus der Küche ist das Klappern von Geschirr zu hören. Hier ist der neue Mitbewohner ARMAR damit beschäftigt, den Tisch abzuräumen und das benutzte Geschirr in die Spülmaschine zu stellen.
Sein Vorgänger hatte hin und wieder ein Glas zerdrückt oder fallen gelassen, so etwas passiert dem neuen ARMAR nicht mehr. Er kann erkennen, ob ein Gegenstand leicht zerbrechlich ist und passt seine Greifbewegung entsprechend an. Als das Telefon klingelt hebt er mit leisem Surren den Kopf und setzt sich dann in Richtung des Läutens in Bewegung um den Apparat Herrn oder Frau S. zu bringen.
ARMAR ist ein "humanoider Roboter", der speziell als Assistent des Menschen für Serviceleistungen konzipiert ist und derzeit im DFG-Sonderforschungsbereich SFB 588 von mehreren Projektpartnern entwickelt wird. Das Fraunhofer-Institut für Informations- und Datenverarbeitung IITB in Karlsruhe leitet das Teilprojekt R2 in dem - im Gegensatz zu konventionellen Robotersteuerungssystemen - ein informationsbasiertes, lernfähiges und strukturvariables Überwachungs- und Regelungskonzept erarbeitet wird.
Für die Entwicklung und die Optimierung verschiedener multisensoriell geregelter Fähigkeiten (engl.: Skills) wurde am IITB eine modulare Mechatronik-Plattform eingesetzt. Nach erfolgreicher Testung der entwickelten Skills werden diese auf den gemeinsamen Demonstrator des SFB 588 ARMAR übertragen. Von verschiedenen bisher entwickelten Skills werden im folgenden vier vorgestellt, in denen bildgebende Sensoren in Kombination mit Kraft- und Akustiksensoren für die intelligent geregelte Roboterbewegung eine besondere Rolle spielen.
Visuell geregeltes Balancieren instabiler Objekte auf einem
Tablett
Eine charakteristische Fähigkeit humanoider Roboter im häuslichen Umfeld wird darin bestehen, beliebige, auch instabile Gegenstände auf einem Tablett sicher zu transportieren. Als repräsentatives Benchmark-Beispiel für diese Art von Aufgaben wurde ein Skill entwickelt, in dem der Roboter allein über seine Augen eine Kugel balanciert, die mit seinen beiden Armen auf einem ebenen Tablett transportiert wird. Wegrollen der Kugel von der gewünschten Soll-Lage auf dem Tablett werden von der 3D-Stereokamera ("Augen") vermessen und durch Gegenkippen des Tabletts ausgeglichen. Mit Hilfe eines Fuzzy-adaptiven Regelungskonzeptes gelingt es die besonderen Schwierigkeiten der Aufgabe, die auch für den Menschen diffizil ist, robust zu bewältigen.
Hören, Schauen
und Greifen heruntergefallener Teile
Eine sehr oft benötigte Fähigkeit für humanoide Roboter ist die Lokalisierung und das Greifen von zufällig heruntergefallenen Teilen. Um dieses Problem zu bewältigen, verhält sich der Roboter ähnlich wie der Mensch. Zuerst wird eine grobe Richtung des Geräusches durch einen Audiosensor-Array ("Ohren") erkannt. Dieses Messergebnis wird verwendet, um die 3D-Kamera im Kopf des Roboters ("Augen") in Richtung der Geräuschquelle auszurichten. Nach der visuellen Erkennung und Groblokalisierung des Objekts wird die Bewegung und Richtung zum Ziel berechnet und ausgeführt. Durch eine zusätzliche winzige 3D-Kamera ("Brille"), die in die Roboterhand integriert ist, kann der Vorgang des Greifens genau gesteuert werden.
Kraft- und Schlupfgeregeltes Hantieren mit glatten Objekte
Eine besonders anspruchsvolle Aufgabe ist der Umgang mit besonders glatten oder leicht zerbrechlichen Gegenständen. Hierfür muss der Roboter eine Art "Fingerspitzengefühl" erlernen und eine hohe Koordination seiner beiden Arme erreicht werden. Beim Tragen von glatten Objekten wie z. B. Gläsern oder einem Stück Seife mit beiden Roboterarmen muss also die Anpresskraft zwischen den Greifern und dem Objekt so geregelt werden, dass das Objekt einerseits nicht abrutscht und dass es andererseits nicht zerdrückt wird.
Hierzu wurde zunächst ein neuartiger, in die Robotermechanik integrierbarer Sensor entwickelt, der in der Lage ist, die Schlupfbewegung zwischen Hand und Objekt zu messen. Ausgehend von dieser Messung wird die Kraftausübung auf den Gegenstand so geregelt, dass er weder herunter fällt noch zerdrückt wird.
Kraft-
und Sichtgeregeltes Fügen von Formteilen
Eine sehr häufig gefragte
Geschicklichkeit ist das automatische Fügen von Passteilen (z. B. Schlüssel in
ein Schloss, Stecker in eine Steckdose etc.). Ähnlich wie der Mensch verwendet
der Roboter hierzu sowohl seine visuellen als auch taktilen Sensoren. Er löst
das "Peg-in-Hole"-Problem in mehreren Bewegungsphasen. Visuell geregelt führt er
das Fügeobjekt zunächst in die Nähe der Bohrung. Anschließend lokalisiert er den
Bohrungseingang durch taktiles Scannen. Kraftgeregelt richtet er das Objekt
solange aus, bis es mit minimalem Kraftaufwand in die Bohrung passt.
Quelle: Pressemitteilung Informationsdienst Wissenschaft e.V.