Nützlich für Krankenhäuser und Schulen: Android-Roboter aus Columbia University zeigt Gefühle
Archivmeldung vom 31.05.2021
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 31.05.2021 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Anja SchmittDen Forschern an der Columbia University in New York ist es gelungen, einen autonomen Androiden-Roboter zu programmieren. Die EVA kann mithilfe künstlicher Intelligenz menschliche Gesichter ablesen und mit entsprechenden Emotionen reagieren, teilte der Pressedienst der Universität mit.
Beim russischen online Magazin " SNA News " ist auf der deutschen Webseite weiter zu lesen: "EVA stellt eine körperlose Büste dar, die den Darstellern aus der Gruppe „Blue Man Group“ ähnelt. Sie ist das Ergebnis der fünfjährigen Bemühungen eines amerikanischen Teams um Hod Lipson, Professor für Innovation im Bereich Maschinenbau und Leiter des Creative Machines Lab an der Columbia University, die am Sonntag auf der jährlichen Internationalen Konferenz für Robotik und Automatisierung vorgestellt werden soll.
Laut der Pressemitteilung werden lebensechte animatronische Roboter zwar schon seit Jahren in Freizeitparks und Filmstudios eingesetzt, aber der Zusammenbau eines überzeugenden Robotergesichts stelle immer noch eine gewaltige Herausforderung für Ingenieure dar. Roboter-Körperteile und -Hardware seien etwa zu „grob und schwierig zu bearbeiten“, um so zu „fließen“ und sich so zu „bewegen“, wie es menschliches Gewebe tue, heißt es in dem Text. Deshalb werde EVA, die eine Vielzahl verschiedener menschlicher Gesichtsausdrücke nachahmen könne, als „technologischer Fortschritt“ betrachtet.
Um EVA beizubringen, „Gefühle zu zeigen“, musste das Team zunächst die physische „Maschinerie“ des Roboters konstruieren. Dabei bestände die größte Herausforderung laut den Robotikern darin, ein System zu gestalten, das zugleich „kompakt genug“ wäre, um in die Grenzen eines menschlichen Schädels zu passen, und „funktional genug“, um eine breite Palette von Gesichtsausdrücken zu produzieren. Mithilfe eines 3D-Druckers stellten die Ingenieure wochenlang Teile mit komplexen Formen her, die sich nahtlos und effizient in den Schädel von EVA integrieren ließen. Dann begannen sie mit der Programmierung der künstlichen Intelligenz, die ihre Gesichtsbewegungen steuern sollte.
Bislang wurden EVA sechs Grundemotionen beigebracht, und zwar Wut, Ekel, Angst, Freude, Traurigkeit und Überraschung, sowie eine Reihe nuancierterer Emotionen. Dafür greift sie auf künstliche „Muskeln“, also Kabel und Motoren, zu, die an bestimmten Punkten auf EVAs Gesicht ziehen. So ahmt sie die Bewegungen der mehr als 42 winzigen Muskeln nach, die an verschiedenen Punkten an der Haut und den Knochen des menschlichen Gesichts befestigt sind. EVA lernt durch Versuch und Irrtum, indem sie Videos von sich selbst anschaut.
Die Forscher weisen darauf hin, dass es sich bei EVA um ein Laborexperiment handele und dass die Mimik allein noch weit entfernt sei von der komplexen Art und Weise, wie Menschen kommunizieren. Sie zeigten sich allerdings davon überzeugt, dass solche Technologien eines Tages nützliche Anwendungen in der realen Welt finden könnten. Roboter, die in der Lage seien, auf eine Vielzahl menschlicher Körpersprache zu reagieren, wären zum Beispiel an Arbeitsplätzen, in Krankenhäusern, Schulen und zu Hause von Nutzen, heißt es in der Mitteilung.
Vertrauen zwischen Menschen und Maschinen aufzubauen, sei immer wichtiger, glaubt Boyuan Chen, der die Software-Phase des Projekts leitete, denn Roboter seien auf immer mehr Arten mit unserem Leben verflochten. Allerdings gebe es auch eine Grenze dafür, wie sehr wir Menschen uns emotional auf cloudbasierte Chatbots oder körperlose Smart-Home-Lautsprecher einlassen können, betonte der Team-Leiter Lipson.
„Unsere Gehirne scheinen gut auf Roboter zu reagieren, die eine erkennbare physische Präsenz haben“, fügte er hinzu. "
Quelle: SNA News (Deutschland)