Roboter erkennen Emotionen an Bewegung
Archivmeldung vom 04.10.2019
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 04.10.2019 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittMenschen können Emotionen auch dann an Bewegungen erkennen, wenn sie nur Strichmännchen sehen - und im Prinzip eben das könnten wohl auch Roboter lernen. Das ist das Ergebnis einer Studie eines europiäischen interdisziplinären Teams aus Psychologen und Informatikern. Es scheint denkbar, mit diesem Ansatz soziale Roboter zu entwickeln, die wirklich richtig auf die Gemütslage jener Personen reagieren können, mit denen sie zu tun haben.
Strichmännchen-Info
"Es ist wichtig, dass ein sozialer Roboter menschliche innere Zustände wie Stress erkennen kann sowie deren Stärke", meint Studien-Erstautorin Madeleine Bartlett, Psychlogie-Doktorandin an der University of Plymouth. Denn nur dann könnte ein Roboter auch richtig reagieren und beispielsweise einem genervten Menschen etwas mehr Platz lassen oder sich bei einer schwer gestressten Person entschuldigen und sich komplett zurückziehen. Sie und ihre Kollegen haben sich daher damit befasst, wie Menschen Emotionen erkennen und ob das auf Roboter übertragbar sein mag.
Für die in "Frontiers in Robotics and AI" veröffentliche Studie hat das Team Videos von Kindern aufgenommen, die mit einem Roboter oder einem Touchscreen-Tisch spielen. 284 Probanden sollten dann den emotionalen Zustand bewerten und beispielsweise beurteilen, ob die Kinder zusammenarbeiten oder im Wettbewerb miteinander stehen. Dazu haben sie entweder die Originalvideos gesehen oder aber Videos, in denen die Bewegungen der Kinder auf Strichmännchen reduziert waren. Die Einschätzung beider Gruppen deckte sich häufiger, als dass dies durch reinen Zufall, also Raterei, zu erklären wäre. Speziell "aggressiv" und "gelangweilt" wurden gut erkannt.
Maschinell verarbeitbar
Strichmännchen sind im Prinzip auf das Wesentliche reduzierte Information, also auch für eine Maschine gut verarbeitbar. "Unsere Ergebnisse legen nahe, dass es vernünftig ist, anzunehmen, dass ein Maschinenlern-Algorithmus und somit ein Roboter lernen kann, eine Reihe von Emotionen und sozialen Interaktionen anhand von Bewegungen, Posen und Gesichtsausdrücken zu erkennen", meint Charlotte Edmunds, Verhaltensforscherin an der Warwick Business School. Das könnte Robotern in Zukunft beispielsweise erlauben, in kritischen Situationen ohne menschliches Eingreifen den Rückzug anzutreten.
Zur Studie "What Can You See?": http://frontiersin.org/articles/10.3389/frobt.2019.00049
Quelle: www.pressetext.com/Thomas Pichler