Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Berichte IT/Computer Warum Alexa, Siri & Co. uns nicht immer verstehen

Warum Alexa, Siri & Co. uns nicht immer verstehen

Archivmeldung vom 10.05.2019

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 10.05.2019 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Manuel Schmidt
Juniorprofessor Dr.-Ing. Ingo Siegert
Quelle: Foto: Jana Dünnhaupt / Universität Magdeburg (idw)
Juniorprofessor Dr.-Ing. Ingo Siegert Quelle: Foto: Jana Dünnhaupt / Universität Magdeburg (idw)

Sich mit sprachgesteuerten Assistenten wie Alexa oder Siri zu unterhalten, ist mittlerweile Alltag – sie nach dem Wetter zu fragen oder bitten, einen bestimmten Song zu spielen. Wissenschaftlerinnen und Wissenschaftler der Otto-von-Guericke-Universität Magdeburg wollen diese Mensch-Maschinen-Interaktion nun aber entscheidend verbessern: Künftig sollen die Systeme komplexere Fragen beantworten und unseren Tagesablauf kennen, um uns gezielt mit Informationen zu versorgen, die uns den Alltag erleichtern.

„Im Kern ist Alexa noch eine sprachgesteuerte Fernbedienung“, erklärt Juniorprofessor Ingo Siegert vom Institut für Informations- und Kommunikationstechnik und Leiter des Forschungsprojektes. „Alexa kann auf klare Kommandos mit festgelegten Aktionen reagieren und Antworten aus einer Wissensdatenbank ausgeben. Ein Gespräch, wie unter Menschen üblich, ist aber noch lange nicht möglich.“

In der interdisziplinärer Studie Unterschiede im Sprechverhalten von Nutzern zwischen Mensch-Maschine- und Mensch-Mensch-Interaktionen („Alexa-Studien“) untersuchen die Wissenschaftler nun, worin sich die Kommunikation der Menschen untereinander von der Interaktion mit technischen Systemen unterscheidet. „Dafür nutzen wir einen eigens entwickelten Datenkorpus - den Voice Assistant Conversation Corpus (VACC), der auf Interaktionen mit Amazons Alexa basiert“, so Siegert. „Wir vermessen quasi verschiedene ‚Gesprächssituationen‘ sowohl zwischen Personen als auch zwischen Menschen und Sprachsystemen, indem wir akustische und lexikalische, also den Wortschatz betreffende Sprechmerkmale erfassen und auswerten. Anschließend vergleichen wir diese Messdaten mit den subjektiven Berichten der Nutzer.“ Ziel ist es, ein Set von Sprachmerkmalen zu finden, durch das sprachgesteuerte technische Systeme erkennen, ob sie vom Nutzer angesprochen werden oder nicht, ohne dass dieser einen Befehl immer wieder mit einem Kommando wie „Alexa ...“ oder „Hey Siri ...“ beginnen muss.

Eine große Hürde bei der Kommunikation zwischen Mensch und Maschine sei noch immer das Sprachverstehen, so Juniorprofessor Siegert weiter. „Sätze und Wörter bekommen innerhalb menschlicher Gespräche je nach Betonung unterschiedliche Bedeutungen.“ So könne, je nach Betonung der gleiche Satz mit der gleichen Wortfolge eine Frage oder eine Aussage sein. Auch auf Vergleichsfragen, wie „Was kam zuerst heraus: das Internet oder der Film Blade Runner“ oder „Was sind die Zutaten eines Hefeteigs?“ liefern die Systeme keine zufriedenstellenden Antworten. „Diese Art der Fragen waren von den Entwicklern nicht vorgesehen bzw. sind in den zugrundeliegenden Dialogen nicht benutzt worden. Man muss fragen: ‚Alexa, was ist Hefeteig?‘; also die Frage nach einer Definition stellen.“

Neben der präzisen Erfassung und Vermessung von Mensch-Maschine-Interaktionen möchte Siegert herausfinden, wie Nutzer technische Systeme wie Alexa wahrnehmen und ob diese Wahrnehmung unser Sprechverhalten beeinflusst: Werden dem Sprachassistenten im Alltag inzwischen schon eher menschliche oder immer noch technische Eigenschaften und Fähigkeiten zugeschrieben und ändert das etwas an der Art der Nutzung? Dazu arbeitet sein Team eng mit den Kolleginnen und Kollegen des Lehrstuhls Kognitive Systeme sowie der Universitätsklinik für Psychosomatische Medizin und Psychotherapie zusammen.

„Unsere Vision ist es, dass Sprachsysteme wie Siri oder Alexa uns zukünftig über den gesamten Tag begleiten, unseren Alltag kennen und zum Beispiel entspannende Musik am Morgen spielen, weil viele Termine anliegen oder uns automatisiert Stauwarnungen für den Heimweg mitteilen“, so Juniorprofessor Siegert. „Letztendlich ist die Technik nur so gut, wie sie programmiert wird. Wir möchten dazu beitragen, dass dies noch besser und nutzerfreundlicher gelingen kann und die Nutzer dadurch mehr Freude mit solchen Assistenten haben.“

In einem Quiz auf dem Schiff MS Wissenschaft, das vom 25. bis 28. Mai 2019 und somit auch pünktlich zur Langen Nacht der Wissenschaft in Magdeburg auf der Elbe Halt macht, kann die interessierte Öffentlichkeit Alexa auf die Probe stellen und die technischen Grenzen sprachgesteuerter Systeme selber testen.

Quelle: Otto-von-Guericke-Universität Magdeburg (idw)



Videos
Daniel Mantey Bild: Hertwelle432
"MANTEY halb 8" deckt auf - Wer steuert den öffentlich-rechtlichen Rundfunk?
Mantey halb 8 - Logo des Sendeformates
"MANTEY halb 8": Enthüllungen zu Medienverantwortung und Turcks Überraschungen bei und Energiewende-Renditen!
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte sandig in folgendes Feld um den Spam-Filter zu umgehen

Anzeige