Beweglicher Touchscreen erlaubt neue Gesten
Archivmeldung vom 12.05.2012
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 12.05.2012 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittForscher der Carnegie Mellon University arbeiten an einem Touchscreen, der durch bessere Druckempfindlichkeit und Bewegungserkennung die Verwendung neuer Bediengesten ermöglicht. Dank des "Shear Input"-Konzepts soll es möglich werden, Anwendungen mit weniger Onscreen-Menüelementen zu entwerfen und wertvollen Platz auf dem Display freizumachen. Uwe Laufs, Wissenschaftler am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO), sieht im pressetext-Interview durchaus Potenzial für diesen Ansatz.
Der Shear-Touch-Prototyp besteht aus einem rund sieben Zoll großen Touchscreen, der sich bei größerem Druck mehrere Millimeter weit in alle Richtungen bewegen lässt. Anhand verschiedener Programme demonstrieren die Entwickler verschiedene Verwendungsmöglichkeiten der Technologie.
So ist es damit möglich, Zeichen- und Skizzierprogramme um Schnellauswahlbefehle und andere Features zu bereichern. In einem Dateimanager lassen sich die neuen Gesten einsetzen, um Dateien nach Drag-and-Drop-Prinzip zu duplizieren. In der Textverarbeitung wäre das schnelle Kopieren von Textelementen an andere Stellen möglich, ohne dafür Umwege über zusätzliche Menüs nehmen zu müssen.
Touchinterfaces nach wie vor limitiert
"Die Entwicklung ist nicht ganz neu", merkt Laufs im Gespräch mit pressetext an. "Vor dem Touchscreen-Zeitalter gab es optische Systeme, die mit Kameras gearbeitet haben und den Anpressdruck erkennen konnten. Als Entwicklung für mobile Geräte hat so etwas durchaus Potenzial", urteilt der Experte. Zwar ermöglichen Touchoberflächen relativ umfassende Bedienung von Geräten unterwegs, sie sind aber im Vergleich mit Maus und Tastatur immer noch relativ eingeschränkt, so sein Attest.
Während der Prototyp für dieses System noch relativ rustikal aussieht, geht der Medieninformatiker vom IAO davon aus, dass eine marktreife Version auch ohne beweglicher Teile auskommen könnte. "Ich denke, so etwas könnte sich auch über mehrere Drucksensoren und entsprechende Software realisieren lassen."
Multimodalität als Zukunftsvision
Die Zukunft des Touchinterfaces sieht er in der Multimodalität, da diese Bedienform alleine zu limitiert ist. "Man kann verschiedene Sensoren intelligent zur Unterstützung heranziehen. Ein Beispiel wäre das Eyetracking-System des Samsung Galaxy S3, das erkennen kann, ob der User gerade auf das Display sieht und diese Information in die Energiesteuerung miteinbezieht", so der Experte.
Ebenfalls geforscht wird an Touchbildschirmen mit Haptik-Features, die verschiedene Oberflächeneigenschaften simulieren und damit eine Onscreen-Tastatur ertastbar machen können. Seiner Einschätzung nach wird es jedoch noch einige Jahre dauern, bis diese Technologie für den Markt bereit ist.
Eine weitere Tendenz ist das Auslagern der Bedienung in Form von Augmented Reality. "Es gibt mittlerweile schon verschiedene Ansätze, das Interface vom Gerät zu entkoppeln und auf den Benutzer oder um ihn herum zu legen. Ein Beispiel dafür wäre das Touché-System, das aktuell von Disney entwickelt wird", ergänzt Forscher Leif Oppermann vom Fraunhofer-Institut für Angewandte Informationstechnik (FIT).
Quelle: www.pressetext.com/Georg Pichler