System macht aus jeder Oberfläche Touchscreen
Archivmeldung vom 11.10.2012
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 11.10.2012 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittEin neues System, das an der Purdue University in den USA entwickelt wird, erlaubt es, aus jeder glatten Oberfläche einen Touchscreen zu machen. Die Wissenschaftler verwenden dazu eine Kinect-Kamera, die räumliche Bewegungen aufzeichnet. Diese Informationen werden mit einem neuen 3D-Modell der menschlichen Hand kombiniert, wodurch die Handhaltung mit großer Präzision ermittelt werden kann. Der Bildschirm wird mittels eines Projektors direkt auf die Oberfläche gezeichnet. Das System erlaubt den Einsatz beider Hände und aller Finger gleichzeitig. Auch die parallele Nutzung durch mehrere Personen stellt kein Problem dar.
"Es ist, als ob überall gigantische iPads zur Verfügung stünden, auf jeder Wand in einem Haus, auf Tischen und Arbeitsflächen - und das alles ohne teure Technologie anschaffen zu müssen", sagt Niklas Elmqvist, einer der beteiligten Forscher, in einer Aussendung. Das System ist in der Lage, User anhand ihrer Gesten zu identifizieren und Rechts- von Linkshändern zu unterscheiden. So kann das Interface auf persönliche Vorlieben Rücksicht nehmen. Die Erfahrungen der Forscher mit ersten Prototypen werden diese Woche auf einem Symposium in Cambridge präsentiert.
"Ein solches Interface ist nicht überall nützlich. Um Excel im Büro zu bedienen, eignet es sich beispielsweise nicht. Ein Massensystem wird es also eher nicht werden. Für kollaboratives Arbeiten oder die Steuerung von Geräten wie Fernsehern eignet es sich aber hervorragend. Im Heim-PC-Bereich und im Büro werden wir noch eine Zeit lang mit Maus und Tastatur auskommen müssen. Dort heißt die einzige Alternative Spracheingabe", erklärt Matthias Schroeder von UCDplus http://ucdplus.com gegenüber pressetext.
Hohe Präzision
Laut den Forschern beträgt die Erfolgsquote des Systems bei der Erkennung der Handhaltung eines Nutzers bereits 98 Prozent. Durch die Kinect-Kamera kann das Interface verschiedene Teile der Hand und deren Entfernung zur Oberfläche bestimmen. Das ermöglicht völlig neue Arten der Gestensteuerung. Denkbar wäre beispielsweise, dass durch Positionierung der flachen Hand über der Oberfläche ein Menü aufgerufen wird. Auch eine Teilung der Aufgaben für die rechte und linke Hand wäre machbar. Das System lässt sich auch mit einem Stift bedienen, was die Möglichkeiten zusätzlich erweitert.
"Das große Potenzial dieses System liegt einerseits in der Anwendung bei mobilen Geräten, deren Möglichkeiten durch große virtuelle Touchscreens enorm erweitert werden können, und andrerseits in der Flexibilität des Systems. Die einfache Technologie ermöglicht die Interaktion nämlich nicht nur mit den Händen, sondern auch mit Objekten. Die Kamera könnte beispielsweise ein Flugticket erkennen und dem User Informationen dazu anzeigen oder sogar das direkte Einchecken ermöglichen", erklärt Schroeder.
Prototyp-Demonstration:
Quelle: www.pressetext.com/Markus Keßler