Deutsch-Chinesisches Forscherteam entwickelt neuartiges Brain-Computer Interface
Archivmeldung vom 02.02.2010
Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 02.02.2010 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.
Freigeschaltet durch Thorsten SchmittEinfach durch Gedanken Türen öffnen, das Fernsehprogramm umschalten oder Nachrichten schreiben - darauf müssen wir wohl noch einige Jahre warten. Ein Schritt in diese Richtung ist einem internationalen Forscherteam der Universität Hamburg und der Tsinghua Universität in Peking, China, aber nun gelungen. In der aktuellen Ausgabe des renommierten "Journal of Neural Engineering" stellen die Wissenschaftler ein Brain-Computer Interface vor, das elektrische Signale des Gehirns "verstehen" kann.
Weltweit arbeiten Wissenschaftler an solchen Brain-Computer Interfaces (BCI), um Informationen aus den Hirnsignalen zu gewinnen und zur Steuerung eines Computers oder anderer Geräte zu benutzen. Forschungen an BCI-Systemen verfolgen unter anderem das Ziel, Patienten, die ihre Bewegungs- und Kommunikationsmöglichkeiten verloren haben, wieder die Teilnahme am Alltagsleben zu ermöglichen. Die Idee dabei ist, dass der Patient mental Aufgaben nachgeht, z. B. sich Handbewegungen vorstellt, oder Darstellungen auf einem Bildschirm betrachtet. Dabei werden Signale des Gehirns fortlaufend analysiert, klassifiziert und dann beispielsweise zum Aufruf eines E-Mail Programms, zur Auswahl von Buchstaben oder Wörtern, oder zur Steuerung eines Rollstuhls benutzt.
Bei dem nun vorgestellten System werden die schwachen, elektrischen Signale des Gehirns auf der Kopfoberfläche gemessen, während der Benutzer zwei sich überlagernde, verschiedenfarbige Punktwolken auf einem herkömmlichen Computermonitor beobachtet. Ein komplexes Computerprogramm analysiert die Hirnsignale und erkennt, auf welche der beiden Punktwolken sich der Benutzer gerade konzentriert, oder ob er sich im Ruhezustand befindet. In einer Beispielanwendung kann ein Patient das System nutzen, um eines der Wörter "warm", "kalt", "Hunger" oder "Alarm" auszuwählen. Einige der gesunden Versuchspersonen, an denen das System getestet wurde, erreichten Erkennungsgenauigkeiten von 100%.
Das Funktionsprinzip des Systems sei schon einige Zeit bekannt, sagt Dan Zhang von der Tsinghua Universität in Peking. "Die bisherigen Systeme waren jedoch davon abhängig, dass der Patient seine Blickrichtung ändern konnte. Durch die überlagerte Darstellung der Punktwolken und die neue Methode zur Erkennung, auf welche Punkte sich der Anwender gerade konzentriert, ist das nicht mehr notwendig." Alexander Maye von der Medizinischen Fakultät der Universität Hamburg ergänzt, dass somit auch Patienten, deren Bewegungsunfähigkeit soweit eingeschränkt ist, dass sie auch die Augen nicht mehr bewegen können, das neue Interface benutzen können. Das System kann aber ebenso durch gesunde Anwender eingesetzt werden, z. B. bei Computerspielen oder zur Steuerung von Spielzeugrobotern. "Tatsächlich könnte in den nächsten Jahren ein Boom solcher Heimanwendungen einsetzen", so Maye.
Quelle: Universität Hamburg