Schattenblick →INFOPOOL →PANNWITZBLICK → PRESSE

HILFSMITTEL/187: Helfender Roboterarm durch Hirnaktivitäten gesteuert (highlights - Uni Bremen)


highlights - Informationsmagazin der Universität Bremen

Der helfende Roboterarm - durch Hirnaktivitäten gesteuert


Nur durch Sprache, Blicke oder die eigene Hirnaktivität einen Roboterarm steuern oder sogar einen Rollstuhl navigieren? Viele Menschen wären froh über eine solche Möglichkeit - denn sie sind aufgrund einer Krankheit oder eines Unfalles weitgehend bewegungsunfähig. Schon ein geringes Maß an Autonomie und Selbstbestimmtheit würde ihre Lebensqualität erheblich verbessern. Die gute Nachricht: Wissenschaftler des Instituts für Automatisierungstechnik (IAT) der Universität Bremen arbeiten an solchen Lösungen.


*


90 Minuten Unabhängigkeit von Pflegepersonen ist das Ziel der Bremer Elektrotechniker, die seit Jahren einen autonomen Roboterarm entwickeln. Tetraplegiker hoffen darauf: Der Begriff bezeichnet Menschen, die weder Arme noch Beine bewegen können, weil sie beispielsweise vom Hals abwärts gelähmt sind. In schlimmeren Fällen ist sogar ihr Sprachvermögen beeinträchtigt. Diese Personen benötigen rund um die Uhr Hilfe. Es würde sowohl sie als auch ihre Betreuer bereits entlasten, wenn sie für kurze Zeit ohne fremde Unterstützung etwas tun könnten. "Es geht einfach darum, diese Menschen wieder ein Stück weit an das normale Leben heranzuführen", sagt IAT-Leiter Professor Axel Gräser zur Motivation der Wissenschaftler.

Zumindest einen Teil des Tages durch den Roboterarm eigenverantwortlich zu gestalten, wäre schon ein erheblicher Fortschritt. "Die bewältigten Aufgaben können ganz einfache Sachen sein: Eine Tür öffnen und mit dem Rollstuhl in den Nebenraum fahren oder einen Fernseher an- und abschalten beispielsweise", erläutert Oliver Prenzel, Leiter des Projekts "Autonome Manipulatorsteuerung für Rehabilitationsroboter" - kurz: AMaRob. "Oder aber eine Flasche aus einem Kühlschrank holen, das Getränk in ein Glas gießen und es an den Mund führen." Das letztgenannte Szenario ist eines der Ziele bei der Entwicklung des Roboterarmes. Das Bundesministerium für Bildung und Forschung fördert das Vorhaben mit mehr als zwei Millionen Euro. In Kooperation mit Medizintechnik-Firmen und einem Behinderten-Rehabilitationszentrum ist das IAT dabei schon weit gekommen.


Der Roboterarm muss sehen und fühlen

Die IAT-Forscher haben zunächst drei Lebensbereiche im Blick, in denen ein an einem Rollstuhl montierter Roboterarm helfen soll - das eigene Zuhause, eine Büroumgebung und eine Behindertenwerkstatt. Gesteuert wird der Roboterarm über ein Computersystem. Was einfach klingt, ist für die Forscher eine echte Herausforderung: "Mit einer Vielzahl optischer und taktiler Sensoren müssen wir gewährleisten, dass der Arm die Flasche im Kühlschrank auch 'sieht' und findet, dass er die richtige Menge Flüssigkeit ins Glas und nicht daneben - gießt und dass schließlich das Glas auch tatsächlich die Lippen des Menschen erreicht - und nicht der Saft über den Pullover gekippt wird." Diese sehr komplexen Abläufe exakt und sicher zu steuern und aufeinander abzustimmen, nimmt viel Forschungs- und Entwicklungszeit ein.

War zu Anfang des Projektes noch ausschließlich daran gedacht, den Roboterarm durch Sprache, Augenbewegungen oder die Bewegung von Mund und Kinn zu steuern, so ist durch ein neues IAT-Projekt eine weitere hochinteressante "Schnittstelle" zwischen Mensch und Computersteuerung dazugekommen: die Hirnaktivitäten. "Es gibt ja auch Menschen, die nicht einmal mehr den Kopf bewegen, geschweige denn sprechen können", sagt Dr. Ivan Volosyak. Er leitet am IAT das von der Europäischen Union geförderte Projekt "BrainRobot", in dem er und sein Team ein "Brain Computer Interface" (BCI) entwickeln. Damit ist ein Steuerungssystem gemeint, bei dem der Benutzer die Befehle durch die Konzentration auf bestimmte Punkte auf einen Bildschirm erteilt.


Hirnsignale werden zu Steuerungsbefehlen

"Wir sind keine Gedankenleser", beugt Volosyak Spekulationen vor. Doch die Versuchsanordnung macht klar, dass es um den Kopf geht: Die Testpersonen haben eine Kappe auf, an der mehrere Elektroden angebracht sind. Die Verbindung zur Kopfhaut wird durch ein Gel hergestellt. Die Elektroden registrieren über die Messung des Leitungswiderstandes jedes noch so kleine elektronische Signal, das das Hirn erzeugt. "Die Hirn-Computer-Schnittstelle übersetzt diese Signale in Kommunikations- und Steuerungsbefehle", erläutert Volosyak. "Aus den Daten eines EEG lesen wir die Frequenzen aus, die beispielsweise beim Blick auf ein Objekt am rechten oder linken Bildschirmrand entstehen. Tauchen diese Frequenzen auf, wird der Befehl ausgelöst."

Im Versuch schauen die Probanden deshalb auf einen Bildschirm, der blinkende Lichter aufweist. Je nachdem, auf welche Stelle sich die Person konzentriert, wird beispielsweise ein Cursor nach links oder rechts bewegt. Die Fixierung einer Markierung in der Mitte hat die Bestätigung zur Folge. "So kann also jemand nur mit seinen Hirnaktivitäten einen Text schreiben, indem er zu den richtigen Buchstaben navigiert und diese dann gedanklich 'anklickt'", sagt Ivan Volosyak. Ebenso ließe sich auf diese Weise natürlich ein Befehl an einen Roboterarm etwa "Fülle ein Getränk ein" - ausführen.

Nachdem die IAT-Wissenschaftler bereits im Laborversuch sehr gute Ergebnisse erzielt hatten, nutzten sie im März 2008 die Computermesse CeBit in Hannover für umfassende Tests mit Freiwilligen. "Wir wollten unsere Entwicklung unter Alltagsvoraussetzungen testen - mit Einflussfaktoren wie Lärm, Streulicht und Lichtschwankungen", so Volosyak. Doch auch unter diesen Bedingungen funktionierte das Steuern einer Tastatur bei 70 Prozent der 106 Probanden ausgezeichnet. "Dass wir einen Roboterarm durch die Konzentration auf blinkende Monitorfelder steuern können, hat uns bei der CeBit viel Aufmerksamkeit beschert", freut sich IAT-Chef Axel Gräser.

Die etwa 30-minütige Einrichtungszeit der Elektrodenkappe soll nun verkürzt werden. "Neben einer stabilen Steuerung ist eines unserer Ziele eine leicht verwendbare Kappe, die man wie einen Hut auf- und absetzen kann", so Volosyak. Dass die in Bremen entwickelten Technologien für die Steuerung autonomer Roboterarme eines Tages Alltag werden - davon ist er überzeugt: "Erste Anwendungen der Hirn-Computer-Schnittstelle zur Rehabilitation nach Schlaganfällen werden bereits konkret in interdisziplinären Teams - auch am IAT - erforscht. Die Anwendung durch gesunde Personen bei Computerspielen ist ebenfalls keine Zukunftsmusik mehr. Und viele Anwendungen - etwa bei der Ermüdungserkennung bei kritischen Aufgaben - sind leicht vorstellbar. Noch betreiben wir Grundlagenforschung. Aber wer weiß, ob wir nicht eines Tages alle Kappen aufhaben, um Geräte zu steuern?"


Institut für Automatisierungstechnik (IAT)
Prof. Dr. Axel Gräser
Tel. (+49) 0421/218-7326
E-Mail ag@iat.uni-bremen.de
www.iat.uni-bremen.de


*


Quelle:
highlights - Informationsmagazin der Universität Bremen
Heft 20 - Dezember 2008, S. 16-19
Herausgeber: Rektor der Universität Bremen,
Redaktion: Universitäts-Pressestelle
Postfach 33 04 40, 28334 Bremen,
Telefon: 0421/218-60150
Email: presse@uni-bremen.de
WWW: http://www.uni-bremen.de/campus/campuspress/highlights


veröffentlicht im Schattenblick zum 13. März 2009