Steuern ist hier reine Kopfsache

Freitag, 15. April 2016
An der Westfälischen Hochschule wird eine Robotersteuerung entwickelt, die Menschen mit Handicap als Alltagshilfe dienen kann. Und die Inklusion in der modernen Berufswelt verspricht...

„AMiCUS“ hat das Zeug zu einem Freund und Helfer. Ein leichtes Kopfnicken nur, und schon setzt sich der Roboter folgsam in Bewegung – lautlos, präzise, flüssig und überraschenderweise sehr anmutig. Dass das High-Tec-Gerät den lateinischen Namen für Freund trägt, ist kein Zufall. Denn wie ein nahestehender Mensch im wahren Leben versteht er die Körpersprache seines Gegenübers ohne Worte, geht einem zur Hand und packt mit seinem Greifer mit an.

„Die Sensoren für die Kopfbewegung funktionieren ähnlich wie die in Smartphones.“ Nina Rudigkeit, Doktorandin

AMiCUS, dahinter verbirgt sich die Bezeichnung „Adaptive Head Motion Control for User-friendly Support“. Vereinfacht gesagt ist das ein Assistenzsystem, das Menschen, die ihre Arme und Beine nicht mehr benutzen können, „zu mehr Eigenständigkeit
verhilft“, wie Nina Rudigkeit erklärt. Die 29-Jährige ist in der Endphase ihrer Doktorarbeit und wird dabei von Prof. Dr. Marion Gebhard (Fachbereich Elektrotechnik und angewandte Naturwissenschaften) an der Westfälischen Hochschule betreut. Das Ziel: Bewegungseingeschränkten Menschen, Tetraplegiker genannt, die Steuerung eines Roboterarms per Kopfbewegungen zu ermöglichen, um ihnen so zu mehr Autonomie im Alltag zu verhelfen. „Etwa, wenn der Roboterarm für sie ein Buch greifen, es aufschlagen und die Seiten umblättern kann.“

Bewegen, greifen, stapeln, ablegen
Der Weg bis dahin scheint nicht mehr allzu weit zu sein. Als einer von 36 Probanden – jüngeren wie älteren sowie mit und ohne Einschränkungen – hat sich der Chronist für die laufende Studie zur Verfügung gestellt. Die Aufgabe für alle sieht so aus: Drei Stoffwürfel mit Zahlen und Symbolen liegen auf einem Parcours aus Legosteinen in unterschiedlichen Abständen und Höhen auf Plattformen. „Die Würfel müssen in der richtigen Reihenfolge an einem vorgegebenen Platz gestapelt werden“ erklärt Anja Jackowski, ebenfalls in der Gruppe der klugen Köpfe, die an der Umsetzung der Robotersteuerung arbeitet. Auch die 25-Jährige ist eine Doktorandin.

AMiCUS, der stumme Helfer, erfasst meine Kopfbewegungen mit Sensoren, die auf einem Headset befestigt sind. Die Steuersignale der Sensoren gehen an den rund 30000 Euro teuren Roboterarm, der sich daraufhin wie von Geisterhand im Raum dreht und bewegt, seinen Greifer öffnet und schließt. Verblüffend einfach geht das, eine grafische Benutzeroberfläche, einer App sehr ähnlich, erleichtert mir dabei die Funktionsauswahl. Und eine Kamera oberhalb der beiden Metallfinger hilft mir, die Position meiner künstlichen Hand immer im Auge zu behalten.

Den Roboter so zum Leben zu erwecken, ist nicht anstrengend. Es erfordert allerdings ein wenig Konzentration, wenngleich auch nur in der kurzen Eingewöhnungsphase. Denn bereits bei der zweiten, komplexeren Aufgabe zeichnet sich ab, dass einem die Kopfbewegungen schnell in Fleisch und Blut übergehen. Ähnlich wie beim Autofahren Bremsen, Kuppeln und Schalten.

Am Ende der Testreihen hat AMiCUS die Würfel an die gewünschte Position gesetzt. Der Roboter hat Pause. Nicht so aber das Hochschul-Team, das muss sich noch mit der Auswertung beschäftigen. Es geht unter anderem den Fragen nach, welcher Belastung sich die Probanden ausgesetzt sahen oder wie einfach sie die Handhabung der Technik empfanden – alles mit dem Ziel, dem Anwender es so leicht wie möglich zu machen.

Noch sind die Sensoren, die den Roboter steuern, in einem Haarreif untergebracht. In Zukunft wird es wohl ein Headset sein. „So etwas ist gesellschaftlich akzeptiert“, sagt Doktorandin Nina Rudigkeit. An der Westfälischen Hochschule denken sie aber schon viel weiter. Diese Technik könnte es Menschen mit Handicap ermöglichen, mehr Platz im Berufsleben zu finden. Das wäre dann ein ganz großer Schritt in Richtung echter Inklusion.

Text: Nikos Kimerlis (WAZ)

Auf die Neigung des Kopfes bewegt sich auch der Roboterarm in die gewünschte Richtung. Im Bild: Nikos Kimerlis, Proband der Studie.

Foto: Thomas Schmidtke

Jochen Nelles (r.) kommt von der RWTH Aachen, er arbeitet dort am Institut für
Arbeitswissenschaft. Neben ihm Frederike Schmitz-Bruhl von der WH.

Foto: Thomas Schmidtke

Über eine grafische Benutzeroberfläche lassen sich die Funktionen wählen. eine
Kamera am Greifer liefert Bilder, wo sich die künstliche Hand gerade befindet.

Foto: Thomas Schmidtke

Kategorien

  • Pressemitteilungen des FB ElaN PT