Wo Mensch und Maschine verschmelzen

Prothesen und Exoskelette sind nichts anderes als Maschinen. Die aber sehr eng mit dem Menschen interagieren und daher besondere Anforderungen an die Schnittstelle stellen.

Enger geht die Interaktion eigentlich nicht: „Wir arbeiten buchstäblich an der Schnittstelle von Mensch und Maschine“, erklärt Prof. Dr. Claudio Castellini, Professor für Medizinrobotik an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). Er und sein Team erforschen, wie Prothesen weiter verbessert und zuverlässiger gemacht werden können. „Prothesen für die oberen Gliedmaßen haben sich in den letzten Jahrzehnten technologisch stark weiterentwickelt.“ Ein Glas anheben, die Faust ballen, mit dem Zeigefinger eine Telefonnummer tippen – hochmoderne robotische Hände können mithilfe biomedizinischer Technologie bereits Erstaunliches bewerkstelligen. Als Human-Machine-Interface wird dabei etwa die Oberflächen-Elektromyographie eingesetzt: Hautelektroden erfassen am verbliebenen Armstumpf feinste Muskelregungen. Diese Biosignale werden konvertiert und als elektrische Impulse auf die Prothese übertragen. Die „Gezielte Muskelreinnervation“ (Targeted Muscle Reinnervation, TMR) ist dabei eine bewährte Behandlungsmethode. In einem chirurgischen Eingriff werden die Nerven im Stumpf, die zuvor den Arm und die Hand gesteuert haben, mit einer neuen Funktion versehen. Sie werden aus dem umliegenden Gewebe herausgelöst und passgenau an Muskeln in intakten Körperregionen angeschlossen. Dies ermöglicht dem Patienten, seine spätere Armprothese über „Gedankensignale“ zu steuern.

Stellt der Anwender sich vor, seinen Phantomarm zu bewegen, geben die Nerven die Signale an die neue Zielmuskulatur weiter, sodass diese angespannt wird. Dabei entstehen elektrische Signale im Millivoltbereich, die von Elektroden im Prothesenschaft gemessen werden. Ein Minicomputer analysiert die Signale und setzt diese in die beabsichtigte Bewegung um. Um mehrere Gelenke gleichzeitig zu bewegen, werden TMR-Armprothese mit bis zu sechs Elektroden ausgestattet. Dadurch kann der Anwender bis zu sechs Bewegungen durch unabhängige Muskelsignale steuern. „Der Träger oder die Trägerin steuert die Handprothese also selbstständig mit dem Armstumpf“, erklärt Prof. Castellini. „Durch Methoden der Mustererkennung und des interaktiven Maschinellen Lernens kann der Mensch der Prothese zudem seine individuellen Bedürfnisse beim Ausführen einer Geste oder einer Bewegung beibringen.“

Bewegungsmuster erkennen

Die europaweit erste Prothesensteuerung mit Mustererkennung hat die Firma Ottobock auf den Markt gebracht. Sie misst mit acht Elektroden Bewegungsmuster der Muskeln im Unterarmstumpf und ordnet diese bestimmten Handbewegungen zu. Greift der Patient also nach einer Flasche Wasser, erkennt die Prothesensteuerung das zugehörige Bewegungsmuster und gibt der Prothese den Befehl, den jeweiligen Griff oder die Rotation auszuführen. Das geschieht automatisch. Der Patient kann selbstständig mit einer App die Prothesensteuerung kontrollieren und die gemessenen Bewegungsmuster visualisieren. Dadurch kann der Patient trainieren, diese Muster unterbewusst noch gezielter abzurufen.

Absichten vorhersehen

Doch auch diese sehr fortschrittlich anmutenden robotischen Prothesen sind im Hinblick auf Komfort, Funktion und Kontrolle noch nicht ausgereift. Das EU-Horizont-Projekt „IntelliMan“ befasst sich deshalb damit, wie diese effektiver und zielgerichteter mit ihrer Umwelt interagieren können. Fokus dabei ist die sogenannte „Intent Detection“, (deutsch: Absichtserkennung). Prof. Castellini und sein Team entwickeln dazu die Erfassung und Analyse der menschlichen Biosignale weiter und entwerfen innovative Algorithmen des Maschinellen Lernens, um individuelle Bewegungsmuster einer Person auszumachen. „Wir nutzen die Möglichkeiten der Absichtserkennung zur Steuerung von assistiver und rehabilitativer Robotik“, erklärt der Wissenschaftler. „Dazu gehören am Körper tragbare Roboter wie Prothesen und Exoskelette, aber auch Roboterarme und Simulationen in der Virtual Reality.“

Direkte Schnittstelle mit dem Gehirn

Nicht nur Menschen, die Gliedmaße verloren haben, sondern auch denen, die beispielsweise aufgrund einer Rückenmarksverletzung, eines Schlaganfalls oder einer anderen Krankheit ihre Hände oder Beine nicht bewegen können, kann moderne Technik helfen. Sogenannte Brain Computer Interfaces (BCI) stellen dabei eine direkte Verbindung zwischen dem menschlichen Gehirn und technischen Systemen her und ermöglichen die Kontrolle eines Geräts allein mittels Hirnaktivität.

Einer der führenden Hersteller von implantierten Elektroden ist Blackrock Neurotech. Dessen Arrays erfassten bisher Daten aus dem Gehirn über 600 Kanäle. Jetzt hat der US-amerikanische Hersteller ein BCI vorgestellt, das mit mehr als 10.000 Kanälen arbeitet – was eine exponentielle Steigerung der Fähigkeiten ermöglicht. „Wenn unser bisheriges BCI Menschen mit nur sechshundert Kanälen helfen kann, sich zu bewegen und wieder zu fühlen, stelle man sich vor, was wir mit zehntausend oder mehr Kanälen erreichen können“, so Florian Solzbacher, Mitbegründer und Präsident von Blackrock Neurotech. Er plant, mithilfe des neuen BCI bis 2028 eine Sehprothese zu entwickeln. „Dies ist ein Vorgeschmack auf das, was in der Zukunft mit BCI möglich sein wird.

Related Posts

  • Mobile Arbeitsmaschinen haben in den vergangenen Jahren vielfältige technische Weiterentwicklungen erfahren, um die Effizienz bei der Arbeit und die Sicherheit zu verbessern.…

  • Kollaborierende Roboter arbeiten in unmittelbarer Nähe zu Menschen – sogar im Team. Die Interaktion zwischen Mensch und Maschine ist also sehr eng und…

  • Bediener von Werkzeugmaschinen müssen sich auf ihre Arbeit konzentrieren können. Bei der Entwicklung von Human Machine Interfaces in der Industrie rückt daher…