Intelligente Technologien treiben auch Innovationen in der Medizintechnik voran. Von der smarten Hose bis zum künstlichen Auge – überall auf der Welt werden neue Systeme entwickelt, um Krankheiten zu behandeln und Handicaps zu überwinden.
Kaffee kochen, Wäsche waschen, Schuhe binden: Wer einen Arm verloren hat und auf eine Prothese angewiesen ist, lebt mit täglichen Hürden. Intelligente Prothesen sollen Menschen mit Handicap künftig helfen, in gewohnte Bewegungsabläufe zurückzufinden. Wissenschaftler der Leibniz Universität Hannover forschen an den Grundlagen, die technischen Helfer mit einer sonst nur vom Menschen bekannten Feinfühligkeit auszustatten. Erkennt eine Prothese etwa eine ihr noch unbekannte Tätigkeit, sucht sie automatisch in der Cloud nach einem ähnlichen Muster und adaptiert es. Eine App speichert sämtliche Bewegungen und sorgt dafür, dass die Prothesen aller Anwender digital voneinander lernen.
Gefühl für Prothesen
Wichtig für eine möglichst nah am „Original“ arbeitende Hand- oder Armprothese ist das Gefühl: Wärme, Oberflächenstrukturen, Druck und vieles mehr nimmt der Mensch durch Ertasten wahr. Dabei fungiert die Haut als ein großer multimodaler Sensor. Forscherteams weltweit arbeiten daher daran, die menschliche Haut künstlich nachzubilden und damit Prothesen eine möglichst naturnahe Feinfühligkeit zu geben. Die weltweit erste künstliche Haut hat ein Team um den koreanischen Professor Kim Dae-Hyeong von der Seoul National University entwickelt: „Die synthetische Haut hat eine Sinnesempfindung, die exakt die menschliche Haut kopiert. Die Haut kann Druck, Temperatur, Dehnbeanspruchung und Feuchtigkeit fühlen.“ Sie ist aus mehreren Schichten aufgebaut: Die Basis bildet ein weiches gummiartiges Material. Darüber liegt eine ultradünne Schicht aus Polyimid, gefolgt von Silikon. Die Verformung von integrierten Goldfäden ermöglicht zum Beispiel die Messung von Druck und Spannungen, Kondensatoren erkennen Feuchtigkeit. Das Forscherteam hat die Haut bei einer künstlichen Hand eingesetzt, die damit Händeschütteln, eine Tastatur bedienen oder einen Ball halten konnte. Damit die Haut jedoch wirklich nützlich ist, müssen die Sensordaten an das Gehirn des Prothesenträgers übermittelt werden, so dass Befehle in Echtzeit ausgeführt werden. Dazu haben die koreanischen Forscher eine Verbindung zwischen der künstlichen Haut und dem Gehirn von Versuchstieren herstellen können, indem sie ein Elektrodenfeld an einen Nervenstrang anlegten. Die elektrischen Impulse der Sensoren gelangen so zu den Nervenbahnen des Kunsthautträgers. „Ich hoffe, dass Roboter-Gliedmaßen mit dieser Haut bei behinderten Menschen eingesetzt werden können. In industriellen Applikationen könnte sie bei verschiedenen Typen von Robotern, wie zum Beispiel humanoiden Robotern, Verwendung finden“, so Professor Kim.
Das Gehirn steuert direkt die Prothese
An der Kommunikation zwischen Prothese und Gehirn arbeitet auch das internationale MoreGrasp Konsortium. „Bisher werden die Prothesen mittels Schulterbewegungen gesteuert, das Ganze soll künftig intuitiver funktionieren“, erklärt Dr. Rüdiger Rupp, Leiter der Experimentellen Neurorehabilitation an der Klinik für Paraplegiologie des Universitätsklinikums Heidelberg. „Unsere Handbewegungen werden ja vom Gehirn aus gesteuert. Inzwischen stehen uns sogenannte Gehirn-Computer-Schnittstellen zur Verfügung, mit denen wir die Bewegungsabsicht über Elektroden auf dem Kopf erkennen können. Der Traum, den wir nun versuchen umzusetzen, ist, dass in Zukunft querschnittgelähmte Menschen allein über einen Gedanken ihre Handbewegung ausführen können.“ Das Besondere an dieser neuen Neuroprothese wäre, dass die Patienten erstmals beide Hände gleichzeitig kontrollieren können. Auch Menschen mit einer sehr hohen Querschnittlähmung – bei denen neben der Handfunktion auch die Ellenbogen- und Schulterfunktion beeinträchtigt ist – könnten von dem neuen MoreGrasp-System profitieren, da keine Schulterbewegungen mehr zur Steuerung benötigt werden.
An einer direkten Verbindung zwischen Prothese und Gehirn arbeiten auch Robert Greenberg, CEO von Second Sight Medical Products, und sein Team: Sie wollen ihre Retinaprothese Argus II weiterentwickeln und ein Implantat direkt im visuellen Bereich des Gehirns platzieren. Bisher besteht das bionische Auge aus einem auf der erkrankten Netzhaut befestigten Implantat und einer Brille, die über eine Kamera visuelle Informationen über einen Taschencomputer an das Elektrodennetz im Auge sendet. Dazu werden die Signale in Impulse umgewandelt, die ein an der Brille befindlicher Sender kabellos an das für den Träger nicht spürbare Implantat übermittelt. Der Patient nimmt so Lichtblitze wahr, die eine Unterscheidung von Hell-Dunkel sowie von Flächen und Bewegungen ermöglichen.
Die helfende Hose
Doch nicht immer muss Technik Gliedmaßen ersetzen – oft unterstützen smarte Systeme Menschen mit Handicap auch einfach nur. In den USA und auch in Deutschland wird zum Beispiel an Handschuhen geforscht, die die Zeichen der Gebärdensprache erkennen und übersetzen. Der an der Hochschule Magdeburg-Stendal entwickelte Handschuh erkennt zum Beispiel über Sensoren die Krümmung der Finger des Trägers und zeigt die entsprechenden Buchstaben auf einem Monitor an. So können sich Gehörlose auch Menschen gegenüber verständlich machen, die die Gebärdensprache nicht beherrschen. Ein anderes Beispiel „helfender Systeme“ sind Exoskelette: Sie stützen Querschnittgelähmte nicht nur, sondern ahmen über Motoren die Bewegung der Beine nach. Diese Exoskelette sind allerdings sperrig und schwer. Britische Forscher entwickeln daher eine weiche Roboter-Kleidung – die smarte Hose ist mit künstlichen Muskeln ausgestattet und soll die Bewegungen behinderter oder alter Menschen unterstützen. Sie soll zudem auch erkennen, wenn eine Person beim Gehen das Gleichgewicht verliert, aktiv gegensteuern und so Stürze verhindern. In drei Jahren wollen die Forscher ihre Arbeit abgeschlossen haben. Dr. Rory O’Connor von der Fakultät für Medizin und Gesundheit der Universität Leeds ist der klinische Experte des Forscherteams: „Wir werden sehr hochentwickelte weiche Materialien verwenden, in dessen Fasern Aktoren integriert sind, mit denen Teile des Körpers bewegt und unterstützt werden können.“ Diese „motorischen“ Fasern werden mit einer intelligenten Steuerung verbunden. Sie müssen die Absichten des Nutzers erkennen, wie Dr. Abbas Dehghani von der School of Mechanical Engineering der Universität Leeds erklärt. „Das System muss in der Lage sein zu verstehen, was der Nutzer tun möchte; es wäre nicht gut, wenn die Hose versucht, dir beim Laufen zu helfen, wenn du dich eigentlich hinsetzen möchtest.“
(Bildnachweis: Shutterstock)