Zukünftig können die mechanischen Helfer ohne Programmierung unterschiedliche Objekte greifen und sich in komplexen Umgebungen unabhängig bewegen. Roboter mit Künstlicher Intelligenz sind die Zukunft.
Bisher mussten Roboter aufwändig durch Experten programmiert werden – zukünftig bringen sich die Systeme selbst bei, wie sie ihre Aufgaben erfüllen können. Das ermöglicht den Robotern, sich autonom auf sich verändernde Umgebungsbedingungen einzustellen und sich zu optimieren.
Intuitive Zusammenarbeit
Ein Beispiel hierfür ist das BionicCobot-Konzept von Festo: Der Roboter ist mit IT-Systemen aus dem Bereich der Künstlichen Intelligenz verbunden. Diese sind in der Lage, gesprochene Fragen des Menschen zu verstehen und zu interpretieren. So kann der Werker intuitiv mit dem Roboter zusammenarbeiten. Das lernende System kann auch Bilder der angeschlossenen Kamerasysteme sowie Positionsdaten und andere Informationen der übrigen Geräte aus der Arbeitsumgebung verarbeiten und verknüpfen. Es entsteht eine sogenannte semantische Karte, die durch maschinelles Lernen ununterbrochen wächst. Anschließend verteilt das System die Aufgaben sinnvoll auf den Roboter und die anderen Tools, um den Menschen optimal bei seiner Arbeit zu unterstützen.
Greifen lernen wie ein Baby
Eine besondere Herausforderung in der Robotik ist das Greifen von unterschiedlichen Objekten – wie kann der Gegenstand gehalten werden, wie stark müssen die Haltekräfte sein? An der Universität Bielefeld wurden dazu Roboterhände entwickelt, die sich selbständig mit unbekannten Gegenständen vertraut macht. Das neue System funktioniert, ohne vorher die Merkmale von Objekten wie Obst oder Werkzeug zu kennen. „Unser System lernt durch Probieren und eigenes Erkunden – so wie auch Babys sich neuen Objekten widmen“, sagt Professor Dr. Helge Ritter, der als Neuroinformatiker das Projekt mit leitet. Über Künstliche Intelligenz lernt das System, wie alltägliche Objekte, etwa Obst, Geschirr oder auch Plüschtiere, durch ihre Farben und Formen unterschieden werden können und worauf es ankommt, wenn man sie greifen will. Eine Banane lässt sich umgreifen, ein Knopf muss gedrückt werden. „Das System lernt, solche Möglichkeiten aus Merkmalen zu erkennen und baut sich ein Modell für den Umgang und die Wiedererkennung auf“, sagt Ritter. Das Greifsystem ist Teil einer Grundlagenforschung – die Ergebnisse sollen künftigen selbstlernenden Robotern in Haushalt und Industrie zugutekommen.
Erfahrungen werden unter Robotern weitergegeben
Auch das japanische Unternehmen Fanuc arbeitet daran, mittels Deep Learning den Trainingsaufwand für Greifaufgaben zu reduzieren: Auf der Hannover Messe 2017 demonstrierte das Unternehmen dies anhand einer sogenannten Bin-Picking-Zelle: In dieser Zelle werden zwei mit 3D-Kamera-Sensoren ausgestattete Roboter an eine Kiste mit Teilen gestellt, die die Roboter, ohne eigens angelernt zu werden, aus der Kiste holen soll. Die dabei gemachten Erfahrungen speichert jeder Roboter in der internen, Fog genannten Cloud. Dort stehen diese Informationen auch dem anderen Roboter zur Verfügung. Arbeiten dann beispielsweise vier Roboter an dieser Kiste, profitieren sie von den Erfahrungen der anderen Roboter und räumen die Kiste entsprechend schneller aus. Die Lernkurve sieht so aus, dass der Roboter nach 1.000 Versuchen eine Erfolgsquote von 60 Prozent hat, nach 5.000 Versuchen schon 90 Prozent aller Teile greifen kann – ohne dass eine einzige Zeile eines Programmcodes geschrieben werden muss.
Bewegungen kontinuierlich verbessern
Die Königsdiziplin der Robotik sind allerdings mobile Systeme: Roboter, die sich in komplexen Umgebungen unabhängig bewegen können, stellen Forschung und Entwicklung immer noch vor große Herausforderungen. Damit ein Roboter autonom agieren kann, muss er seine eigene Bewegung und seine Umgebung über Sensoren wahrnehmen, die Daten seiner Sensoren verarbeiten und neue Aktionsbefehle errechnen und umsetzen. Das Ergebnis dieser Abläufe wird dann wiederum durch die Sensoren überwacht. Diese kontinuierliche Rückkopplung ermöglicht es dem Roboter beispielsweise, das Gleichgewicht zu halten oder zu gehen.
Stefan Schaal und sein Team von der Abteilung Autonome Motorik des Max-Planck-Instituts in Tübingen haben dazu eine „kontinuierliche Technologie zur Bewegungsoptimierung und -steuerung“ entwickelt, mit der Roboter erkennen, was sie tun. Diese nutzt einen neuen Algorithmus, der die Bewegungen von Robotern laufend optimiert und die „Hand-Auge“-Koordination verbessert. So können Roboter ihr Verhalten an die Umgebung anpassen und auf unvorhergesehene Situationen im Zusammenspiel zwischen Mensch und Roboter reagieren.
Der amerikanische Roboterspezialist Lula Robotics entwickelt nun die Technologie weiter und will sie voll in bestehende Robotik-Plattformen integrieren. „Unser System optimiert sein Verhalten fast wie ein lebender Organismus kontinuierlich und reagiert ständig auf Veränderungen. Dadurch können Mensch und Maschine besonders eng zusammenarbeiten“, erläutert Nathan Ratliff, Miterfinder und Vorstandsvorsitzender von Lula Robotics. „Momentan konzentrieren wir uns auf das Zusammenspiel zwischen Mensch und Roboter bei der industriellen Fertigung und Montage. Aber die Technologie könnte in Zukunft ebenso die Grundlage für Roboter bilden, die zuhause oder im Gesundheitswesen eingesetzt werden.“
(Bildnachweis: Festo)