In Zukunft werden Roboter immer enger mit Menschen interagieren. Voraussetzung dafür ist, dass der Roboter den Menschen wahrnimmt, auf seine Handlungen reagiert und ihn nicht gefährdet.
Einer der wichtigsten Trends in der Robotik ist die direkte Zusammenarbeit von Mensch & Roboter. Während noch vor wenigen Jahren Industrieanwendungen die Robotik beherrschten, unterstützen Roboter den Menschen heutzutage auch in Bereichen wie dem Katastrophenschutz, im Haushalt oder bei medizinischen Operationen. Dabei verlassen sie zunehmend ihren bisher geschützten und abgekapselten Arbeitsraum und treten in direkte Interaktion mit dem Menschen. Das erfordert ganz besonders hohe Standards im Bereich sicherheitstechnische Anforderungen und funktionaler Sicherheit. Zahlreiche Normen und Standards sorgen bereits heute in der Industrie dafür, dass Roboter auch bei einer Fehlfunktion den Menschen und seine Umgebung nicht gefährden. Die EN ISO 10218 beschreibt zum Beispiel bereits die Anforderungen für kollaborierende Roboter und kann auch außerhalb des industriellen Bereichs angewendet werden.
Basis für eine hohe Sicherheit auch ohne Schutzzäune sind die immensen Fortschritte in Elektronik und Software-Entwicklung. Denn um den Menschen nicht zu gefährden, müssen derartige „interaktive“ Roboter über besondere Fähigkeiten verfügen: Mit komplexen sensorischen Fähigkeiten können sie die Umwelt und den menschlichen Partner zuverlässig erkennen. In Zukunft werden kognitive Fähigkeiten es ihnen zusätzlich ermöglichen, die Handlungen des menschlichen Partners vorherzusehen und zu interpretieren, um daraus sichere und hilfreiche eigene Handlungen ableiten zu können.
Den Arbeitsraum im Blick
Dazu überwachen die Roboter ihre Umgebung beziehungsweise den Arbeitsraum gleich mit mehreren unterschiedlichen Sensoren, zum Beispiel mit Kamerasystemen, Ultraschallsensoren oder drucksensitiven Sensoren – und vielen
anderen Technologien. Mithilfe dieser Multisensor-Systeme lässt sich die Umgebung des Roboters genau erfassen und Bewegungen in diesem Raum werden erkannt. Durch die Fusion der Messwerte verschiedener Sensoren können dynamische Hindernisse verfolgt und ihre Position und Geschwindigkeit geschätzt werden. So kann der Roboter errechnen, wie sich ein Hindernis, zum Beispiel ein Mensch, bewegt und ob es zu einer Kollision kommen kann. Während der Roboterbewegung wird der Abstand des Roboters zu den Hindernissen fortlaufend überwacht. Falls der Roboter ein unerwartetes Hindernis registriert, verlangsamt er seine Bewegung oder passt seine geplante Bahn entsprechend an, so dass eine Kollision vermieden wird.
Befehle werden über Gesten übermittelt
Damit eine echte Interaktion stattfinden kann, ist darüber hinaus auch eine effektive Kommunikation zwischen Mensch und Maschine Voraussetzung. Dank erheblicher technischer Fortschritte gibt es dafür heute neue Möglichkeiten, die weit über die Tasteneingabe oder Wischgesten hinausgehen. Roboter, die mit dem Menschen zusammenarbeiten, brauchen eine Stimme und insbesondere ein intelligentes Sprachverstehen, um ein wirklich vollwertiger Assistent im Alltag zu sein. Eine zuverlässige Spracherkennung in möglichst vielen Sprachen, eine komplexe semantische Verarbeitung unter Einbeziehung des Kontexts (seien es Zeit und Ort oder Informationen aus Apps und Datenbanken) und eine natürlich wirkende Sprachausgabe sind dafür Voraussetzungen. Auch dank der Entwicklungen von Systemen wie IBM Watson, Google Home, Apple Siri oder Amazon Alexa hat die Genauigkeit der Worterkennung laut des Branchenverbandes CTA (Consumer Technology Association) heute einen Grad von 95 Prozent erreicht – 1990 lag er noch bei nahe null, 2013 bei circa 75 Prozent. Damit dürften Computer in 2017 zum ersten Mal das gesprochene Wort genauso gut verstehen wie Menschen. Doch der Mensch nimmt etwa 80 Prozent der Informationen visuell auf – da liegt es nahe, auch die Kommunikation mit dem Roboter visuell zu gestalten. Mit neuen 3D-Sensortechnologien sowie schnellen Datenverarbeitungs- und Interpretationsmethoden können auch Maschinen Gesten und Kommandos erfassen und verstehen. So wird der Mensch zukünftig zum Beispiel nur noch auf ein Objekt zeigen müssen, damit der Roboter es ihm bringt.
Mensch & Roboter: Die Natur nachahmen
Ganz neue Impulse liefert ein noch recht junges, aber verheißungsvolles Forschungsgebiet: Soft Robotics. Hierbei sollen mit biologisch inspirierten Technologien weiche organische Strukturen geschaffen und die Bewegungsabläufe aus der belebten Natur nachgeahmt werden. Nach diesem Prinzip entwickelte Roboter bestehen also nicht mehr aus starren Materialien, die unnachgiebige Bewegungen ausführen und so ein hohes Gefährdungspotenzial für den Menschen haben. Dafür arbeiten zahlreiche Wissenschaftsdisziplinen zusammen: Elektronik, Materialwissenschaft, Software-Entwicklung, Sensorik und Antriebstechnik werden miteinander verwoben. Das Ziel: eine intuitive, sichere und empfindsame Interaktion zwischen Mensch und Roboter.
Ganz ohne harte Bauteile
Forscher der Harvard Universität haben einen kleinen, im 3D-Druck produzierten Soft Robot entwickelt, der ganz ohne Elektronik auskommt. Das Octobot – nach seiner krakenähnlichen Form – genannte Gerät benötigt keine Batterie, sondern bezieht seine Energie aus einem Treibstoff. Angetrieben wird er durch eine chemische Reaktion, die über Mikrofluide gesteuert wird. Ein derartig vollständig „weicher“ Roboter hat keine für den Menschen gefährlichen Ecken und Kanten mehr. Gleichzeitig eröffnet er völlig neue Einsatzmöglichkeiten, kann ein „Soft Robot“ sich doch mit seinen weichen Formen auch durch schmale Spalten quetschen, an denen klassische Roboter scheitern würden. Ein spannender Ansatz zum Beispiel für Roboter, die in der Katastrophenhilfe eingesetzt werden.