Kollaboration in der Industrie

Durch neue technische Entwicklungen kommen gemischte Teams aus Mensch und Roboter zunehmend im ­Arbeitsalltag an. Die Kombination der Stärken beider ­ermöglicht eine flexible, effiziente und zugleich ergonomische Produktion.

Roboter und Mensch werden in Zukunft stärker zusammenarbeiten“, davon zeigte sich Johann Hegel, Leiter Technologieentwicklung Montage bei Audi, bei einem Experten-Round-Table im Rahmen der Messe Automatica überzeugt. „Der Roboter wird in Kürze für die Mitarbeiter so selbstverständlich sein wie ein Akkuschrauber.“ Grund für die Annäherung sei der demografische Wandel. „Die Mitarbeiter in den Fabriken sollen noch ergonomischer und noch effizienter unterstützt werden“, so Hegel.

Roboter nehmen den Menschen wahr

Durch die verstärkte Zusammenarbeit von Mensch und Roboter können die Stärken beider kombiniert werden: Der Mensch kann komplexe Situationen wahrnehmen und verfügt über unerreichte Fähigkeiten zur Reaktion, Anpassung und Improvisation. Der Roboter bietet dagegen große Schnelligkeit und Kraft bei gleichbleibend guter Qualität. So sollen auch vielfältige Produktvarianten bei kürzeren Lebenszyklen wirtschaftlich gefertigt werden können. Damit diese Zusammenarbeit aber funktioniert, darf der Mensch nicht durch den Roboter gefährdet werden. Durch Sensoren erhalten kollaborative Roboter daher die Fähigkeit, zu fühlen und zu sehen. So werden Gefahren für den menschlichen Kollegen ausgeschlossen – etwa weil der Roboter einfach innehält oder seine Bewegungen auf ein ungefährliches Tempo reduziert, wenn er berührt wird oder der Mensch ihm zu nahe kommt.

Systeme bereits im Einsatz

Erste marktreife Beispiele existieren bereits heute. Eine der neuesten Innovationen ist zum Beispiel YuMi, ein kollaborativer Roboter von ABB. Er ist mit einer berührungsempfindlichen Sensorik ausgestattet, die ihn in Millisekunden stoppen lässt, falls er in Kontakt mit dem Menschen gerät. Ein anderes Beispiel ist der sensitive LBR iiwa von Kuka: Er ist präzise, nachgiebig, flexibel und mit einer Mechanik und Antriebstechnik für den industriellen Einsatz ausgestattet. Mit ihm können feinfühlige und komplexe Montageaufgaben automatisiert werden, bei denen der Einsatz von Robotern bisher nicht möglich war: „Statt Schutzzäunen und getrennten Prozessen wird der Roboter zum direkten Arbeitsassistenten des Menschen“, betont Manfred Gundel, Geschäftsführer der Kuka Roboter GmbH. Der Roboter kann somit als „dritte Hand“ des Bedieners agieren – besonders wenn er mit dem Oberarm-Exoskelett des Biorobotik Instituts der Scuola Superiore Sant’Anna, Pisa, verbunden wird: Über eine Datenverbindung kann der Mensch mithilfe des sensorgeführten Exoskeletts den Leichtbauroboter wie seinen eigenen Arm bewegen. Die Motoren des Exoskeletts geben die Kräfte wieder, die durch die Interaktion des iiwa mit seiner Umwelt entstehen. Das heißt, der Mensch spürt zum Beispiel einen Druck, der auf den Roboterarm ausgeübt wird. Ein Einsatz wäre zum Beispiel bei Telepräsenz- und Reha-Anwendungen denkbar.

Der Roboter liest die Gedanken

Noch einen Schritt weiter geht ein Projekt des Deutschen Zentrums für Luft- und Raumfahrt e.V. (DLR): Hier soll der Roboter sogar die Gedanken seines menschlichen Kollegen lesen können. Dazu trägt der Operator eine mit Elektroden bestückte Kappe, die es dem System mittels Elektroenzephalografie (EEG) ermöglicht, die Gehirnaktivität zu messen und spezifische Änderungen von Gehirnströmen zu interpretieren. Diese Änderungen erlauben zum Beispiel Aussagen über den Stand der Verarbeitung von präsentierter Information, über die Absichten des Operators oder über dessen kognitive Auslastung. Die Schnittstelle erhält dadurch wichtige Informationen, um den Menschen aktiv in kritischen Situationen zu unterstützen oder die Effektivität der Steuerung anwenderspezifisch zu steigern. Hat der Operator beispielsweise eine vom Roboter gesendete Warnmeldung übersehen, so weist ihn das System erneut darauf hin; ist der Anwender kognitiv überfordert, so wird seine Belastung reduziert. Um die Handlungsabsicht und Aufgabenauslastung des Operators präzise einschätzen zu können, setzen die Forscherinnen und Forscher zusätzlich zum EEG auf Elektromyografie (EMG) zur Messung der Muskelaktivität und auf Eye-Tracking, das die Blickrichtung registriert. Auf diese Weise entsteht ein umfassendes Bild des kognitiven Zustands des Anwenders. Die Schnittstelle lernt aus diesen Daten und darauffolgenden Handlungen, welche Sequenzen in den Hirnströmen eine Wahrnehmung oder Aktion bedeuten. Auf diese Weise kann sich das System in Echtzeit an wechselnde Zustände des Benutzers und sogar automatisch an neue Benutzer anpassen.

(Bildnachweis: Shutterstock)

Related Posts

  • Branchenkenner aus der Informationstechnik und der Fertigungsindustrie sind sich einig: In den nächsten zehn Jahren wird die Verschmelzung von Automatisierungswelt und Internet den…

  • In vielen Unternehmen werden bereits heute Technologien eingesetzt, die der Idee der Industrie 4.0 entsprechen. Noch sind es häufig Insellösungen, aber die…

  • Smart Glasses sind die Wearables, die beim ­Einsatz in der Industrie den größten Nutzen ­versprechen. In Kombination mit Augmented Reality sollen sie…