Schlagwort: <span>Technologie Trends</span>

Quantensprung in der Halbleiter­technologie

Quantentechnologie verspricht, die Informationsverarbeitung und -übermittlung grundlegend zu verändern. Erste Quantenprozessoren sind ­bereits erhältlich. Gleichzeitig arbeiten Forscher daran, herkömmliche Halbleitertechnik und ­Quantensysteme zu kombinieren – und so eine völlig neue Form der Halbleiterelektronik zu kreieren.

Das Jahr 2022 markiert einen Meilenstein in der Geschichte der Digitalisierung: Erstmals werden knapp zwei Drittel des weltweiten Bruttoinlandsprodukts digital generiert, wie eine IDC-Studie prognostiziert. Die unverzichtbare Basis dafür sind sichere, hochleistungs­fähige IT-Systeme und -Infrastrukturen. ­Quantencomputer sind extrem leistungsstark und damit perfekt geeignet, um die wachsenden Datenmengen von Wirtschaft und Gesellschaft zu verarbeiten. 

Vielfache Leistung

Quantencomputer sollen die Leistung herkömmlicher Computer um ein Vielfaches übertreffen, weil sie vollkommen anders funktionieren. Statt klassischen Bits, die entweder den Wert 0 oder 1 annehmen können, benutzen sie sogenannte Quantenbits, die gleichzeitig 0 und 1 sein können. „Dadurch haben sie ein immenses Potenzial, ­Probleme anzugehen, die für klassische Computer unlösbar sind. Insbesondere versprechen sie, wichtige ­Probleme der Logistik und der Medikamentenentwicklung lösen zu können. Sie sind eine zentrale Schlüsseltechnologie des 21. Jahrhunderts“, sagt Prof. Dr. Klaus Sengstock, Gruppenleiter am Institut für Laserphysik der Universität Hamburg – im Rahmen eines Forschungsprojekts soll in den nächsten fünf Jahren an der Universität Hamburg ein funktionsfähiger Quantenoptimierer entstehen. Dabei gibt es verschiedene Möglichkeiten, Qubits zu konstruieren. Zum Beispiel können Photonen, Ionen oder supraleitende Schaltkreise als physikalische Grundlage solcher Konstruktionen dienen. 

Längst läuft der globale Wettbewerb um die leistungs­fähigsten Quantencomputer auf Hochtouren. Es geht um die Märkte der Zukunft. Fördermittel, Forschungsgruppen und führende Unternehmen gestalten den Aufbruch ins Quantenzeitalter. „Wir sind im Quantencomputing bei ­einem ­Reifegrad angelangt, bei dem diese Technologie nicht länger nur ins Labor gehört“, erklärt Dr. Walter Riess, Leiter der mit zwei Nobelpreisen ausgezeichneten Abteilung Wissenschaft und Technologie von IBM ­Research in Zürich. 

Quantenprozessoren werden ­praxistauglich

Erste Quantenprozessoren sind bereits auf dem Markt: So hat IBM 2021 einen Quantenprozessor vorgestellt, der über 127 Qubits verfügt. Bis 2023 will der Konzern einen ­Quantenprozessor mit über 1.000 Qubits bauen. Über 256 Qubits verfügt ein Prozessor von QuEra ­Computing, der bald für Kunden zugänglich sein soll. QuEra nutzt ­Forschungsergebnisse über neutrale Atome, die an der Harvard University und dem Massachusetts Institute of Technology entwickelt wurden, als Grundlage für seine skalierbare, programmierbare Quantencomputerlösung. Die Hardware verwendet Arrays aus neutralen Atomen, bei denen Hunderte von Atomen gekühlt und dann durch Laserfelder in einer kleinen Vakuumkammer angeordnet werden. Während die Glaswände der Kammer Raumtemperatur ­haben, werden die Atome nur wenige ­Millimeter entfernt per ­Laser auf ein millionstel Grad Kelvin über dem absoluten Nullpunkt gekühlt. Das ist mehr als eine Million Mal kälter als der Weltraum und mehr als tausend Mal kälter als die supraleitenden Qubits anderer Branchenvertreter wie IBM und ­Google. „Es besteht eine enorme Chance, Fortschritte bei einigen der kritischsten – und derzeit unlösbaren – Probleme unserer Zeit zu erzielen, die fast jeden von uns betreffen“, sagte Alex Keesling, CEO von QuEra und Miterfinder der QuEra-Technologie. „Wir freuen uns darauf, mit unserer ersten Maschine zu demonstrieren, was Quantencomputer für die Menschheit leisten können.“ 

Qubits und Halbleiter Hand in Hand

Quantensysteme werden laut Dell Technologies künftig allerdings nicht für sich stehen, sondern eng mit klassischen IT-Systemen zusammenarbeiten. So werden QPUs (Quantum Processing Units) bald Einzug in ­konventionelle ­Systeme halten und dort ausgewählte Berechnungen durchführen. Die klassischen CPUs übernehmen Standardaufgaben und unterstützen die QPUs durch die ­Vorbereitung der Daten und die Auswertung der ­Ergebnisse. Q.ant hat zum Beispiel ein Verfahren entwickelt, dass es ermöglicht, heute etablierte elektronische Großrechner um Prozessoren zu erweitern, die mit modernster Quanten­technologie arbeiten. Durch das Aufbringen ­hochspezieller Lichtkanäle auf Silizium-Chips lassen sich mit diesem sogenannten Photonik-Chip-Verfahren Quanten auch bei Raumtemperatur nahezu verlustfrei führen, steuern und kontrollieren. 

Quanteneffekte können aber auch direkt die Halbleiterelektronik verbessern und hier zu einem Durchbruch bei der Bandbreite der Datenübertragung, der ­Energieeffizienz und der Informationssicherheit führen. Sogenannte ­Heterostrukturen, also Schichtsysteme aus ­supraleitenden und halbleitenden Materialien, sind ­vielversprechende Nachfolger für die heutige Halbleiterelektronik. Zwei in dieser Hinsicht passende Materialien sind der Supraleiter Niobnitrid (NbN) sowie der ­Halbleiter Galliumnitrid (GaN). Bislang war aller­dings unklar, wie genau sich die Elektronen an der Kontaktfläche dieser beiden Materialien verhalten – und ob womöglich die Elektronen aus dem Halbleiter die Supraleitung stören und damit die Quanteneffekte auslöschen. Forscher des Paul-Scherrer-Instituts (PSI) untersuchten genau diese Wechselwirkungen, fanden in ihren Experimenten aber schließlich heraus, dass die Elektronen in beiden Materialien „für sich“ bleiben. Vladimir Strocov, Forscher an der Synchrotron Lichtquelle Schweiz SLS des PSI: „Dieses Schichtsystem könnte tatsächlich eine neue Form der Halbleiterelektronik hervorbringen, welche die Quanteneffekte in Supraleitern einbindet und nutzt.“ Das könnte der Halbleitertechnologie eine neue Wendung ­geben und elektronische Bauteile in Zukunft noch einmal deutlich leistungsstärker machen. 

8 Trends, die die Zukunft der Halbleiterindustrie prägen werden

Eine kurze ­Zusammenfassung der wichtigs­­ten Trends, die die ­Ent­wicklung der Halb­leitertechno­logie von heuteund morgen ­bestimmen werden.

1 Das Moore’sche Gesetz gilt weiter

Die CMOS-Transistordichte wird in den nächsten Jahren weiterhin dem Moore’schen Gesetz folgen. Ermöglicht wird dies vor allem durch Fortschritte bei der EUV-Strukturierung und durch die Einführung neuartiger Chip-Architekturen. So stößt die FinFET-Technologie bei einer Skalierung über fünf Nanometer hinaus an ihre Grenzen. Eine Lösung werden Nanosheet- oder Gate-all-around-Transistoren bieten: Dabei handelt es sich um eine ­modifizierte Transistorstruktur, bei der das Gate den Kanal von allen Seiten kontaktiert und eine kontinuierliche ­Skalierung ermöglicht. Sie versprechen Leistungssteigerungen von mehr als 25 Prozent und eine Senkung des Stromverbrauchs um mehr als 50 Prozent.

 

2 Neue Chip-Architekturen drängen auf den Markt

Über 50 Jahre hat die x86-Architektur die Mikro­prozessorindustrie dominiert. Mittlerweile ändert sich das ­jedoch: Die ARM-Architektur punktet zunehmend mit ­ihrer Leistung und ihrem geringen Stromverbrauch. ARM stellt seine IP-Chip-Hersteller zur Verfügung, die darauf basierend ihre eigenen Chips entwickeln und in Foundries fertigen lassen können. Darüber hinaus hat die RISC-V-Architektur in IoT-Geräten und anderen ­Anwendungen aufgrund ihres Open-Source-Vorteils und des besseren Stromverbrauchs an Bedeutung gewonnen.

 

3 Neue Materialien ergänzen Silizium

Silizium als Basismaterial von Mikrochips stößt ­zunehmend an seine Grenzen. Die Nachfrage nach immer ­kleineren und schnelleren integrierten ­Schaltkreisen hat die Effizienz des Materials bis an die ­Grenze des Machbaren getrieben. Die Erforschung neuer ­Materialien ist im Gange, wobei einige Materialien für die Zukunft sehr vielversprechend sind: So ­könnte Hochleistungs-­Galliumnitrid aufgrund seines hohen kritischen Energie­feldes für effizientere und schnellere ­Stromumwandlungen in Stromnetzen eingesetzt werden. Halbleiter auf ­Antimonid- und Bismuthid-Basis werden in verbesserten Infra­rotsensoren für den medizinischen und militärischen Bereich eingesetzt. Graphen hat das Potenzial, Silizium als Allzweck-Halbleitermaterial zu übertreffen, aber eine breite Kommerzialisierung könnte noch bis zu fünfundzwanzig Jahre entfernt sein. Pyrit könnte als Ersatz für das Seltenerd-Element Cadmiumtellurid verwendet werden, das in ­Solarzellen weit verbreitet ist, aber nur ­begrenzt zur Verfügung steht. Pyrit ist reichlich vorhanden, kostengünstig und nicht giftig.

 

4 Künstliche Intelligenz erobert die Edge

Mit einem erwarteten Wachstum von deutlich über 100 Prozent in den nächsten fünf Jahren ist die Edge-KI einer der größten Trends in der Chipindustrie. Bei der Edge-KI ist die Anwendung des erlernten „Wissens“ (die Inferenz) in die Endpunkte des Internets der Dinge eingebettet. Heute bieten handelsübliche Edge-KI-Chips eine Effizienz in der Größenordnung von 1 bis 100 Tera-­Operationen pro Sekunde pro Watt (Tops/W), wobei ­s­chnelle GPUs oder ASICs für die Berechnungen verwendet werden. Für IoT-Implementierungen werden wesent­lich ­höhere Wirkungsgrade benötigt. Die Forschung arbeitet an Lösungen, die eine Effizienz für Inferenzen in der ­Größenordnung von 10.000 Tops/W erreichen.

 

5 Neue 3D-Technologien ­ermöglichen ­heterogene Integration

Die heterogene Integration, also die Integration verschiedenartiger elektronischer Komponenten auf einem Chip, wird in Zukunft immer wichtiger, um die ­Speichergrenze zu überwinden oder die Funktionalität in ­Systemen mit eingeschränktem Formfaktor zu erhöhen. Basis ­dafür sind 3D-Integrationstechnologien. Aktuell können ­dabei in der Produktion Abstände zwischen den Verbindungspunkten, den Lötkugeln oder Microbumps, von etwa 30­ ­Mikrometern realisiert werden. Ziel ist es, diese ­Abstände weiter zu verringern. Das IMEC hat zum ­Beispiel bereits Verbindungsabstände von sieben Mikro­metern realisiert. Solche hochdichten Verbindungen ermög­lichen eine mehr als 16-fach höhere 3D-Verbindungsdichte ­zwischen den Chips bei der heterogenen Integration und damit einen stark reduzierten Flächenbedarf.

 

6 Nichtflüchtige Speicher auf dem ­Vormarsch

Bei nichtflüchtigen Speichern verringert sich zusehends die Geschwindigkeit der Skalierung. Zwar bieten Verfahren wie das Wafer-to-Wafer-Bonding bei NAND-Speichern oder die EUV-Lithografie bei DRAMs noch Potenzial zur Verbesserung der Strukturierung, doch die Grenzen sind absehbar. Neue Ansätze versprechen dagegen eine ­weitere Steigerung der Speicherkapazität. Dazu ­gehören unter ­anderem magnetische Direktzugriffsspeicher (MRAM), die einen wesentlich schnelleren Speicherzugriff bei gleichzeitig geringerem Energieverbrauch als elektronische Speicher wie DRAMs erlauben. Zudem benötigen MRAM-­Speicherzellen auf einem Chip nur einen Bruchteil des Platzes, den etwa DRAM- oder SRAM-Zellen belegen. 

 

7 Logik-Leistung steigern

Transistoren werden in Zukunft weiter schrumpfen – doch die Performanceverbesserung bei gleicher Leistungsaufnahme hat sich deutlich verlangsamt. Ein Grund dafür ist unter anderem die notwendige Skalierung der Strom- und Spannungsversorgung, denn mit den Strukturen werden auch die elektrischen Verbindungen minimiert – damit steigen deren Widerstände. Eine Lösung können im Substrat „vergrabene“ Stromschienen (Buried Power Rails, BPR) sein: Sie sollen durch die optimierte Stromverteilung eine Leistungssteigerung auf System­ebene ermöglichen. Weiterhin wird an neuen Materialien geforscht, die den Durchgangswiderstand reduzieren: Dazu gehören Hybridmetallisierungen mit Ruthenium oder ­Molybdän. Interconnects auf den Chips könnten in Zukunft statt aus Kupfer aus binären Legierungen und kobaltbasierten Werkstoffen bestehen, mit denen der Leitungswiderstand sinken soll.

8 CMOS und MEMS wachsen zusammen

Etablierte CMOS-Technologien werden in Zukunft ­zunehmend durch MEMS (Micro-Electro-Mechanical ­Systems) ergänzt. Die CMOS-Wafer dienen dabei als ­„intelligentes“ Substrat, da sie bereits Ansteuer- und Ausleseschaltungen, Signalverarbeitung und Schnitt­stellen zur Energie­übertragung enthalten. Durch die Kombination von CMOS und MEMS entstehen kostengünstige und extrem ­kompakte Mikrosysteme für den Einsatz in Medizin, ­Industrie, Mobilität bis hin zur ­­Luft- und Raumfahrt. 

Trendumkehr

Seitdem die ersten Halbleiter­Produkte auf den Markt kamen, konnte die ­Branche die Preise für Mikrochips ­drastisch ­reduzieren. Doch die Einführung ­immer kleinerer Chip-Strukturen hat ­diesen Trend gestoppt – die Preise pro ­Transistor steigen wieder.

Die technologische Entwicklung in der Halbleiterindustrie führte zu einer immensen Reduzierung der Kosten pro Transistor: Lagen Sie in den 1960er-Jahren noch bei rund 1.000 Cent, so rutschten sie zum Jahrtausendwechsel unter 0,000020 Cent. Die Gründe dafür sind vielfältig: Zum einen konnte dank immer weiterentwickelter Fertigungsverfahren die Größe der integrierten Schaltungen reduziert werden, wodurch aus einem Wafer ­immer mehr Chips hergestellt werden konnten. Gleichzeitig stieg die Größe der Wafer selbst an, wodurch zusätzlich noch einmal mehr Chips pro Wafer gefertigt werden konnten. Zum anderen führte die steigende Nachfrage nach Mikrochips automatisch zu einer Reduzierung der Stückkosten: So sanken laut einem Beitrag im Journal „Proceedings of the IEEE“ die Kosten pro Transistor bei jeder Verdoppelung des produzierten Transistorvolumens um etwa den Faktor zwei – oder, anders ausgedrückt, die durchschnittliche jährliche Kostensenkungsrate für Transistoren lag bisher in der Größenordnung von 35 Prozent pro Jahr. 

Komplexität in der Fertigung steigt

Doch inzwischen zeichnet sich ein Wandel in diesen ­Gesetzmäßigkeiten ab. Denn die immer weitergehende Miniaturisierung hin zu 7-, 5- oder 2-­Nanometer-Strukturen hebelt die bisherigen Gesetzmäßigkeiten aus. Zwar kann ­dadurch die Transistordichte weiter verbessert und damit das ­Moore’sche Gesetz wohl noch viele Jahre am Leben ­gehalten werden, doch dies wird nur mit einem hohen technischen Aufwand möglich sein – der entsprechend die Fertigungskosten steigen lässt. Marvell, ein Fabless-Hersteller von Speicher-, ­Telekommunikations- und Halbleiter­produkten, präsentierte bereits in 2020 auf seiner Investorenkonferenz eine Grafik, nach der der Preis pro 100 Millionen Gates bis zur Einführung des 28-­Nanometer-Knotens tatsächlich immer weiter ­gesunken ist (auf 1,30 US-Dollar). Doch seitdem steigt er ­wieder an – beim 7-­Nanometer-Knoten liegt er schon wieder bei 1,52 US-Dollar. Diese Trendumkehr ist beim Wechsel vom 28- zum 20-Nanometer-Knoten zu beobach­ten. Dies ist ­darauf zurückzuführen, dass der 28-­Nanometer-Knoten einer der letzten „planaren“ Knoten war, also eine zweidimen­sionale Oberfläche aufwies. Danach wurde die FinFET-Technologie mit ihren dreidimensionalen Strukturen eingeführt, die deutlich komplexer ist und zusätzliche Schritte in der Fertigung erfordert. „Die durchschnittlichen Kosten für die Entwicklung eines 28-Nanometer-Chips betragen 40 Millionen ­US-Dollar“, erläutert Handel Jones, CEO der strategischen Unternehmensberatung International Business Strategy ­Corporation (IBS). „Im ­Vergleich dazu belaufen sich die Kosten für die Entwicklung eines 7-­Nanometer-Chips auf 217 ­Millionen US-Dollar und die Kosten für die Entwicklung eines 5-Nanometer-Bauteils auf 416 ­Millionen ­US-Dollar. Ein 3-Nanometer-Design wird bis zu 590 ­Millionen US-Dollar kosten.“

Zahl der Fertigungsschritte verdoppelt sich

Zwar versprechen aktuelle Entwicklungen wie ­Chiplets oder auch Advanced-Packaging-Technologien eine Redu­zierung der Entwicklungs- und Herstellungskosten. Und auch die Kosten pro bearbeiteter Silizium-Wafer-­Fläche steigen im langjährigen Durchschnitt nur langsam an – auch dank der Einführung größerer Wafer-Durch­messer. Wer die zukünftigen High-End-Chips mit 5- oder 2-­Nanometer-Strukturen einsetzen will, wird dennoch mit höhe­ren Kosten rechnen müssen. Ein Grund dafür ist, dass sich die Zahl der Ferti­gungsschritte laut CMC ­Materials, ­einem ­Lieferanten von kritischen Materialien für Halbleiter­hersteller, bei einem ­5-Nanometer-Knoten im ­Vergleich zu ­einem 10-Nanometer-Knoten ­verdoppelt. Zum Beispiel ­wegen des höheren Reinigungsaufwands: Allein die Zahl der ­Reinigungsschritte ­beträgt bei 5-­Nanometer-Knoten schon rund 30 Prozent aller Fertigungsschritte – nur so können die hohen Qualitäts- und Reinheitsanforderungen erfüllt werden. 

Steigende Anlagenpreise

Zweiter großer Treiber für die steigenden Kosten sind die Werkzeuge und Fertigungsanlagen. „Die Chipherstellung mit EUV trägt dazu bei, die Anzahl kritischer Lithografie-Masken (-40 Prozent) und Prozessschritte (-30 ­Prozent) im Vergleich zur Nicht-EUV-Fertigung zu reduzieren. Dies führt zu einer signifikanten Reduzierung von Fehlern, Kosten und Zykluszeiten für unsere Kunden“, ­berichtet Martin van den Brink, President, Chief Technology ­Officer and Vice Chair im Management-Board bei ASML. Derartige EUV-Lithografieanlagen kosten heute bereits mehr als 100 Millionen US-Dollar. Doch die neuen 5- oder 2-­Nanometer-Knoten erfordern einen Technologiesprung: Die EUV-Plattform der nächsten Generation von ASML wird zum Beispiel noch einmal 60 Prozent kleinere Merkmale ermöglichen und die ­Mikrochipdichte um fast das ­Dreifache erhöhen. Doch laut verschiedenen ­Berichten in den Medien wird eine derartige Anlage wohl den Preis von 300 Millionen ­US-Dollar übersteigen.

Das bedeutet, dass die Chip-Hersteller das Volumen der produzierten Halbleiterprodukte deutlich ­erhöhen ­müssen, um die höheren Entwicklungs- und ­Anlagenkosten zu kompensieren. Gut, dass sich da ein Ende der Nachfrage nach Chips nicht abzeichnet und die Digitalisierung immer mehr ­Bereiche durchdringt. 

Nur 1 von 1 Milliarde

Zuverlässigkeit wird zunehmend ein entscheidender Faktor für Mikrochips. Denn Elektronik übernimmt immer mehr sicherheitskritische Funktionen: ob beim automatisierten Fahren, in der Medizintechnik oder der ­robotergestützten Industrieproduktion. Mit verschiedenen Ansätzen kann die Zuverlässigkeit von Mikroelektronik ­gesteigert werden.

Zuverlässigkeit bedeutet, dass der Mikrochip über seine gesamte Lebensdauer seine Aufgaben fehlerfrei erfüllt. Bisher hat sich die Halbleiterindustrie auf die Qualitätskontrolle während des Produktionsprozesses und einen abschließenden Test des fertigen Chips konzentriert – doch das stellt nur ein fehlerfrei gefertigtes Produkt sicher, nicht aber seine längerfristige Zuverlässigkeit im Feld. Dies ist im Consumer-Bereich, in dem die High-End-Chips mit Strukturgrößen von 10 Nanometer oder kleiner vor allem eingesetzt werden, noch kein größeres Problem. Denn hier war es bisher in der Regel zulässig, dass innerhalb einer angenommenen Lebensdauer von zwei Jahren einer von einer Million Chips ausfallen durfte. Doch seitdem immer mehr High-End-Chips auch in sicherheitskritischen Anwendungen eingesetzt werden, muss deren Zuverlässigkeit steigen. So fordert die Automobilindustrie zum Beispiel, dass Chips 18 Jahre fehlerfrei funktionieren bzw. in diesem Zeitraum nur ein Chip pro eine Milliarde ausfällt. Auch in anderen Märkten steigen die Anforderungen: Smartphone-Hersteller fordern inzwischen, dass Chips mindestens vier Jahre lang funktionieren statt wie früher nur zwei Jahre. Und in einigen Industrie- und IoT-Anwendungen, wo der Austausch von Sensoren schwierig ist, müssen Chips auch mal 20 Jahre oder länger halten. 

Zuverlässigkeit erhöhen

Um die Zuverlässigkeit eines Mikrochips zu erhöhen, müssen Designer das Zusammenspiel aller Komponenten im Blick haben: Eine optimale Gestaltung von Leiterplatte, Verbindungstechnik und Chipgehäuse ist Voraussetzung, wobei auch die Umgebungsbedingungen des zukünftigen Einsatzortes berücksichtigt werden müssen: Feuchtigkeit kann auch im Chip zu Korrosion führen, Vibrationen können Verbindungen lösen usw.

Zudem muss aber auch die Zuverlässigkeit des eigentlichen Halbleiter-Bauelements betrachtet werden. Dabei gelten einige Faustregeln: So sind aus gröberen Strukturen aufgebaute Chips tendenziell weniger anfällig gegenüber Einflüssen wie kosmischer Strahlung oder schwankenden Betriebsspannungen. Chips mit kleinerer Grundfläche leiden dagegen weniger unter mechanischen Stressfaktoren wie Vibration oder Temperaturdifferenzen. Zudem sind Chips auch einem Alterungsprozess ausgesetzt: So sorgt Elektronenmigration für eine Unterbrechung von Leiterbahnen, Temperatureffekte wie Bias Temperature Instability (BTI) und Hot Carrier Injection (HCI) spielen bei hochintegrierten Chips eine immer größere Rolle. Man spricht dabei von Alterung, Verschleiß oder Degradation. Durch die fortschreitende Miniaturisierung mikroelektronischer Bauelemente sind diese negativen Veränderungen der Materialeigenschaften noch vielfältiger und komplizierter geworden. Lokal auftretende Stromdichten und Feldstärken innerhalb einer Schaltung erreichen zum Beispiel in kleineren Strukturen eher kritische Werte. Bei Standardelektronik minimieren Designer üblicherweise das Ausfallrisiko, indem sie Sicherheitsreserven in ihre Entwürfe einbauen. Dieses sogenannte „Over Design“ ist allerdings teuer, zeitaufwändig und mit immer kleineren Technologien nicht mehr realisierbar.

Chips mit integriertem Selbsttest

Eine Lösung, um zumindest drohende Ausfälle früher zu erkennen, ist die Integration von Selbsttests in den Chip. Bei den sogenannten Built-in Self Tests (BIST) werden integrierte Schaltkreise durch Hardware- oder Softwarefunktionen ergänzt, mit denen sie ihre eigene Funktion testen können. So kann zum Beispiel der Prozessor-Takt überwacht werden: Ein „Clock-Control“ spürt eventuelle Taktfehler auf. Im Falle eines Falles wird das System automatisch in einen sicheren Status versetzt und ein entsprechendes Signal erzeugt.

Ausfälle vorhersagen

Noch einen Schritt weiter gehen Lösungen, die den gesamten Chip überwachen und mittels Künstlicher Intelligenz einen bevorstehenden Ausfall ankündigen können. So hat zum Beispiel das israelische Unternehmen ­proteanTecs eine intelligente On-Chip-Überwachungsmethode entwickelt. Sie verbindet eine auf maschinellem Lernen basierende Softwareplattform mit eigens entwickelten sogenannten Agenten, die bereits in der Entwicklung in das Halbleiterdesign integriert werden und im Halbleiter als Sensoren dienen. Durch deren Auslesen und die Analyse der daraus gewonnenen Daten können Erkenntnisse über Funktions- und Leistungsfähigkeit von Halbleitern und elektronischen Systemen gewonnen werden. Insbesondere bei neuen Halbleitergenerationen kann mit diesen Ergebnissen die Qualität und die Zuverlässigkeit gesteigert und die Lebensdauer verlängert werden.

Alterung simulieren

Um ein „Over Design“ zu vermeiden, können Designer zudem eine Simulation der zu erwartenden Alterung in den IC-Entwicklungsprozess integrieren. So lässt sich bereits in der Designphase die Zuverlässigkeit der Entwürfe genau prognostizieren. Zum Beispiel erarbeitet das Fraunhofer IIS an seinem Institutsteil Entwicklung Adaptiver Systeme EAS in Dresden dazu Ansätze. Dabei verbinden sie unter dem Schlagwort „Physics-of-Failure“ Wissen zu den physikalischen Mechanismen mit Ansätzen, die auf statistischen Daten über Ausfälle im Einsatz beruhen. So können Elektronikdesign-Teams zukünftig effizient potenzielle Zuverlässigkeitsprobleme von Halbleitern und Systemen bewerten – und das bereits vor ihrer Fertigung.

Fingerabdruck für Elektronik

Eng verwandt mit dem Thema Zuverlässigkeit ist die Vertrauenswürdigkeit. Denn gefälschte oder manipulierte Chips können auch zu einem Ausfall im Einsatz führen. Forscher der Universität Ulm arbeiten daher daran, einen fälschungssicheren physikalischen „Fingerabdruck“ für elektronische Leiterplatten, programmierbare Schaltungen und integrierte Schaltkreise (FPGA und Microcontroller) zu entwickeln. Die Idee basiert darauf, dass es bei der Produktion der Bauteile zu unvermeidlichen Prozessschwankungen kommt, die im Nanobereich zu kleinsten Abweichungen führen. Durch die detaillierte Erfassung dieser Abweichungen wird es möglich, das Bauteil über die gesamte Lebensdauer zu identifizieren. So kann später jederzeit herausgefunden werden, ob ein Bauteil ein Original ist oder ob es verändert wurde, um der Anwendung zu schaden. Der Grundgedanke dahinter: In der eindeutigen Identifizierbarkeit von Elektronik-Komponenten liegt der Schlüssel zu mehr Zuverlässigkeit. 

 

Begriffe rund um -Zuverlässigkeit

Defective Parts Per Million (DPPM): 

Defekte Teile pro Million. Bezeichnet auch ausgefallene Geräte pro Million gelieferter Einheiten.

­––––––

Failure in Time (FIT): 

Ausfallrate – Die Einheit FIT gibt die Anzahl der Bauteile an, die in 109 Stunden ausfallen (Ausfallrate bei 1 Fit also einmal in ca. 114.000 Jahren).

­––––––

Mean Time Between Failure (MTBF): 

Die durchschnittliche Zeit zwischen dem Auftreten von Defekten. Anders ausgedrückt, die Lebensdauer eines Chips dividiert durch die Gesamtzahl der Defekte.

­––––––

Mean Time To Failure (MTTF): 

Die durchschnittliche Zeit bis zum Eintreten des Ausfalls. Der MTTF-Wert wird bei nicht reparierbaren Systemen verwendet.

Kleiner, Stärker, Preiswerter

Lange Zeit beherrschte das Moore’sche Gesetz die ­Anforderungen an die Entwicklung neuer Mikrochips. Doch neue Technologie-Trends wie das Internet der Dinge oder Künstliche Intelligenz stellen die Halbleiterindustrie vor neue ­Herausforderungen, während gleichzeitig die Miniaturisierung der Chip-Strukturen zunehmend an ihre Grenze stößt.

Seit es die Halbleitertechnologie gibt, haben sich die Anforderungen der Kunden im Großen und Ganzen nicht wirklich geändert: Immer besser, schneller und billiger sollen die Mikrochips sein. In der Tat hat die Halbleiterindustrie große Fortschritte bei der Entwicklung ihrer Halbleiterprodukte gemacht. Konsequent hat sie das Moore’sche Gesetz, nach dem sich die Anzahl der Schaltkreise auf einem Mikrochip alle zwei Jahre verdoppelt, weiter umgesetzt. Kleinere Chips mit dichter gepackten Transistoren ermöglichen die Herstellung kleinerer, leistungsfähigerer elektronischer Geräte zu niedrigeren Preisen. Ein in der Branche oft zitierter Vergleich verdeutlicht diese Fortschritte sehr anschaulich: Wenn die Automobilindustrie in den letzten 30 Jahren ähnliche Leistungsverbesserungen erzielt hätte, würde ein Rolls-Royce nur 40 Dollar kosten und mit einer Gallone Benzin achtmal die Erde umrunden können – mit einer Höchstgeschwindigkeit von 2,4 Millionen Meilen pro Stunde. 

More Moore oder More Than Moore?

Doch die Halbleiterentwicklung stößt zunehmend an die Grenzen des Moore’schen Gesetzes: Inzwischen nähern sich die Strukturen auf den Chips atomaren Größenordnungen und lassen sich nicht weiter reduzieren. Eine Lösung ist der 3D-Ansatz: Dabei werden Schichten von Transistoren übereinandergestapelt, wodurch sich die Anzahl der Bauteile pro Quadratmillimeter noch einmal weiter erhöhen lässt, selbst wenn die physikalischen Abmessungen in der Ebene nicht mehr weiter reduziert werden können. Dabei könnten die Hersteller auch verschiedene Halbleitermaterialien übereinanderschichten, zum Beispiel auf eine Lage mit herkömmlichen Silizium-Transistoren eine Ebene aus Verbindungshalbleitern wie Indiumgalliumarsenid aufbringen. Sie können spezielle Aufgaben übernehmen, wie eine besonders ­schnelle Signalverstärkung oder die Detektion von Licht. In dieser Integration zusätzlicher Funktionen in die Chips sehen viele Experten die Alternative zur Fortführung des Moore’schen Gesetzes. Ihre Devise lautet: Statt „More ­Moore“ (weitere ­Miniaturisierung) lieber „More than Moore“ (die Vereinigung von digitalen und nicht digitalen Funktionen auf demselben Chip). Zu finden sind derartige Lösungen bereits heute in vielen Bauelementen, zum Beispiel bei mikroelektromecha­nischen Systemen (MEMS) oder bei Funk- und Analog/Mixed-Signal-Technologien (RF/AMS).

Neue Lösungen für KI-Anwendungen 

Viele der Innovationen in der Halbleiterindustrie wurden durch zwei übergeordnete Technologietrends angestoßen: Künstliche Intelligenz und das Internet der Dinge.

KI stellt die Halbleitertechnologie vor völlig neue Herausforderungen, denn die dabei verarbeiteten und gespeicherten Datenmengen sind enorm groß. Um sie zu bewältigen, ist eine verbesserte Halbleiterarchitektur notwendig. Dabei geht es weniger um die Verbesserung der Gesamtleistung oder Rechenpower, sondern vielmehr um die Beschleunigung des Datentransfers aus und in den Speicher sowie um effizientere Speichersysteme. So wurden spezielle neuro­nale Chips entwickelt, die wie die Synapsen des menschlichen ­Gehirns funktionieren. Anstatt ständig Signale zu senden, ­arbeiten sie nur bei Bedarf. Zudem verarbeiten KI-Chips ­Daten in vielen parallelen Prozessen, nicht wie bisherige ­Prozessoren hintereinander weg. Daneben kommen verstärkt nichtflüchtige Speicher bei KI-Halbleitern zum Einsatz. Sie können Daten auch ohne ständige Stromzufuhr speichern. Die Kombination dieser nichtflüchtigen Speicher mit KI-Prozessoren auf einem „System-on-a-Chip“ bietet eine Lösung für die ­Anforderungen moderner KI-Applikationen.

Mikrochips im Netz der Dinge

Basis des Internets der Dinge sind kleine Mikroprozessoren, die in Gegenstände eingebaut sind und über Funk kommunizieren. Über integrierte Sensoren sind diese ­Mini-Computer in der Lage, ihre Umgebung wahr­zunehmen, die Informationen weiterzuverarbeiten und mit ­anderen Objekten oder dem Internet zu teilen.

Das erfordert Mikrocontroller, die auf begrenztem Raum Sensoren, Prozessoren, Speicher, Wi-Fi-Fähigkeit, mikro­elektromechanische Systeme und eine Reihe von ­analogen und digitalen Schaltungen integrieren. Gleichzeitig soll der Stromverbrauch möglichst niedrig sein, da die (größtenteils mobilen) Objekte nicht an ein Stromnetz angeschlossen werden können oder aber ein häufiger Batterietausch zu aufwändig und zu teuer wäre. Beispielsweise wird derzeit überlegt, das heute üblicherweise in integrierten Schaltkreisen verwendete Basismaterial Silizium durch ein neues Halbleitermaterial wie Galliumarsenid zu ersetzen.

Da viele IoT-Geräte zudem raue Umgebungsbedingungen aushalten müssen, stellt der Einsatz hohe Anforderungen an die Robustheit der Halbleiterprodukte, zum Beispiel in puncto Vibration, Temperatur-, Wasser- und/oder Salzresistenz. 

Hohe Leistung für 5G 

Sein volles Potenzial wird das IoT aber erst mit dem ­neuen Mobilfunkstandard 5G ausschöpfen können. Mit ­hoher Bandbreite und Übertragungsqualität sowie geringer ­Latenz stellt 5G in vielen Bereichen die technische Grundlage für den nächsten Entwicklungsschritt des IoT dar. Eine Lösung hierfür bietet Hochfrequenz- und Leistungselektronik auf der Basis von Galliumnitrid (GaN) oder Siliziumkarbid (SiC). Diese sogenannten Wide-Bandgap-Halbeiter (WBG) zeichnen sich unter anderem durch eine deutlich höhere Energieeffizienz aus.

Energieeffiziente Leistungselektronik

Zehnmal kleiner als herkömmliche Silizium-Halbleiter können WBG-Halbleiter für die Leistungselektronik gefertigt werden und verlieren bis zu 50 Prozent weniger Wärme. Zudem können Transistoren aus WBG-Halbleitern die Schaltfrequenz gegenüber Silizium-Transistoren um bis zu 500 Prozent steigern. Mit diesen Eigenschaften können SiC- und GaN-Halbleiter in vielen Anwendungsgebieten die steigenden Kundenanforderungen erfüllen – von der Elektromobilität über Fotovoltaik-Wechselrichter bis hin zu Schnellladegeräten. 

Auf dem Weg zu einer resilienten Lieferkette

Der aktuelle Chip-Engpass hat deutlich gemacht, wie empfindlich die komplexen Halbleiter-Lieferketten auf Störungen reagieren. Politik, Halbleiterindustrie und Unternehmen, die Chips für ihre Produkte benötigen, ergreifen nun verschiedene Maßnahmen, um die Resilienz der Lieferketten zu steigern.

Konsum-Boom meets Lieferengpässe: So lässt sich die aktuelle Situation im Welthandel kurz zusammenfassen. Insbesondere bei der Versorgung mit Halbleiterprodukten traten in den letzten Monaten große Engpässe auf, die zumindest teilweise wohl auch noch bis ins Jahr 2023 andauern werden. 

Halbleiterindustrie erweitert Kapazitäten 

Die Halbleiterindustrie reagierte bereits, erhöhte die Auslastung der vorhandenen Fabriken und steigerte damit das Volumen der produzierten Halbleiterprodukte. Auch wurden spezielle „Kommandozentralen“ eingerichtet, um die dringendsten Kundenanfragen zu bearbeiten und um in enger Zusammenarbeit mit den Kunden Doppelbestellungen zu vermeiden. Mit Erfolg, wie der ­Europäische Verband der Halbleiterindustrie (ESIA) berichtet, denn der weltweite Halbleiterumsatz stieg im Jahr 2021 um 26,2 Prozent gegenüber 2020 an. „Die Rekordzahlen, die der Halbleitermarkt im Jahr 2021 erreicht hat, zeigen, dass die Branche auf das beispiellose Wachstum der weltweiten Halbleiternachfrage reagiert“, erklärt Hendrik Abma, ­Generaldirektor der ESIA. So konnten die Kunden kurzfristig schneller und effizienter mit Produkten beliefert ­werden. Für eine langfristige Sicherung der Versorgung planen die Chiphersteller darüber hinaus, weltweit mit hohen Investitionen neue Produktionskapazitäten zu schaffen.

Kleine Hersteller nutzen ihre Chance

Parallel dazu ist laut der Wirtschaftsprüfungsgesellschaft Deloitte Global zu beobachten, dass die Risikokapital­investitionen in Halbleiter zunehmen – das betrifft vor ­allem Unternehmen, die neue Arten von Chips herstellen, zum Beispiel mit besonderen Funktionen für ­spezielle ­Anwendungen. Deloitte Global prognostiziert, dass Risiko­kapital-Geber im Jahr 2022 weltweit mehr als sechs ­Milliarden US-Dollar in neu gegründete Halbleiterunternehmen investieren werden. Das ist mehr als dreimal so viel wie in jedem Jahr zwischen 2000 und 2016. Dabei zieht insbesondere RISC-V Investitionen an: Dank dieser Open-Source-Befehlssatzarchitektur für das Chipdesign haben auch kleinere Gerätehersteller die Möglichkeit, kostengünstig Hardware zu bauen. Laut Deloitte Global wird sich der Markt für RISC-V-Prozessorkerne im Jahr 2022 im Vergleich zu 2021 verdoppeln.

 

„Wir sollten uns nicht auf ein einziges Land oder ein bestimmtes Unternehmen verlassen, um die Versorgungssicherheit zu ­gewährleisten.“ 

Margrethe Vestager, EU-Kommissarin für Wettbewerb und Digitales

 

Lieferketten resilienter gestalten

Doch nicht nur die Halbleiterindustrie reagiert. Durch den Halbleitermangel ist auch die Abhängigkeit bei der Versorgung mit Halbleiterprodukten von wenigen ­Ländern und Herstellern deutlich zu Tage getreten und hat sowohl Kunden als auch die Politik wachgerüttelt. Seitdem stellt sich allen die Frage, wie die Lieferketten robuster gestaltet werden können. Das neue Schlagwort Resilienz beschreibt in diesem Kontext die Widerstandskraft einer Lieferkette, sich externen Störfaktoren zu widersetzen ­beziehungsweise sich neu ausrichten zu können.

Mehr Chips im eigenen Land produzieren

Um diese Widerstandskraft zu erhöhen, nehmen Regierungen rund um die Welt viel Geld in die Hand. Ihr Fokus liegt dabei insbesondere darauf, mehr Chips im eigenen Land zu produzieren. „Die weltweiten Lieferengpässe zeigen: Deutschland und Europa haben keine Zeit zu verlieren. Wir müssen gemeinsam daran arbeiten, unseren Bedarf an Mikroelektronik selbst zu decken, und die Produktion wieder stärker nach Deutschland und Europa holen. Dafür werden wir Fördermittel in Milliardenhöhe in die Hand nehmen“, so der deutsche Wirtschafts- und Klimaschutzminister
Robert Habeck. „Wir wollen die Chip-Produktion in Deutschland und Europa stärken und unabhän­giger von internationalen Lieferketten ­werden.“ Die Europäische Kommission hat dafür den European Chips Act auf den Weg gebracht: Er soll 43 Milliarden Euro in Form von ­öffentlichen und privaten Investitionen mobilisieren, um künftige Unterbrechungen der Lieferketten zu verhindern. Die Ziele beschreibt der für den Binnenmarkt zuständige Kommissar Thierry Breton so: „Die Sicherung der Versorgung mit den modernsten Chips ist zu einer wirtschaftlichen und geopolitischen Priorität geworden. ­Unsere Ziele sind ehrgeizig, denn bis 2030 wollen wir unseren Marktanteil auf 20 Prozent verdoppeln und in Europa die ausgereiftesten und energieeffizientesten Halbleiter herstellen.“ Auch in den USA passierte unlängst ein vergleichbares Gesetz das Repräsentantenhaus: Es sieht Investitionen in Höhe von insgesamt 52 Milliarden US-Dollar zur Stärkung der heimischen Halbleiterfertigung und -forschung vor.

Beschaffung optimieren

Doch auch die „Verbraucher“ von Halbleitern selbst ergrei­fen zunehmend Maßnahmen, um von ihrer Seite aus die Lieferketten resilienter zu gestalten. Allen voran die ­Automobilindustrie, die besonders unter dem Halbleiterengpass gelitten hat. Die Unternehmensberatung Roland Berger empfiehlt Unternehmen aus der Automobilindustrie und anderen Branchen, die auf Halbleiter angewiesen sind, die Krise aktiv zu adressieren. Hierzu zählen ­technische Maßnahmen wie ein schnellerer Wechsel auf ­einen ­zentralisierten bzw. zonalen Aufbau der ­Fahrzeugelektrik und -elektronik, um so die Anzahl der benötigten Chips zu reduzieren. „Langfristig müssen OEMs und Zulieferer ihre Design-Philosophie anpassen, um mit den dynamischen Kapazitätsveränderungen in der Halbleiterindustrie Schritt zu halten. Die Bewältigung der Krise ­erfordert strategische Maßnahmen“, betont aber Thomas Kirschstein, ­Principal bei Roland Berger. Dabei stellen ­direkte langfristige ­Lieferverträge mit Halbleiterunternehmen, die wechselseitige Kapazitätszusagen und ­Abnahmeverpflichtungen über mehrere Jahre enthalten, einen wichtigen Hebel dar. „Die Lieferketten für ­automobile Halbleiter sind komplex“, sagt Gaurav Gupta, Research Vice ­President bei Gartner. „In den meisten Fällen sind die Chip-Hersteller traditionell Tier-3- oder Tier-4-­Zulieferer der Automobilhersteller, was bedeutet, dass es in der ­Regel eine Weile dauert, bis sie sich an die Veränderungen der Nachfrage auf dem ­Automobilmarkt anpassen. Dieser Mangel an Transparenz in der Lieferkette hat den Wunsch der Automobil-OEMs nach mehr Kontrolle über ihre Halbleiterlieferungen verstärkt.“ So haben zum Beispiel Ford und BMW bereits ­direkt mit Global­foundries Vereinbarungen zur Belieferung mit Chips ­getroffen. „Wir vertiefen unsere Partnerschaft mit den ­Lieferanten an ­wichtigen Stellen im Lieferantennetzwerk und synchronisieren ­unsere Kapazitätsplanung direkt mit den Halbleiterherstellern und -entwicklern. Das ­erhöht die Planungssicherheit und Transparenz über die benötigten ­Mengen für alle Beteiligten und sichert unseren Bedarf langfristig ab“, so Dr.  ­Andreas Wendt, Mitglied des ­Vorstands der BMW AG, verantwortlich für Einkauf und Lieferantennetzwerk. 

Ein Königreich für einen Chip

Die letzten zwei Jahre wurde die Weltwirtschaft von einem eklatanten Engpass an Halbleiter­Produkten ausgebremst. Die Ursache dafür war das Zusammentreffen gleich mehrerer Faktoren. 

Ford, Toyota und Nissan gehörten Anfang 2021 zu den ersten Autokonzernen, die ihre Produktion aufgrund fehlender Chips drosseln ­mussten. Bald folgten auch andere Autohersteller, ­Produktionsbänder wurden stillgelegt und ganze ­Fabriken kurzfristig ­geschlossen. Jim Farley, CEO von Ford, sprach von dem „größten Versorgungsschock, den er je gesehen hat.“ Doch nicht nur die Automobilindustrie litt – und leidet noch ­immer – unter einem akuten Halbleitermangel: Laut der US-­Investmentbank Goldman Sachs waren weltweit 169 Branchen mehr oder minder stark betroffen – von der Stahlindustrie bis zur Herstellung von Klima­anlagen, selbst bei der Bierproduktion machten sich fehlende Halbleiterprodukte bemerkbar.

Nachfrage übersteigt Angebot

Als offensichtlicher Grund dafür wird oftmals die Covid-19-Pandemie genannt, doch tatsächlich liegen die Ursachen tiefer, wie Michael Alexander, Partner bei Roland Berger, erklärt: „Die Diskrepanz zwischen Angebot und Nachfrage von Halbleitern wird immer größer.“ Neben der ­Informations- und Kommunikationstechnik und Unterhaltungselektronik hungern auch die Consumer Electronics nach Chips. Ebenso der Markt der regenerativen Energien kommt ohne Halbleiterprodukte, insbesondere Leistungselek­tronik, nicht aus. So stieg nach Analysen der Roland-Berger-Experten die Chip-Nachfrage von 2020 bis 2022 um 17 Prozent pro Jahr. Die Produktionskapazität wuchs im selben Zeitraum hingegen lediglich um sechs Prozent pro Jahr.Dennoch, Covid-19 spielt eine Rolle: Denn die im Rahmen der Pandemie weltweit verhängten Lockdowns haben die Nachfrage nach Home-Office-Technologie wie PCs oder Webcams exponentiell erhöht. Parallel stornierte die Automotive-Industrie ihre Mikrochip-Bestellungen, da sie von einem deutlich länger andauernden Einbruch der Nachfrage ausging. Als sie aber dann nach ­kurzer Zeit schon wieder anstieg, waren die Produktionskapazitäten der ­Foundries längst von anderen Verbrauchern wie eben der IT- und Smartphone-Branche ausgebucht. „Der Corona-bedingte Digitalisierungsschub in allen Lebensbereichen hat zu einer ­verstärkten Nachfrage nach Halbleitern geführt. Bereits 2020 war die Nachfrage in Bereichen wie ­Mobilfunk, Kommunikations- und Dateninfrastruktur, Computing oder Home Entertainment stark angestiegen“, erklärt Bitkom-Präsident Achim Berg. „So traf der Corona-­bedingte Nachfrageschub mit ­angespannten Lieferketten zusammen. Geopolitische Konflikte ­haben die ­Situation weiter zugespitzt“, so Berg weiter. 

Insbesondere der Handels­krieg ­zwis­chen den USA und China, als Washington Handelsbeschränkungen gegen Chinas größten Chip-Hersteller (Semiconductor Manufacturing International Corporation – SMIC) ­verhängte, führte zu erheblichen Störungen in den ­globalen Halbleiter-Lieferketten. 

Störungen bei der Produktion 

Und als wenn das nicht schon reichte, erlebte Taiwan, der größte und wichtigste Akteur in der Halbleiter­industrie, auch noch die schwerste Dürre seit mehr als einem Jahrhundert. Da für die Chip-Produktion ­große Mengen an hochreinem Wasser benötigt werden, ­führte das zu einem geringeren Output der Foundries. Zusätzlich hat auch noch ein Feuer das Hauptwerk von ­Renesas im japanischen Naka heimgesucht, ein Reinraum und sieben Chip-Fertigungsanlagen wurden ­beschädigt. Laut Bloomberg deckt die Produktion der Fabrik in Naka normalerweise bis zu sechs Prozent des weltweiten Chip-Bedarfs der Autoindustrie. Es kamen also viele Ursachen für den Mangel an Chips zusammen. 

Kapazitäten am Limit

Natürlich reagierte die Halbleiterindustrie: So fuhren die Foundries die Auslastung der Produktion bis ans Limit. Laut der Semiconductor Industry Association (SIA) liegt die vierteljährliche Kapazitätsauslastung der Fabriken seit dem ersten Quartal 2019 deutlich über der „normalen“ Vollauslastungsrate von 80 Prozent. In den letzten Quartalen erreichte sie sogar über 95 Prozent. So konnten zwischen Januar 2020 und Januar 2022 genügend Produktions­kapazitäten aufgebaut werden, um zusätzlich vier Millionen ­Wafer pro Monat herzustellen, was einer Steigerung von über 20 Prozent entspricht. „Die Halbleiterhersteller haben im Jahr 2021 mehr Chips ausgeliefert, aber die Nachfrage der OEMs war weitaus größer als die Produktionskapazi­täten der Hersteller“, so Masatsune Yamaji, Forschungsdirektor bei Gartner. Tatsächlich wurden laut SIA im Jahr 2021 mehr als 1 Billion Halbleiter verkauft, was bei weitem den höchsten Wert aller Zeiten darstellt. 

Aufbau neuer Kapazitäten braucht Jahre

Langfristig lässt sich der Halbleiterengpass aber nur durch den Neubau von Produktionen beheben. So hat die Halbleiterindustrie in 2021 den Bau von 39 ­Fabriken ­angekündigt, mehr als ein Dutzend dieser Projekte sind bereits im Bau. Doch bis eine Halbleiterfabrik in ­Betrieb gehen kann, dauert es mehrere Jahre. „Eine baldige Besserung ist nicht in Sicht. Denn der Engpass hat ­strukturelle Gründe, die in der aktuellen Ausgestaltung der ­Lieferketten liegen“, so Michael Alexander. „Die Knappheit der Chips wird bis in das Jahr 2023 – und wahrscheinlich darüber hinaus – ­bestehen bleiben.“ 

Die Halbleiter-Lieferkette

Die Fertigung moderner Chips erfordert ­hochspezialisiertes Know-how und immense Investi­tionen. Um dies zu stemmen, hat sich in der ­Hableiterindustrie in den letzten Jahrzehnten eine äußerst ­komplexe und globale Lieferkette ­herauskristallisiert.

Prozessoren, Logik-Module und Kommunikations-Bausteine sind heute Alltag in vielen Geräten. Doch kaum jemand macht sich wohl Gedanken, wie komplex der Prozess der Herstellung eines Chips ist: Hunderte von Firmen in dutzenden Ländern sind an Entwicklung, Design und Herstellung beteiligt. Im Durchschnitt reist ein Chip mehrere Male um die Welt, bevor das mikroelektronische Bauteil geliefert werden kann. 

Rasante Entwicklung der ­Chip-Technologie

Diese komplexen Lieferketten sind in den letzten Jahrzehnten als Reaktion auf die immer anspruchsvolleren Technologien entstanden. Seit der Erfindung des integrierten Schaltkreises im Jahr 1958 hat sich die Zahl der Transistoren pro Wafer für einen Logikchip um den Faktor 10 Millionen erhöht, was zu einer 100.000-fachen Steigerung der Prozessorgeschwindigkeit geführt hat. Gepaart mit technischen Innovationen zum Beispiel im Bereich der Packaging- und Materialtechnologien konnten so Geräte mit exponentiell höherer Rechenleistung in immer kleineren Formfaktoren entwickelt werden. Zur Veranschaulichung: Die heutigen Smartphones haben mehr Rechenleistung als die Großrechner, mit denen die NASA 1969 Apollo 11 zum Mond ­schickte. Sie enthalten auch mehr Speicherplatz als ein Server in ­einem Rechenzentrum im Jahr 2010. 

Verschiedene Regionen, verschiedene ­Aufgaben

Diese beeindruckende Weiterentwicklung der Halbleitertechnologie war und ist nur mit viel Know-how und erheblichen Investitionen möglich: Laut ZVEI investiert die Branche rund 22 Prozent des jährlichen Umsatzes in Forschung und Entwicklung – mehr als jeder andere Industriezweig. Die Antwort der Branche darauf ist Aufgabenteilung. ­Dabei hat sich eine Lieferketten-Struktur herauskristallisiert, bei der verschiedene Regionen ­besonders stark in bestimmten Aufgaben sind: Die USA sind zum Beispiel führend bei den F&E-intensivsten Aktivitäten – wie der elek­tronischen Designautomatisierung, dem Chipdesign und der ­Fertigungstechnologie. Ostasien dagegen ist führend in der Wafer-Fertigung. China ist führend in den Bereichen Montage, Packaging und Testing, die weniger hochqualifizierte Fachkräfte und auch weni­ger Kapital erfordern. Alle Länder sind in dieser integrierten globalen Lieferkette voneinander abhängig und verlassen sich auf den freien Handel, um Materialien, Ausrüstungen, geistiges Eigentum und Produkte rund um die Welt an den für die Ausführung der jeweiligen Tätigkeit optimalen Ort zu bringen. Diese globale Arbeitsteilung schafft einen enormen Wert: Nach einer Studie der Boston Consulting Group würde der Aufbau ­einer ­geschlossenen Wertschöpfungskette in einer einzelnen ­Region Investitionen in Höhe von rund 1 Billion Euro erfordern und zu einer deutlichen Verteuerung der Mikroelektronik in der Größenordnung von 35 bis 65 Prozent führen.

Spezialisierung führt zu Risiken

Die geografische Spezialisierung hat zwar zu mehr ­Effizienz geführt, sie schafft aber auch Risiken. Laut einer von SIA und der Boston Consulting Group durchgeführten Studie gibt es in der gesamten Lieferkette mehr als 50 Tätig­keiten, an ­denen eine Region mehr als 65 Prozent des Weltmarktanteils hält. Etwa 75 Prozent der Halbleiter-Produktionskapazi­täten sowie viele Lieferanten von Schlüsselmaterialien – wie Sili­ziumwafern, Fotolack und anderen Spezialchemikalien – sind in China und Ostasien konzentriert. Darüber hinaus befinden sich die weltweit modernsten Produktionskapazitäten – mit Chip-Größen unter 10 Nanometern – derzeit in Südkorea (8 Prozent) und Taiwan (92 Prozent). ­Sollte es in einem dieser Länder zu Störungen kommen – zum Beispiel durch Naturkatastrophen oder politische ­Konflikte – würde das zu schwerwiegenden Unterbrechungen in der weltweiten Versorgung mit Chips führen.

Übernahmen verändern die Chip-­Landschaft

Auch bei den Unternehmen der Halbleiterbranche selbst führten die immer höheren Anforderungen an die Chip-Technologie und die damit verbundenen immensen Investitionen in den letzten Jahren zu einer starken Konsolidierung. Heute wird jedes Segment entlang der Lieferkette – von der Chip-Entwicklung über die Hersteller von ­Fertigungstechnologie bis hin zu den Chip-Herstellern selbst – von einigen wenigen Unternehmen dominiert. So gab es Anfang der 2000er-Jahre noch 25 Unternehmen, die in der Lage waren, die zu diesem Zeitpunkt modernsten Chips zu fertigen. Heute sind es nur noch drei Unternehmen, die über die entsprechenden Fähigkeiten und Technologien in der Produktion verfügen. Bei den für die Halbleiterfertigung benötigten Maschinen und Anlagen teilen sich ein niederländisches, ein japanisches und drei US-Unternehmen mehr als zwei Drittel der Umsätze.

IoT als neuer Treiber

Gerade das IoT hat das Potenzial, die Halbleiterindustrie noch einmal spürbar zu verändern: Dieser Markt ­erfordert die unterschiedlichsten Chips – unter anderem für die Cloud-Integration und Konnektivität, für Datenverarbeitung oder Sensorik. Das Moore’sche Gesetz, das die Steigerung der Leistungsgeschwindigkeit und den Rückgang der Kosten für Chips vorhersagte, wird dabei immer weniger relevant. Bei IoT-Chips rücken dagegen Faktoren wie Stromverbrauch, Baugröße, Software und Konfigurier­barkeit in den Vordergrund. Die große Vielfalt unterschiedlicher Applikationen, für die IoT-Chips entwickelt werden müssen, hat zu einer Vielzahl von neuen Unternehmen in der Halbleiterindustrie geführt. Ihr Vorteil: Sie profitieren von den in den letzten Jahrzehnten geschaffenen Strukturen in der Halbleiterbranche. Sie können sich auf die Entwicklung neuer Chips konzentrieren, für deren Produktion aber auf die vorhandenen Fertigungskapazitäten der Spezialisten zurückgreifen – der Investitionsaufwand hält sich also in Grenzen. Das schafft Spielraum für viele ­innovative Ideen und verändert die Wettbewerbsdynamik in der ­Branche noch einmal komplett. 

Es gibt nicht den einen Halbleiter

Interview mit Yvonne Keil, Mitglied des Vorstands von Silicon Saxony und Director Global Indirect Procurement bei Globalfoundries

In den vergangenen zwei Jahrzehnten hat es das Hightech-Netzwerk Silicon Saxony geschafft, rund um Dresden Europas größten Mikroelektronik-Standort aufzubauen. Globalfoundries, Infineon und Bosch betreiben dort einige der modernsten und größten Halbleiter-Fabs weltweit. Damit könnte die Region ein gutes Vorbild für Europa sein, wie man hierzulande erfolgreich ein Halbleiter-Ökosystem aufbauen kann. Yvonne Keil, Mitglied des Vorstands von Silicon Saxony, ist überzeugt, dass sich so ein Engagement lohnt. Als ­Director Global Indirect Procurement ist Keil bei ­Globalfoundries unter anderem verantwortlich für den Bau neuer Produktionsstätten und mahnt an, dass Investitionen differenziert erfolgen müssen.

Frau Keil, wie kamen Sie überhaupt zur Halbleiterindustrie?

Yvonne Keil: Mit 16 habe ich ein Praktikum in einem Halbleiterunternehmen absolviert. Ich stand da in dieser riesigen, vollautomatisierten Fabrik mit ihrem komplexen Herstellungsprozess, bei der am Ende dieser kleine Chip herauskommt. Das fand ich faszinierend, hier wollte ich arbeiten. Ich studierte also Halbleiter- und Elektrotechnik und machte mich auf den Weg. 

Welche Technologie-Entwicklungen aus dem Bereich der Halbleiter finden Sie aktuell besonders spannend?

Y. K.: Das Spannendste ist für mich im Moment, dass Halbleitertechnologie überall im Leben eines jeden Menschen zu finden ist. Wenn Sie Auto fahren, sind da ­Hunderte von Chips darin – und wenn man für einen Halbleiterhersteller arbeitet, war man höchstwahrscheinlich an der Produktion einiger davon beteiligt. Oder man schaut sein mobiles Gerät an und denkt – hey, den Display-Chip habe ich mitentwickelt. Oder wenn man mit seinen Lieben und Freunden auf der ganzen Welt in Verbindung treten will – überall sind Halbleiter Teil des täglichen Lebens. Das fasziniert mich wirklich.

 

„Halbleiter sind überall und sie sind unverzichtbar.“

 

Was macht Halbleiter aus Ihrer Sicht so wertvoll? 

Y. K.: Um die Herausforderungen der kommenden Generationen und die, mit denen wir heute bereits konfrontiert werden, zu bewältigen, brauchen wir die Halbleitertechnologie. Wenn ich darüber nachdenke, wie ich meinen CO2-Fußabdruck verringern und meine Lebensweise nachhaltiger gestalten kann, muss ich über ein neues Konzept des Energiemanagements und der Energieerzeugung nachdenken – dazu gehören dann fast zwangsläufig Mikrochips. Wenn man über neue Mobilitätskonzepte für Städte nachdenkt und darüber, wie man Autos verbessern kann – dann sind Halbleiter ein Teil davon. Daher haben Halbleiter heute so einen hohen Wert für uns.

Würden Sie der Aussage zustimmen, dass Mikrochips das neue Erdöl sind – also der Motor für die Volkswirtschaften?

Y. K.: Das passt ganz gut, denke ich. Halbleiter sind überall und sie sind unverzichtbar. Wichtig dabei: Es gibt nicht den einen Halbleiter. Man braucht nicht nur Zwei- oder Fünf-Nanometer-Chips. Sondern man benötigt für all die verschiedenen Aspekte des Lebens, in denen Halbleiterprodukte eingesetzt werden, sehr differenzierte Lösungen. 

Halbleiter werden zunehmend zu einem politischen Thema – was bedeutet das für die Industrie? 

Y. K.: Grundsätzlich gilt, dass die Chip-Herstellung komplex ist und die Märkte wachsen. In den vergangenen Jahren wurden die Investitionen nicht mehr in dem Maße getätigt, wie sie wahrscheinlich nötig gewesen wären, um auf die wachsende Nachfrage vorbereitet zu sein. Aber mit dem, sagen wir mal, Beschleuniger COVID-19 stehen wir vor einer neuen Geschwindigkeit der Digitalisierung. Regierungen erkennen jetzt, dass sie in die Fertigung mitinvestieren müssen, um ihre heimischen Kapazitäten zu sichern und ihre Industrien und Volkswirtschaften zu unterstützen. Das ist ein deutlicher Mentalitätswandel. Chips sind ganz klar ein Teil jeder Industrie, und das wird jetzt erkannt.

Was ist aus Ihrer Sicht erforderlich, um einen Engpass bei HalbleiterProdukten in Zukunft zu vermeiden?

Y. K.: Das, was nötig ist, ist bereits in Gang gesetzt: Wir haben in der Halbleiterindustrie begonnen, die Kapazitäten zu erhöhen und nehmen dazu erhebliche Investitionen vor. Zum Beispiel investiert Globalfoundries in eine neue Fab in Singapur und baut auch die Standorte in Dresden und den Vereinigten Staaten weiter aus. Auf der anderen ­Seite hat die Politik erkannt, dass die Halbleiterindustrie entscheidend für die Zukunft ist, und wir brauchen Rückenwind durch neue wirksame Instrumente wie den European Chips Act. Diese müssen aber auch schnell eingesetzt werden, damit die Unternehmen das klare ­Signal für weitere Investitionen bekommen. 

Reicht es denn, dazu einfach neue Fabriken zu bauen?

Y. K.: Nein, das reicht nicht. Auch das gesamte Ökosystem drumherum muss ausgebaut werden. Das bedeutet, dass auch unsere Zulieferer investieren und ihre Kapazitäten ausbauen müssen. Und natürlich müssen auch die Fachkräfte verfügbar sein, um das Wachstum zu unterstützen.

Hat die Politik in der Vergangenheit geschlafen und nicht die nötigen Maßnahmen ergriffen, um die Chip-Lieferketten zu sichern?

Y. K.: Es liegt eher daran, dass die Nachfrage nach Halbleitern wesentlich schneller gestiegen ist, als man vorhersehen konnte. Da war COVID-19 ganz klar ein Beschleuniger. Damit haben wir die nächste Stufe der Digitalisierung viel schneller erreicht, als erwartet wurde. Aber jetzt muss auch die Politik entsprechend schnell reagieren, um nicht den Anschluss zu verlieren. 

Was kann die Politik tun, um die Halbleiter­­Industrie wieder zurück nach Europa zu holen?

Y. K.: Mit dem IPCEI Instrument, dem European Chips Act oder dem US Chips Act hat die Politik richtige und wichtige Schritte gemacht. Aber: Es ist genauso wichtig, in die richtige Technologie zur richtigen Zeit am richtigen Ort zu investieren. Und man muss genau überlegen, in welche Technologiefelder ganz konkret investiert wird. Denn wie ich schon gesagt habe – es gibt nicht den einen richtigen Weg und die eine richtige Technologie, sondern es gibt in der Halbleiterindustrie viele Anforderungen. Wir brauchen deshalb eine Vielzahl von innovativen und differenzierten Lösungen für viele unterschiedliche Anwendungen und Erfordernisse, um erfolgreich zu sein.

Wie ist denn Ihre persönliche Meinung zum European Chips Act?

Y. K.: Es ist der richtige Schritt nach vorn. Unsere Regierung und die Europäische Kommission unterstreichen damit, dass die Halbleiterindustrie unverzichtbar ist und dass die Politik sie unterstützen will. Aber die Investitionen und Finanzierungen müssen in die richtigen Technologien, am richtigen Ort und im richtigen Tempo getätigt werden.

Was könnten dabei Hindernisse sein?

Y. K.: Es geht vor allem um Geschwindigkeit. Die entsprechenden Entscheidungen müssen sehr schnell getroffen und konsequent umgesetzt werden.

Wie kam es dazu, dass die Region rund um Dresden zu einem der größten Mikroelektronik- und IT-Cluster Europas geworden ist?

Y. K.: Die richtigen Leute waren entscheidend. Dresden war ja bereits zu DDR-Zeiten ein Zentrum für Mikroelektronik. Als nach der Wiedervereinigung die ersten Halbleiterfirmen nach einem Standort suchten, war Dresden einfach die Stadt mit den entsprechenden Fachkräften, den richtigen Leuten mit den richtigen Fähigkeiten. Im Laufe der Jahre, und wir sprechen inzwischen von 60 Jahren Halbleiterindustrie in Dresden, haben wir rundherum ein ganzes Ökosystem aufgebaut. Das profitiert eindeutig von der richtigen Mischung aus technologischen Lehr- und Forschungskapazitäten – wir arbeiten eng mit Universitäten und zum Beispiel den Fraunhofer-Instituten zusammen –, von großen Playern wie auch kleineren Zulieferern der Halbleiterindustrie und von Firmen aus der Softwarebranche. Diese Mischung hat das Cluster so erfolgreich gemacht.

Was unterscheidet Silicon Saxony von anderen Initiativen in diesem Bereich? 

Y. K.: Angefangen hat alles in den 90er-Jahren mit einer Initiative „von unten“, sprich: der Zulieferindustrie. Ziel war es, zusammen mit der ersten Halbleiterfabrik in Dresden, das in Sachsen vorhandene Halbleiter-Ökosystem sichtbarer zu machen. Der große Unterschied zu anderen Organisationen in diesem Bereich ist, dass wir eine zu einhundert Prozent privat finanzierte Initiative sind – die Finanzierung erfolgt also ausschließlich durch die Halbleiterindustrie und ihre Zulieferer. Natürlich arbeiten wir dabei auch eng mit der Regierung zusammen. 

 

„Die verschiedenen Aspekte des Lebens erfordern entsprechend­ differenzierte Halbleiter­lösungen.“

 

Wie sieht es mit dem Nachwuchs an Fachkräften bei Ihnen aus? 

Y. K.: Wir alle brauchen sie! Wir arbeiten in einer sehr, sehr interessanten Branche, die Experten und Spezialisten in vielen Bereichen benötigt. Wir brauchen Technikerinnen und Techniker für den Betrieb großer Fabs genauso wie Fachleute in der Technologieentwicklung oder IT-Experten. Es geht darum, die nächste Generation für die kommenden Herausforderungen fit zu machen.

Was würden Sie denn einem Jugendlichen sagen, warum er eine Karriere in der Halbleiterindustrie anstreben sollte?

Y. K.: Die Halbleiterindustrie ist wirklich faszinierend – auch, weil sie einem als jungem Menschen so viele Möglichkeiten bietet. Ich zum Beispiel habe in meinen 18 Berufsjahren bereits als Automatisierungsingenieurin gearbeitet, war dann verantwortlich für die Qualitäts­sicherung in der Produktion und bin heute in der Beschaffung tätig. Es gibt so viele Bereiche bei der Herstellung von Halbleiterprodukten  … Es ist einfach großartig, ein Teil ­davon zu sein.

Was genau macht das so großartig?

Y. K.: Man kann die Welt durch Technologie verbessern. Und die Leidenschaft für Technologie verbindet Menschen und Kulturen weltweit miteinander. 

Halbleiter – DER neue Treibstoff der Weltwirtschaft

Die Mikroelektronik ist heute Grundlage für ­nahezu jede zukunftsträchtige Technologie. Halbleiter sind unverzichtbar für die ­meisten Bereiche der Wirtschaft und in fast allen ­Lebensbereichen. Doch ihre Produktion erfordert immer mehr Know-how und komplexe Wertschöpfungsketten, so dass die Welt der Halbleiter sehr ­empfindlich auf Störungen reagiert.

Früher war Öl das Lebenselixier der Volkswirtschaften weltweit. Mit der zunehmend voranschreitenden Digitalisierung übernehmen Halbleiter immer mehr diese Rolle. „Mikroelektronik ist eine Schlüsseltechnologie im digitalen Zeitalter und Halbleiter sind die Basis für fast alle künftigen digitalen Technologien“, sagt Bitkom-Präsident Achim Berg. Mikrochips bilden die miniaturisierten ­Kernstücke komplexer elektronischer Schaltungen. Von der industriellen Produktion über die Medizintechnik bis hin zum vollautomatisierten Fahren – ohne Halbleiter geht kaum noch etwas. Auch den privaten Bereich haben Prozessoren und Speicherchips längst erobert: Sie sitzen in Smartphones, Küchengeräten, Fernsehern oder auch in Kreditkarten und Reisepässen. Von Chips älterer Bauart, die immer noch in vielen Anwendungen verwendet werden, bis hin zu High-End-Chips, die für Spitzenprodukte wie PCs und Smartphones benötigt werden, sind Halbleiter essenzielle Bauteile in allen elektronischen Geräten. Allein im Jahr 2021 wurden laut den auf den Halbleitermarkt spezialisierten Analysten von IC Insights 1,1353 Billionen Halbleitereinheiten ausgeliefert. 

Rasante Entwicklung

Dabei hat die Halbleitertechnologie in den letzten fünf Jahrzehnten eine rasante Entwicklung durchlaufen. Die Apollo-Mondlandefähre verwendete bei der Mondmission 1969 einige zehntausend Transistoren mit einem Gesamtgewicht von etwa 30 Kilogramm. Zum Vergleich: IBM stellte in 2021 neue Halbleiterchips mit den kleinsten jemals hergestellten Transistoren vor. Mit dem neuen ­2-Nanometer-Transistor kann das Unternehmen 50 Milliarden Transistoren auf einem Chip von der Größe eines Fingernagels unterbringen – 2 Nanometer sind schmaler als ein Strang der menschlichen DNA. 

Nachfrage deutlich größer als Angebot

Wie abhängig die globale Wirtschaft inzwischen von diesen kleinen Elektronikelementen ist, zeigen die ­Lieferengpässe, die seit Ende 2020 die Wirtschaft ausbremsen. Neue Smartphones kamen verspätet auf den Markt, Industrieroboter, Notebooks und selbst Spielekonsolen waren nur schwer erhältlich. Besonders die Automobilindustrie war betroffen: In Autofabriken standen Produktionsbänder still, Mitarbeiter wurden in Kurzarbeit geschickt. Laut dem Beratungsunternehmen AlixPartners hat die globale Automobilindustrie im Jahr 2021 rund 210 Milliarden US-Dollar an ­Umsatz wegen des Halbleitermangels verloren. Bitkom-Präsident Achim Berg: „Der anhaltende Chip-Mangel ist ein Risiko für die gesamte Wirtschaft, gerade auch in Europa und Deutschland.“ 

Dabei wird die Diskrepanz zwischen Angebot und Nachfrage von Halbleitern immer größer, wie Michael Alexander, Partner bei Roland Berger, erläutert: „Eine baldige Besserung ist nicht in Sicht. Denn der Engpass hat strukturelle Gründe, die in der aktuellen Ausgestaltung der Lieferketten liegen. Die Knappheit der Chips wird bis in das Jahr 2023 – und wahrscheinlich darüber hinaus – bestehen bleiben.“

Langwierige Produktion

Die Herstellung von Chips ist langwierig und komplex – vom Design über die Produktionsanlage, Chemikalien, Fertigung und Verpackung kann kein Land allein modernste Halbleiter produzieren. Um ein Halbleiter-Bauelement herzustellen, wird zunächst ein monokristalliner Halbleiterrohling, ein sogenannter Ingot, gesägt, geschliffen und poliert, um ihn in eine dünne Form zu bringen. Anschließend werden auf diesem Wafer nach und nach diverse isolierende oder leitende Schichten erzeugt, die jeweils mit sogenannten lithografischen Verfahren strukturiert werden. Ganz zum Schluss werden die Wafer metallisiert, so dass Strom fließen kann und sie kontaktiert werden können. So entstehen auf einem Wafer integrierte Schaltungen mit Leiterbahnen für eine große Zahl von Bauteilen parallel. Abschließend werden die ICs vereinzelt und in ein Gehäuse eingebracht. Während des gesamten Prozesses wie auch am Ende werden die Arbeitsgänge immer wieder überprüft und die Qualität der ICs und Chips
getestet.

Komplexe Wertschöpfungskette

Der Herstellungsprozess eines einzigen Halbleiterprodukts kann rund zwei Monate dauern und umfasst rund 700 Einzelschritte, so Hagen-Holger Apel, Senior Client Portfolio Manager bei DNB AM: „Dabei müssen mehr als 70-mal internationale Grenzen überquert werden, bevor ein Endverbraucher-Kunde erreicht wird. Ein in den USA ansässiges Halbleiterunternehmen kann weltweit bis zu 16.000 Zulieferer haben.“ Diese komplexe Struktur ist das Ergebnis einer jahrzehntelangen Optimierung der Wertschöpfungskette hinsichtlich Fähigkeiten und Kosten. Aber sie macht die Halbleiterindustrie auch sehr empfindlich gegenüber Störungen in der Lieferkette. 

In 2020 kamen gleich verschiedene Faktoren zusammen, die diese Struktur getroffen hat: Versorgungsengpässe bei Rohstofflieferanten, geopolitische Spannungen zwischen China und den USA sowie ein durch die Corona-­Pandemie verzerrter Markt. „Die aktuellen Liefer­engpässen sind ein Anlass, einseitige Abhängigkeiten zu hinterfragen und die Ausgangsposition im globalen Wettbewerb um digitale ­Technologien zu verbessern“, sagt Bitkom-Präsident Achim Berg. 

Vom Recycling zum Second-Hand-Chip

Mit der zunehmenden Digitalisierung steigt auch die Zahl der HalbleiterProdukte, die im Abfall landen. Ihr Recycling oder ihre Wiederverwendung ist nicht nur ein Beitrag zu mehr Nachhaltigkeit, sondern ist auch als Rohstoffquelle ­zunehmend interessant.

Laut der letzten Ausgabe des „Global E-­Waste ­Monitor“ der Vereinten Nationen wurde 2019 weltweit eine Rekordmenge von 53,6 Millionen Tonnen Elektroschrott erzeugt. Diese Menge soll weiter steigen – bis 2030 auf 74 Millionen Tonnen, was im Vergleich zu 2014 fast einer Verdoppelung des Elektro­schrotts in nur 16 Jahren entspricht. Davon wurden zudem im Jahr 2019 nur 17,4 Prozent gesammelt und recycelt. Das bedeutet, dass Gold, Silber, Kupfer, Platin und andere ­hochwertige, ­wiederverwertbare Materialien, die konservativ auf 57 ­Milliarden US-Dollar geschätzt werden, größtenteils deponiert oder verbrannt wurden, anstatt zur Wiederverwendung gesammelt zu werden.

Umweltauswirkungen reduzieren 

Natürlich ist der Anteil der Halbleiterprodukte am E-Waste relativ gering, dennoch setzen sich immer mehr Unternehmen zum Ziel, auch hier nachhaltiger zu werden und ihren CO2-Fußabdruck auf null zu bringen. „Aber oft fehlen ihnen die Daten, um den Anteil von ICs von Anfang bis Ende zu entschlüsseln. Genau hier kommt IMEC ins Spiel. Wir verfügen über diese Daten und sind bereit, die Industrie mit allen notwendigen Erkenntnissen, Werkzeugen, Instrumenten und Zahlen zu unterstützen“, sagt Luc Van den Hove, CEO von IMEC. Das Forschungs- und Innovationszentrum für Nano­elektronik und digitale Technologien hat dazu eigens das Forschungsprogramm Sustainable Semiconductor Technologies and Systems (SSTS) initiiert. Das SSTS-Programm ist die erste Initiative, die Interessenvertreter aus der gesamten IC-Wertschöpfungskette zusammenbringt, um die Umweltauswirkungen der Chip-Produktion zu erfassen. Dabei rückt auch das Recycling immer mehr in den Fokus – nur so lässt sich die Menge an E-Waste reduzieren und lassen sich wichtige Rohstoffe wiedergewinnen. Dabei sprechen nicht nur Umweltschutzgründe für ein Recycling: Elemente wie ­Tantal, Neodym, Wolfram, Kobalt und Gallium sind im wahrsten Sinne Wertstoffe, denn sie sind rar, von hoher wirtschaftlicher Bedeutung und zudem mit einem erheblichen Versorgungsrisiko verbunden. Deren Wiedergewinnung könnte also auch ein Beitrag zu resilienteren Lieferketten sein.

Neue Recyclingverfahren

Allerdings ist das Recycling von Chips heute aufgrund ihres komplexen Aufbaus noch zu teuer und aufwändig. Neue ­Recyclingkonzepte sind notwendig, um die Kosten zu senken, doch noch finden sich entsprechende Verfahren hauptsächlich im Bereich der Forschung. Im EU-Projekt ADIR zum Beispiel wurde ein Verfahren entwickelt, mit dem sich dank automatisierbarer flexibler Prozesse Elektronikgeräte am Ende ihrer Nutzungsdauer effizient in ihre Einzelteile ­zerlegen lassen. In einer Demontageanlage arbeiten dazu Laser­technik, Robotik, Visionsysteme und Informationstechnologie in intelligenter Weise zusammen. Laser identifizieren dabei unter anderem Inhaltsstoffe, entlöten berührungslos Bauelemente oder schneiden sie aus den Platinen. So lassen sich strategisch bedeutsame Wertstoffe mit hoher wirtschaftlicher Bedeutung im industriellen Maßstab effizient recyceln: Tantal zum Beispiel konnte zu 96 bis 98 Prozent zurückgewonnen werden. Ein anderes Beispiel ist ein umweltfreundliches hydrothermales Abscheideverfahren, das ein Team rund um Lu Zhan von der East China Normal ­University entwickelt hat: Mit ihm konnten 99,9 ­Prozent des ­Galliums und 95,5 Prozent des Arsens aus ICs zurückgewonnen werden. 

Vollständig recycelbarer Transistor

Neue Materialien könnten zudem das Recycling zumindest in Teilbereichen deutlich vereinfachen: So ­haben Forscher der US-amerikanischen Duke University den ersten vollständig recycelbaren Transistor entwickelt. Der druckbare Baustein wird aus einer leitenden ­Graphen-Tinte, einer halbleitenden Tinte auf Basis von Kohlenstoff-Nanoröhren sowie einer isolierenden Nano-Zellulose-­Tinte her­gestellt. Das Recycling des auf Kohlenstoff basierenden Bauelements ist einfach und erfordert nur ein Ultraschallbad und eine Zentrifuge. Das Graphen und die Kohlenstoff-Nanoröhrchen können so beide zu über 95 Prozent wiedergewonnen werden.

Halbleiterkomponenten wiederverwenden 

Noch effizienter und umweltfreundlicher als Recycling wäre es, Halbleiter-Bausteine wie Speicher und ICs als Ganzes wiederzuverwenden – als „Second-Hand-Chips“. Das erfordert zum einen entsprechende Demontageverfahren und ein demontagefreundliches Design von Halbleiterprodukten. Zum anderen sind aber auch neue Normen und die Zusammenarbeit der Industrie ein wichtiger Schlüssel zur Schaffung transparenter Sekundärmärkte für wiederverwendete Mikrochips, wie Dr. Patrick Schröder von der britischen Denkfabrik Chatham House betont: „Halbleiterunternehmen sollten einen Mechanismus für „zertifizierte gebrauchte Chips“ in Erwägung ziehen, bei dem sie aktiv in den Validierungsprozess einbezogen werden, um Fälschungen und Probleme der nationalen Sicherheit zu verhindern.“ Langfristig ist eine umfassende Nachhaltigkeitsvision für die Halbleiterindustrie erforderlich, die sowohl Umweltbelange als auch die Widerstandsfähigkeit der Lieferketten berücksichtigt. Schlüsselelemente sind die Konzeption von Halbleitern und Elektronik für die Wiederverwendung, der Betrieb von abfallfreien Produktionsanlagen, der Aufbau einer gut vernetzten Infrastruktur für Elektronikreparaturzentren auf globaler Ebene und die Vermeidung unnötiger Abfälle durch die Wiederaufbereitung gebrauchter Teile und Komponenten. „Ich möchte die gesamte Halbleiter-Wertschöpfungskette dazu aufrufen, nicht abseits zu stehen, sondern gemeinsam mit uns zu handeln, um den ökologischen Fußabdruck der gesamten Halbleiterindustrie zu verkleinern“, so IMEC-CEO Luc Van den hove. 

Die Halbleiterindustrie im Wandel

Die Halbleiterindustrie im Wandel – mehr Resilienz, größere Autonomie, neue Technologien

Die letzten Monate haben eindrücklich gezeigt, welche Rolle Halbleiter für unsere Wirtschaft spielen. Erst der Handelskrieg zwischen den USA und China sowie der Abschwung des Jahres 2019, dann der Ausbruch von COVID-19. Die Lieferketten wurden weltweit durcheinandergebracht und viele Fabriken der Halbleiterindustrie im asiatisch-pazifischen Raum fuhren ihren Betrieb herunter. In anderen Teilen der Welt wurden die Fabriken durch ­Naturkatastrophen wie Wirbelstürme oder Erdbeben ­beeinträchtigt. Parallel dazu steigt die Nachfrage nach Chips kontinuierlich – allein im Markt für Leistungshalbleiter wird sich nach aktuellen Abschätzungen des deutschen Verbands der Elektro- und Digital­industrie (ZVEI) das Wachstum bis 2030 verdreifachen. Das Ergebnis sind teils erhebliche Lieferengpässe bei Halbleitern und Chips. 

Die Lieferschwierigkeiten in der Halbleiterindustrie haben aber auch interne Gründe: Die Gruppe an Unternehmen, die den Löwenanteil der weltweiten Halbleiter-­Umsätze erwirtschaftet, ist klein. Bei der Fertigung von Computerchips erwirtschaften nur zwei Unternehmen zusammengenommen rund 70 Prozent des weltweiten Umsatzes. Zudem haben viele Halbleiterunternehmen keine eigenen Fabriken, sondern lassen vorzugsweise in Asien fertigen. So wird fast jeder vierte Chip in China produziert – aber größtenteils nicht im Auftrag chinesischer Unternehmen.

Um die Lieferketten zu stabilisieren und die Abhängigkeiten zu reduzieren, planen immer mehr Staaten, Fertigungskapazitäten wieder ins eigene Land zu ­holen. So wollen die USA über die nächste Dekade rund 52 ­Milliarden US-Dollar investieren, um die heimische Halbleiterindustrie zu unterstützen. Auch die EU plant, mit einem eigenen „European Chips Act“ mehr Autonomie im Bereich der Halbleiter zu erlangen. 

Für Chiphersteller bedeuten diese Investitionen zusammen mit der konstant hohen Nachfrage bei geringerem Angebot blendende ­Aussichten. Laut der Organisation „World ­Semiconductor Trade Statistics“ ist der weltweite Halbleiterumsatz alleine in 2021 um 25,6 Prozent auf 553 Milliarden US-Dollar gewachsen. In 2028 soll der Umsatz laut Fortune Business Insights dann bereits bei über 800 Milliarden US-Dollar liegen.

Mit den hohen Investments von Industrie und Politik wird auch die Entwicklung in der Halbleitertechnologie weitergehen: Neue Materialien und Chip-Architekturen, die Verlagerung auf 450-Millimeter-Wafer, 5 Nanometer-­Bauelemente, 3 bzw. 2 Nanometer sind bereits in der ­Pipeline – Moores Law ist längst noch nicht am Ende. ­Bereits heute sind so Innovationen Wirklichkeit, die vor wenigen Jahren noch undenkbar schienen.

Die Vielzahl an verschiedenen Entwicklungen in der Halbleiterindustrie und -technologie bergen große Chancen. EBV Elektronik unterstützt Sie gerne dabei, diese für sich zu nutzen. Jetzt wünsche ich Ihnen erstmal eine spannende Lektüre, tauchen Sie ein in die Welt der Halbleiter!

Thomas Staudinger 

Präsident EBV Elektronik

Boomender Roboter-Markt

Es begann vor rund 50 Jahren mit nur wenigen Einsatzmöglichkeiten für die ersten Roboter. Seitdem werden sie immer flexibler und günstiger; Anwendungsfelder und Markvolumen der Robotik wachsen kontinuierlich. Mit den kommenden Servicerobotern sind die mechatronischen Helfer endgültig im Massenmarkt angekommen.

Der Robotermarkt befindet sich in einer Phase des Umbruchs: Als persönliche Assistenten, autonome Fahrzeuge, Chirurgieassistenten oder Flugdrohnen erobern Roboter jetzt auch Bereiche außerhalb ihres angestammten Einsatzes in der Industrie. Laut dem Marktforschungsinstitut Tractica wurde im Jahr 2016 zum ersten Mal mehr Geld mit nichtindustriellen Robotern verdient als mit solchen, die in den Fabriken arbeiten.
Das bedeutet allerdings nicht, dass weniger Industrieroboter zum Einsatz kommen: Der Weltbranchenverband International Federation of Robotics (IFR) rechnet bis zum Jahr 2019 mit einem globalen Zuwachs von durchschnittlich mindestens 13 Prozent im Jahr. Bis dahin werden dann in der Summe mehr als 1,4 Millionen neue Industrieroboter in den Fabriken rund um den Globus installiert worden sein. Bis 2022 soll das Marktvolumen für industrielle Roboter insgesamt bei 79,58 Milliarden US-Dollar liegen, so die Marktanalysten von MarketsandMarkets. Die stärksten Wachstumsimpulse für die Roboterbranche kommen laut IFR aus China: 40 Prozent des weltweiten Marktvolumens an Industrierobotern werden 2019 alleine im Reich der Mitte verkauft.
Neben den Industrierobotern erobern Serviceroboter den Roboter-Markt: Für professionelle Anwendungen, zum Beispiel in Medizin, Landwirtschaft oder Logistik, lag der Verkaufswert 2015 laut IFR bei 4,6 Milliarden Dollar. Für 2016 bis 2019 wird mit einer weiterhin stark dynamischen Nachfrage gerechnet. Der akkumulierte Wert steigt auf 23 Milliarden US-Dollar. Zusätzlich zum bereits etablierten Geschäft mit professionellen Service­robotern wächst jetzt auch verstärkt das Consumer-Segment heran – vom Staubsauger bis zum technischen Unterhaltungskünstler. Derartige privat genutzte Serviceroboter erzielten laut IFR 2015 ein Absatzplus von 16 Prozent und stiegen auf einen akkumulierten Verkaufswert von 22 Milliarden US-Dollar. Interessant in diesem vergleichsweise neuen Marktsegment ist die Frage, wie sich die Start-up-Szene entwickelt – denn für innovative junge Firmen bieten sich hier einmalige Chancen, einen Markt zu erobern, auf dem sich noch keine großen Roboterhersteller etabliert haben.
In der Summe prognostiziert Tractica für die gesamte Roboterindustrie – inklusive autonomer Fahr- und Flugzeuge – einen wahren Boom: Von 34,1 Milliarden Dollar in 2016 soll der globale Robotermarkt auf 226,2 Milliarden Dollar bis zum Jahr 2021 ansteigen – das entspricht einer durchschnittlichen jährlichen Wachstumsrate von beeindruckenden 46 Prozent.

Von reiner Fiktion zur realen Marktchance

Intelligente Maschinen und selbstlernende Computer eröffnen auch der Elektronikbranche spannende Chancen.

Lange war die Idee von denkenden, ja sogar fühlenden Maschinen nur eine Vision von Science-Fiction-Autoren. Doch dank rasanter Entwicklungen bei den Halbleitern und neuer Ideen bei der Programmierung selbstlernender Algorithmen ist die Künstliche Intelligenz (KI; im Englischen Artificial Intelligence, AI) heute ein sehr reeller Markt, der Unternehmen spannende Perspektiven eröffnet.

Laut der Unternehmensberatung McKinsey wächst der globale Markt für KI-basierte Dienstleistungen, Software und Hardware jährlich um bis zu 25 Prozent und wird bis 2025 voraussichtlich 130 Milliarden US-Dollar erreichen. Entsprechend boomen die Investitionen in Künstliche Intelligenz, so die Ergebnisse der Studie „Artificial Intelligence: the next digital frontier“ des McKinsey Global Institutes. Im vergangenen Jahr gaben danach Unternehmen, allen voran große Technologiekonzerne wie Google und Amazon, bis zu 27 Milliarden Dollar für interne Forschung und Entwicklung intelligenter Roboter und selbstlernender Computer aus. Weitere zwölf Milliarden Dollar flossen 2016 extern in KI – also durch Private-Equity-Gesellschaften, Risikokapitalgeber oder im Rahmen von Fusionen und Übernahmen. In Summe waren dies rund 39 Milliarden Dollar, was eine Verdreifachung im Vergleich zu 2013 bedeutet. Der Großteil der derzeitigen externen Investitionen (rund 60 Prozent) fließt in maschinelles Lernen (bis zu sieben Milliarden Dollar), weitere wichtige Felder sind Bilderkennung (2,5 Milliarden bis 3,5 Milliarden Dollar) und Spracherkennung (600 Millionen bis 900 Millionen Dollar).

Intelligente Maschinen und selbstlernende Computer eröffnen der Elektronikbranche neue Marktchancen. Die Marktanalysten von TrendForce erwarten, dass die weltweiten Einnahmen aus Chip-Verkäufen zwischen 2018 und 2022 um jährlich 3,1 Prozent wachsen werden. Doch nicht nur die Nachfrage nach Prozessoren steigt – der Einsatz von KI beflügelt auch neue Lösungen in Elektronik-Sparten wie Sensorik, Hardware-Beschleunigern oder digitalen Speichermedien. So soll beispielsweise der Markt für Next-Generation-Memory-Bauelemente laut dem Marktforschungsinstitut marketsandmarkets von 2,35 Milliarden Dollar in 2017 bis zum Jahr 2023 auf 9,68 Milliarden Dollar anwachsen – unter anderem wegen Big Data, des Internets der Dinge und Anwendungen rund um die Künstliche Intelligenz. Zusätzlich führt die Etablierung von KI-basierten Dienstleistungen zu einer steigenden Nachfrage nach leistungsfähigeren Netzwerk-Infrastrukturen, Daten-Centern und Server-Systemen.

KI ist also auch für die Elektronikindustrie ein wichtiger Zukunftsmarkt. Gerne unterstützen wir Sie mit unseren Halbleiterlösungen, Experten und unserem Partnernetzwerk dabei, hierfür spannende Produkte zu entwickeln.

Sensoren als Basis von KI

Durch Sensor-Fusion entstehen immer exaktere Abbilder der Um­gebung. Um schneller Ergebnisse zu erzielen und die Datenflut zu reduzieren, wandert die Intelligenz auch in die Sensoren selbst.

Systeme mit Künstlicher Intelligenz brauchen Daten. Je mehr Daten, umso besser die Ergebnisse. Diese Daten können entweder aus Datenbanken stammen – oder sie werden mit Hilfe von Sensoren gewonnen: Sensoren messen zum Beispiel Schwingungen, Ströme und Temperaturen an Maschinen und liefern einem KI-System damit Informationen, um fällige Wartungen zu prognostizieren. Andere erfassen – integriert in Wearables – Puls, Blutdruck und vielleicht Blutzuckerwerte beim Menschen, um Rückschlüsse auf den Gesundheitszustand zu ermöglichen.

Viele Impulse hat die Sensorik in den letzten Jahren aus den Bereichen der mobilen Robotik und des autonomen Fahrens erhalten: Damit ein Fahrzeug sich autonom durch eine Umgebung bewegen kann, müssen die Fahrzeuge das Umfeld erkennen und die genaue Position bestimmen können. Dazu werden sie mit den unterschiedlichsten Sensoren ausgestattet: Ultraschallsensoren erfassen Hindernisse in kurzer Distanz, zum Beispiel beim Parken. Radarsensoren messen die Position und Geschwindigkeit von Objekten in größerer Entfernung. Lidar-Sensoren (light detection and ranging) scannen mit unsichtbarem Laser-Licht die Umgebung und liefern ein exaktes 3D-Abbild. Kamera-Systeme erfassen wichtige optische Informationen wie Farbe und Kontur eines Objektes und können über die Laufzeit eines Lichtimpulses sogar die Entfernung messen.

Mehr Informationen sind gefragt

Dabei steht heute nicht mehr nur die Positionsbestimmung eines Objekts im Vordergrund, sondern auch Informationen wie beispielsweise die Orientierung, die Größe oder auch Farbe und Textur werden immer wichtiger. Um das sicher zu bestimmen, müssen mehrere Sensoren zusammenarbeiten: Denn jedes Sensor-System bietet zwar spezifische Vorteile. Doch erst die Kombination der Informationen verschiedener Sensoren – die sogenannte Sensor-Fusion – liefert ein exaktes, vollständiges und verlässliches Bild der Umgebung. Ein einfaches Beispiel hierfür sind Bewegungssensoren, wie sie unter anderem in Smartphones Verwendung finden: Erst aus der Kombination von Beschleunigungsmesser, Magnetfelderkennung und Gyroskop können sie Richtung und Geschwindigkeit einer Bewegung messen.

Auch Sensoren werden intelligent

Doch moderne Sensorsysteme liefern nicht nur Daten für KI, sondern nutzen sie auch: Derartige Sensoren können so eine Vorverarbeitung der Messdaten durchführen und damit die zentrale Recheneinheit entlasten. Zum Beispiel hat das Start-up AEye einen neuartigen Hybrid-Sensor entwickelt, der Kamera, Festkörper-Lidar und Chips mit KI-Algorithmen kombiniert. Es überlagert die 3D-Punktewolke des Lidar mit den 2D-Pixeln der Kamera und liefert so ein 3D-Abbild der Umgebung in Farbe. Anschließend werden durch KI-Algorithmen die relevanten Informationen aus dem Umfeld des Fahrzeugs herausgefiltert und bewertet. Das System ist nicht nur um den Faktor zehn bis 20 exakter und dreimal schneller als einzelne Lidar-Sensoren, sondern es reduziert auch die Datenflut zu zentralen Prozessoreinheiten.

Sensoren liefern dem KI-System vielfältige Informationen über:

  • Vibration
  • Ströme
  • Temperatur
  • Position
  • Größe
  • Farbe
  • Textur
  • und vieles mehr…

Ist KI schlauer als der Mensch?

Was in den 1950ern mit einer Konferenz der KI-Pioniere John McCarthy und Marvin Minsky begann, ist zu einer Schlüsseltechnologie ­geworden.­ Sie beeinflusst schon heute­ ­unser Leben – und wird es mit steigender Intelligenz der Maschinen in Zukunft noch viel mehr tun. Doch ist Künstliche Intelligenz schlauer als der Mensch?

Smarte Home-Assistenten bestellen auf Zuruf online die gewünschten Produkte. Chat-Bots führen eigenständig Dialoge mit Kunden. Selbstfahrende Autos bringen den Fahrer sicher zum Ziel, auch wenn der sich in seine Zeitung vertieft. All das sind Anwendungen, die schon heute in unserem Alltag anzutreffen sind – und die alle etwas gemeinsam haben: Ohne Künstliche Intelligenz wären sie nicht möglich.

KI ist eine Schlüsseltechnologie, die sich in den kommenden Jahren nicht nur maßgeblich auf unser tägliches Leben, sondern auch auf die Wettbewerbsfähigkeit der gesamten Wirtschaft auswirkt. „Künstliche Intelligenz hat ein enormes Potenzial, unser Leben zu verbessern – etwa im Gesundheits- und Bildungswesen oder in der Verwaltung. Sie bietet große Chancen für Unternehmen und hat bereits heute eine erstaunlich hohe Akzeptanz in der Bevölkerung“, sagt Achim Berg, Präsident des Branchenverbandes Bitkom.

Wie alles begann

Die Entwicklung dieser Technologie begann bereits in den 50er Jahren: Noch bevor es die Technologie wirklich gab, prägte der Computerwissenschaftler John McCarthy 1956 den Begriff „Künstliche Intelligenz“ auf einer Konferenz an der Dartmouth Universität. Die US-Regierung wurde auf das Thema aufmerksam und da sie sich von der KI einen Vorteil im Kalten Krieg versprach, stattete sie McCarthy und seinen Wissenschaftlerkollegen Marvin Minsky mit den notwendigen finanziellen Mitteln zur Entwicklung dieser neuen Technologie aus. Noch im Jahr 1970 war sich Minsky sicher: „In drei bis acht Jahren werden wir eine Maschine mit der generellen Intelligenz eines durchschnittlichen Menschen haben.“ Doch das war zu euphorisch. Die Wissenschaftler weltweit machten kaum Fortschritte, also kürzten die Regierungen die Mittel. Ein regelrechter KI-Winter brach an. Erst 1980 bekamen die Bemühungen, intelligente Maschinen zu entwickeln, wieder Auftrieb. Sie gipfelten in einem spektakulären Kampf: IBMs Supercomputer Deep Blue schlug im Jahr 1997 den Schachweltmeister Garry Kasparov.

Bots sind die besseren Videospieler

Ab da entwickelte sich die KI rasant. Das zeigt sich – um bei Spielen zu bleiben – zum Beispiel an dem Sieg, den ein von OpenAI entwickelter Bot gegen mehrere Profi-Spieler im Multiplayerspiel Dota 2 errang, einem der komplexesten Videospiele überhaupt. Die Besonderheit: Der Bot brachte sich das Spiel innerhalb von nur vier Monaten selbst bei. Durch ständiges Ausprobieren in extrem vielen Runden, die er mit sich selbst spielte, fand er heraus, was nötig war, um zu gewinnen. Allerdings wurde der Bot nur in einem 1-zu-1-Spiel eingesetzt – normalerweise treten zwei Teams mit jeweils fünf Spielern gegeneinander an. Ein entsprechendes Team aus fünf Bots zu kreieren, ist das nächste Ziel der Entwickler von OpenAI – übrigens ein von Elon Musk mitgegründetes Non-Profit-Forschungsinstitut, das sich die Entwicklung einer sicheren KI für die Allgemeinheit auf die Fahnen geschrieben hat.

Intelligenz in zwei Jahren verdoppelt

Ist KI also heute schon so schlau wie ein Mensch? Um das herauszufinden, haben chinesische Forscher um Feng Liu an der Chinese Academy of Science in Peking einen Test entwickelt, der die Intelligenz von Maschinen misst und sie mit menschlicher Intelligenz vergleicht. Im Fokus standen dabei digitale Assistenten wie Siri oder Cortana. Das Ergebnis: Der schlaueste Assistent ist danach der Google Assistant. Mit 47,28 Intelligenzpunkten liegt er knapp hinter der Intelligenz eines sechs Jahre alten Menschen (55,5 Punkte). Immerhin. Was aber noch viel mehr beeindruckt, ist die Geschwindigkeit, mit der Google Assistant intelligenter wird: Als Feng Liu in 2014 den Test erstmals durchführte, erreichte Google Assistant gerade einmal 26,4 Punkte – er hat in zwei Jahren seine Intelligenz also fast verdoppelt. Lernt das System in diesem Tempo weiter, wird es nicht mehr weit sein, bis die 1970 von Minsky geäußerte Vision einer Maschine mit der Intelligenz eines Erwachsenen wahr wird.

Den Menschen simulieren

Erstaunlicherweise gibt es trotz der langen Geschichte der Entwicklung intelligenter Maschinen auch heute noch keine wissenschaftlich anerkannte Definition von KI. Allgemein wird der Begriff verwendet, um Systeme zu beschreiben, die menschliche Intelligenz und Verhalten nachbilden und simulieren. Im Grunde passt dazu die Definition von MIT-Professor Marvin Minsky, der KI definiert hat als „die Wissenschaft, Maschinen dazu zu bringen, Dinge zu tun, die als intelligent angesehen werden, wenn sie von einem Menschen ausgeführt würden.“

Künstliche Intelligenz | Start-Ups

Wie vielseitig die Einsatzgebiete von Künstlicher Intelligenz sind, zeigt ein Blick auf die Start-up-­Szene: Die jungen Firmen ­entwickeln Produkte für so unterschiedliche Branchen wie Gesundheits­wesen, Robotik, Finanzen, Bildung, Sport, Sicherheit und viele mehr. Eine kleine Auswahl interessanter Start-ups stellen wir ­hier vor.

Vernetztes Auto für ­J­edermann

Das Start-up German Autolabs bietet mit Chris einen speziell für Autofahrer entwickelten Assis­tenten, der über eine intelli­gente Spracherkennung sowie Gestensteuerung den Zugriff aufs Smartphone auch während der Fahrt einfach und bequem ermöglicht. Chris lässt sich in jedes Fahrzeug – unabhängig von Baujahr und Modell – integrieren. Die Kombination einer flexiblen und skalierbaren Assistenz-Software mit einer Hardware zum Nachrüsten soll Connected Car-Technologie für jeden zugänglich machen.

www.hellochris.ai

Den eigenen Sprach­assistenten kreieren

Snips entwickelt eine neue Sprachplattform für Hardware-Hersteller. Der auf Künstlicher Intelligenz basierende Dienst soll es Entwicklern ermöglichen, Sprachassistenzdienste in ­­beliebige Geräte einzubetten. Gleichzeitig soll über das Internet eine Verbraucherversion zur Verfügung gestellt werden, die auf Raspberry Pi betriebenen Geräten läuft. Die Privatsphäre wird dabei großgeschrieben: Das System sendet keine Daten in die Cloud, es funktioniert vollständig offline.

www.snips.ai

Realistische Simu­lation für Autonome Fahrsysteme

Automotive Artificial Intelligence bietet eine virtuelle 3D-Plattform, die die Fahrumgebung von Autos realistisch nachahmt. Sie soll zum Test von Software für das vollautomatische Fahren eingesetzt werden und dabei die Grenzen der Systeme ausloten. Denn selbstlernende Agenten sorgen für die nötige Realität in der virtuellen Plattform: Aggressive Fahrer kommen dort genauso vor wie übervorsichtige, willkürliche Spurwechsel genauso wie unvorhersehbare Bremsmanöver anderer am Verkehr be­teiligter (simulierter) Fahrzeuge.

www.automotive-ai.com

Haustiere ­intelligenter­ ­füttern

Petnet bietet mit SmartShop Beta einen digitalen Marktplatz, der mit Künstlicher Intelligenz Besitzer von Hunden und Katzen zu passenden Nahrungsmitteln für ihr Tier führt – abhängig von Rasse und spezifischen Bedürfnissen. Zur Fütterung hat das Start-up zudem den Petnet SmartFeeder entwickelt: Über ihn lassen sich die Haustiere automatisch mit individuellen Portionen versorgen. Das System meldet per App die durchgeführte Fütterung oder wenn das Futter knapp wird. Auch eine auto­matische Nachbestellung im SmartShop lässt sich ­einrichten.

www.petnet.io

Smarte ­Wasserflasche

Bellabeat hat bereits erfolgreich Healthtracker in Schmuckform für Frauen auf den Markt gebracht. Ergänzend dazu hat das Start-up mit Spring eine intelligente Wasserflasche entwickelt: Das System erfasst über Sensoren, wie viel Wasser die Nutzerin trinkt und wie aktiv sie ist, wie viel sie schläft oder wie ihre Stressempfindlichkeit ist. Mit einer App wird mithilfe von speziellen KI-Algorithmen der individuelle Flüssigkeitsbedarf analysiert und eine Empfehlung zur Trinkmenge gegeben.

www.bellabeat.com

Drohne fürs ­Gefährliche

Hivemind Nova ist ein Quadrocopter für Strafverfolgungs-, Ersthelfer- und Sicherheitsanwendungen. Die Drohne lernt aus Erfahrung, sich in Sperrgebieten oder gefährlichen Umgebungen zurecht zufinden. Ohne einen Piloten, der sie fernsteuert, erforscht sie autonom gefährliche Gebäude, Tunnel usw., bevor Menschen sie betreten. Sie überträgt HD-Videos und eine Karte des Gebäudelayouts live an die Anwender. Hivemind Nova lernt und verbessert sich im Laufe der Zeit kontinuierlich. Je mehr sie benutzt wird, desto fähiger wird sie.

www.shield.ai

Verschleiß im Voraus ­erkennen

Konux verbindet smarte Sensoren und Analytik, basierend auf Künstlicher Intelligenz. Eingesetzt wird die Lösung zum Beispiel bei der Bahn zur Überwachung von Weichen: Felddaten, die bereits im Sensor vorverarbeitet werden, werden drahtlos auf eine Analyseplattform übertragen und mit weiteren Datenquellen wie Fahrplänen, meteorologischen Daten oder Wartungsprotokollen kombiniert. Anschließend werden die Daten mit Hilfe von maschinellen Lernalgorithmen analysiert, um Verhaltensanomalien und kritischen Verschleiß im Voraus zu erkennen.

www.konux.com

Mehr ­Erfolg mit der Stellen­anzeige

Textio ist eine erweiterte Schreibplattform für die Erstellung von hochwirksamen Stellenangeboten. Durch die Analyse der Einstellungsergebnisse von mehr als 10 Millionen Stellenangeboten pro Monat prognostiziert Textio die Wirkung einer Stellenanzeige und gibt in Echtzeit eine Anleitung, wie der Text verbessert werden könnte. Das Unternehmen verwendet dafür eine hochentwickelte ­Predictive­­ Engine und macht sie für jedermann nutzbar –Schulung und IT-Integration sind nicht erforderlich.

www.textio.com

KI-Pionier Minsky: Vorläufig tot?

Das Gehirn funktioniert wie eine Maschine, so die ­These von einem der wichtigsten Pioniere der ­Künstlichen Intelligenz. Also kann man es nach­bauen – und sich durch ein Back-up des Bewusstseins auf einem Rechner unsterblich machen.

Könnte unser gesamtes Leben nur eine Computer-Simulation, ähnlich der Matrix aus dem gleichnamigen Hollywood-Blockbuster sein? Laut KI-Pionier Marvin Minsky wäre das durchaus denkbar: „Es ist gut möglich, dass wir Produkte irgendwelcher sehr leistungsstarken, komplizierten Programme sind, die auf einem großen Computer irgendwo da draußen laufen. Und es gibt absolut keinen Weg, das von dem zu unterscheiden, was wir Realität nennen.“ Derartige Gedanken waren typisch für den Mathematiker, Kognitions-Forscher, Computer-Ingenieur und großen Pionier der Künstlichen Intelligenz. Minsky verband wie kaum ein anderer Naturwissenschaften und Philosophie, stellte konventionelle Ansichten in Frage – das alles aber immer mit einem ausgeprägten Sinn für Humor:

„Es wurde noch nie ein Computer designet, der sich jemals bewusst über sein Tun war; aber die meiste Zeit sind wir uns das auch nicht.“

Minsky, 1927 in New York geboren, studierte Mathematik in Harvard und promovierte in Princeton. Mit kaum 20 Jahren begann er, sich für das Thema Intelligenz zu interessieren: „Genetik erschien recht interessant, weil noch niemand wusste, wie es funktioniert“, erinnerte sich Minsky in einem 1981 im „New Yorker“ erschienenen Artikel an jene Zeit. „Aber ich war nicht sicher, ob das profund war. Die Probleme der Physik erschienen profund und lösbar. Es wäre vielleicht nett gewesen, sich mit Physik zu beschäftigen. Aber viel tiefsinniger schien das Problem der Intelligenz. Ich kann mich nicht erinnern, jemals einen größeren Wert in etwas anderem gesehen zu haben.“

Viele dumme Teile ergeben eine große Intelligenz

Schon damals, als blutjunger Wissenschaftler, legte er den Grundstein für eine revolutionäre These, die er während seiner Zeit am Massachusetts Institute of Technology (MIT) ausweitete und die ihn schließlich zum Pionier der Künstlichen Intelligenz werden ließ: Minsky hatte die Vorstellung, dass das Gehirn wie eine Maschine funktioniert und dass man es daher prinzipiell auch in einer Maschine nachbilden kann. „Das Gehirn ist eine Maschine aus Fleisch“, so eine seine vielzitierten Aussagen. „Man kann einen Verstand aus vielen kleinen Teilen aufbauen, von denen jedes für sich ohne Intelligenz ist.“ Marvin Minsky war überzeugt, dass man ein Bewusstsein in viele Teile zerlegen kann. Sein Ziel war es, solche Komponenten des Geistes zu erkennen und zu verstehen. Minskys Vorstellung, dass der Geist aus dem Zusammenspiel vieler einzelner Agenten hervorgeht, ist die Grundlage heutiger neuronaler Netze.

Zusammen mit seinem Princetoner Kommilitonen John McCarthy entwickelte er die These weiter und gab der neuen wissenschaftlichen Disziplin auf der Dartmouth Konferenz 1956 einen Namen: „Künstliche Intelligenz“. Zusammen gründeten McCarthy und Minsky drei Jahre später das MIT Artificial Intelligence Laboratory – von da an das weltweit wichtigste Forschungszentrum für Künstliche Intelligenz. Viele der dort entwickelten Ideen wurden später im Silicon Valley aufgegriffen und in kommerzielle Anwendungen überführt.

KI-Pionier Minsky verantwortlich für Forschungspause

Interessant ist, dass der Pionier der Künstlichen Intelligenz dafür verantwortlich war, dass die Forschung daran über viele Jahre nicht weiterverfolgt wurde: Minsky hatte in den 1960ern selbst mit neuronalen Netzen experimentiert, ihnen aber in seinem Buch „Perceptrons“ abgeschworen: Zusammen mit seinem Co-Autor Seymour Papert zeigte er die Beschränkungen dieser Netze auf – und brachte damit die Forschung auf diesem Gebiet für Jahrzehnte zum Erliegen. Heute gelten die meisten dieser Beschränkungen als überwunden, neuronale Netze sind aktuell eine Kerntechnologie für KI.

Die Forschung an der KI war aber bei weitem nicht das einzige Arbeitsgebiet von Marvin Minsky. Sein Artificial Intelligence Laboratory gilt auch als die Geburtsstätte für die Idee, dass digitale Informationen frei verfügbar sein sollten – woraus später die Open-Source-Philosophie entstand. Auch zur Entwicklung des Internets trug das Institut bei. Minsky interessierte sich darüber hinaus für Robotik, maschinelles Sehen und Mikroskopie – seine Erfindungen auf diesem Gebiet werden heute noch genutzt.

Probleme der Menschheit könnten gelöst werden

Minsky sah die aktuellen Entwicklungen der KI durchaus kritisch, sie konzentrierten sich für ihn zu wenig auf die Schaffung einer wahren Intelligenz. Im Gegensatz zu alarmistischen Warnungen einiger Experten, dass intelligente Maschinen in gar nicht so ferner Zukunft die Herrschaft übernehmen würden, vertrat Minsky zuletzt eine eher philosophische Sicht auf die Zukunft: Maschinen, die echtes Denken beherrschen, könnten Wege aufzeigen, einige der größten Probleme der Menschheit zu lösen. Im Hintergedanken hatte er dabei vielleicht auch den Tod: Er prophezeite, dass Menschen sich unsterblich machen könnten, indem sie ihr Bewusstsein vom Gehirn auf Chips übertragen. „In diesem Sinne wären wir dann unsterblich“, so Minsky. Wenn man alt wird, macht man einfach ein Back-up seines Wissens und seiner Erfahrungen auf einem Computer. „Ich glaube, in hundert Jahren werden die Menschen dazu in der Lage sein.“

Marvin Minsky nur vorläufig tot?

Marvin Minsky starb im Januar 2016 im Alter von 88 Jahren. Wobei – vielleicht nur vorläufig: Kurz vor seinem Tod unterschrieb er einen offenen Brief zur Kryonik – dem Einfrieren von Menschen kurz nach ihrem Tod, in der Hoffnung, mit Technologien der Zukunft wieder zum Leben erweckt werden zu können. Außerdem war er Mitglied des wissenschaftlichen Beirats der Kryonik-Firma Alcor. Es ist also gut möglich, dass Minskys Gehirn schockgefroren darauf wartet, in unbestimmter Zukunft als Back-up auf einem Computer zu neuem Leben erweckt zu werden. 

Schneller zu smarten IoT-Produkten

Ein Produkt mit integrierter Künstlicher Intelligenz für das Internet der Dinge (IOT) zu entwickeln, erfordert Zeit und große Ressourcen in der F&E. Bis zu 24 Monate benötigt ein derartiges Projekt typischerweise bis zur Marktreife. Mit einer vorkonfektionierten Software-Plattform will Octonion jetzt diese Zeit auf nur noch sechs Monate reduzieren.

Gerade kleineren Unternehmen, die Produkte für das Internet der Dinge realisieren möchten, fehlen oftmals die Ressourcen in der Elektronik- und Software-Entwicklung. Zudem kostet es viel Zeit, die erforderlichen Bausteine – Konnektivität, KI, Sensorik-Integration usw. – von Grund auf neu zusammenzustellen. So liegt bei typischen IoT-Projekten die Time-to-Market zwischen 18 und 24 Monaten – eine sehr lange Zeit in der schnelllebigen Welt des Internets.

Hilfreich ist hier eine neue, von Octonion angebotene Lösung: Das Schweizer Unternehmen entwickelte eine Software-Plattform, mit der sich beliebige Objekte und Geräte vernetzen und mit KI-Funktionen ausrüsten lassen.

Mit der Komplettlösung kann ein IoT-Projekt mit integrierter Künstlichen Intelligenz in nur sechs bis acht Monaten realisiert werden.

Vom Gerät bis zur Cloud

Octonion bietet eine echte End-to-End-Software-Lösung, vom im Gerät eingebetteten Layer bis zu cloud-basierten Diensten. Dazu gehört auch Gaia, ein hochintelligentes, autonomes Software-Entscheidungs-Framework, das moderne Methoden des maschinellen Lernens zur Mustererkennung nutzt. Das System kann für die unterschiedlichsten Anwendungen in verschiedenen Branchen eingesetzt werden. Dabei gewährleistet die Lösung, dass die über das IoT-Gerät generierten Daten allein dem Kunden gehören und auch er alleine sein IoT-Projekt betreibt.

Kosten und Entwicklungszeit reduzieren

So entsteht ein komplettes IoT-System mit Künstlicher Intelligenz, die eine Lösung vom IoT-Gerät oder Sensor über das Gateway bis zur Cloud bietet. Weil die einzelnen Ebenen der Plattform geräteunabhängig und mit jeder Hosting-Lösung kompatibel sind, lassen sich beliebige Anwendungsfälle realisieren. Dabei können Entwickler in jeder Ebene die für sie erforderlichen Funktions-Module auswählen. Damit lässt sich die Plattform individuell an die eigenen Anforderungen anpassen und eine eigene IoT-Lösung schnell entwickeln und einfach betreiben. Eine eigene IoT-Lösung ist mit der Octonion-Plattform in nur sechs Monaten marktreif.

Ist KI besser als der Arzt?

Kognitive Computerassistenten helfen Medizinern bei Diagnose- und Therapieentscheidungen. ­Sie sind deutlich schneller bei der Auswertung von medizinischen Informationen und erreichen ­mindestens die gleiche Präzision. Nicht verwunderlich also, dass Applikationen mit Künstlicher Intelligenz in der Medizin immer häufiger Anwendungen finden.

Kliniken und Arztpraxen verfügen über Unmengen an Daten: Röntgenbilder, Befunde, Laborwerte, digitale Patientenakten, OP-Berichte und vieles mehr. Bislang werden sie meist noch getrennt voneinander behandelt. Doch nun geht der Trend dahin, all das in einem einheitlichen Software-Rahmen unterzubringen. Diese Datenintegration ermöglicht nicht nur einen schnelleren Umgang mit medizinischen Informationen und bildet die Grundlage für ein effizienteres Zusammenwirken der verschiedenen Fachrichtungen. Sie verspricht auch einen weiteren Mehrwert: Neue, selbstlernende Rechenalgorithmen können verborgene Muster in den Daten aufspüren und den Medizinern wertvolle Unterstützung für ihre Diagnose- und Therapieentscheidungen geben.

Bessere Diagnose dank Künstlicher Intelligenz: 30-mal schneller als ein Arzt mit einer Fehlerrate von 1 %.
Quelle: PwC

Gewebe schneller und genauer untersuchen

„Die Künstliche Intelligenz und die Robotik bieten für unsere tägliche Arbeit enorme Vorteile“, betont Prof. Dr. Michael Forsting, Leiter der Klinik für Diagnostische Radiologie des Universitätsklinikums Essen. Hier wurde mit einem selbstlernenden Algorithmus ein System auf Lungenfibrosen trainiert. Schon nach wenigen Lernzyklen stellte der Computer die Diagnose besser als ein Arzt: „So hilft uns beispielsweise die Künstliche Intelligenz, seltene Erkrankungen besser zu erkennen – weil der Computer anders als der Mensch das einmal Gelernte nicht mehr vergisst und beim Vergleichen von Mustern dem menschlichen Auge überlegen ist.“

Besonders bei der Verarbeitung von Bilddaten erweisen sich kognitive Computerassistenten als hilfreich, um Mediziner von langwierigen, monotonen und immer wiederkehrenden Arbeiten zu entlasten – etwa wenn es darum geht, die Umrisse eines Organs auf einer CT-Aufnahme präzise zu bestimmen. Außerdem sind die Assistenten in der Lage, Informationen aus medizinischen Bilddaten herauszudestillieren, die ein Mediziner beim bloßen Blick auf den Bildschirm kaum zu erkennen vermag.

Diagnose mit Hilfe Künstlicher Intelligenz – Besser als der Arzt

Inzwischen übertreffen diese Systeme sogar den Menschen, wie eine Studie der Universität Nijmegen (Niederlande) nahelegt: Für den Test zur Erkennung von Krebsgewebe hatten die Forscher zwei Gruppen organisiert. Auf der einen Seite standen 32 Entwicklerteams mit eigenen KI-Software-Lösungen, auf der anderen Seite zwölf Pathologen. Die KI-Entwickler bekamen vorab 270 CT-Aufnahmen, bei denen 110 gefährliche Knoten und 160 gesundes Gewebe zeigten. Damit sollten sie ihre Systeme trainieren. Ergebnis: Das beste KI-System erreichte eine nahezu einhundertprozentige Erkennungsgenauigkeit und färbte die kritischen Stellen zudem gleich ein. Dabei war es erheblich schneller als ein Pathologe, der 30 Stunden benötigte, um die befallenen Proben mit entsprechender Präzision zu erkennen. Unter Zeitdruck übersahen die Mediziner vor allem Metastasen mit einer Größe unter zwei Millimeter. Allerdings waren nur sieben der 32 KI-Systeme besser als die Pathologen-Gruppe.

Dabei sind entsprechende Systeme nicht nur Gegenstand von Forschern, sie werden auch bereits eingesetzt. Zum Beispiel bei der Fibroseforschung in der Berliner Charité: Mit -Hilfe einer Cognitive Workbench des Unternehmens ExB wird hier die sehr aufwändige Analyse von Gewebeproben zur Früherkennung von pathologischen Veränderungen auto-matisiert. Bei der Cognitive Workbench handelt es sich um eine proprietäre cloudbasierte Plattform, mit der Anwender eigene AI-fähige Analysen komplexer unstrukturierter und strukturierter Datenquellen in Text und Bild erstellen und schulen können. Ramin Assadollahi, CEO und Gründer von ExB, betont: „Zusätzlich zur Diagnose von Leberfibrose können wir unsere hochwertigen Deep-Learning-Verfahren bei der Früherkennung von Melanomen und Kolorektalkarzinomen einsetzen.“

Kostensenkung für das Gesundheitssystem

Laut PwC führen KI-Anwendungen bei der Brustkrebs-Diagnose dazu, dass Mammografie-Resultate 30-mal schneller ausgewertet wurden als durch einen Arzt – und das bei einer Fehlerrate von nur einem Prozent. Nicht nur bei der Diagnose winken enorme Fortschritte. So war Künstliche Intelligenz bei einer Pilotstudie in der Lage mit mehr als 70-prozentiger Genauigkeit vorherzusagen, wie eine Patientin auf zwei herkömmliche Chemotherapie-Verfahren reagieren würde. Angesichts der enormen Verbreitung von Brustkrebs geht die PwC-Untersuchung davon aus, dass der Einsatz von Künstlicher Intelligenz immense Kostensenkungen für das Gesundheitssystem brächte. So könnten über die nächsten zehn Jahre kumuliert schätzungsweise 74 Milliarden Euro eingespart werden.

Digitale Hilfsmittel für den Patienten

Aber KI nützt Patienten auch ganz konkret bei verschiedenen Beeinträchtigungen im Alltag wie Sehbehinderungen, Gehörlosigkeit oder motorischen Krankheiten. Die App „Seeing AI“ etwa hilft im Falle einer Beeinträchtigung des Sehvermögens, die Umgebung wahrzunehmen. Die App erkennt auf einem Foto, das der Nutzer per Smartphone macht, Objekte, Personen, Text oder auch Bargeld. Der auf Künstlicher Intelligenz beruhende Algorithmus identifiziert den Inhalt des Bildes und beschreibt ihn in einem Satz, der vorgelesen wird. Auch intelligente Geräte wie die „Emma Watch“ zählen hierzu, die das bei Parkinson-Patienten typische Zittern durch intelligentes Gegensteuern ausgleicht. Microsoft-Entwicklerin Haiyan Zhang hat die intelligente Armbanduhr für die an Parkinson erkrankte Grafik-Designerin Emma Lawton entwickelt. In Zukunft sollen auch weitere Parkinson-Patienten Zugang zu entsprechenden Modellen erhalten.

Chips treiben die KI voran

Vom Grafikprozessor (GPU) über neuromorphe Chips bis zum Quantencomputer – die Entwicklung von KI-Chips ermöglicht immer neue Leistungssprünge.

KI-gestützte Anwendungen müssen mit rasant wachsendem Datenvolumen mithalten und häufig gleichzeitig in Echtzeit reagieren. Klassische CPUs, wie man sie in jedem Computer findet, sind da schnell überfordert, denn sie wickeln Aufgaben nacheinander ab. Eine deutlich höhere Leistung gerade beim Deep Learning wäre möglich, wenn die einzelnen Prozesse parallel ausgeführt werden.

Hardware für parallele Rechenprozesse

Damit rückten vor einigen Jahren Chips in den Fokus der KI-Branche, die eigentlich für einen ganz anderen Einsatzzweck entwickelt wurden: Grafikprozessoren (Graphics Processing Units oder GPUs). Sie warten mit einer massiv-parallelen Architektur auf, die mit vielen kleineren, aber effizient arbeitenden Computer-Einheiten Rechenaufgaben stark parallelisiert abwickeln können. Also genau das, was das Deep Learning benötigt. Inzwischen bauen die Hersteller von Grafikprozessoren spezielle GPUs für KI-Anwendungen. Ein Server mit einer einzelnen dieser Hochleistungs-GPUs kann über 40-mal mehr Durchsatz als ein reiner CPU-Server bewältigen.

Inzwischen sind aber selbst GPUs für einige KI-Unternehmen zu langsam. Das hat nicht zu unterschätzende Auswirkungen auf den Halbleiter-Markt: Denn neben den klassischen Halbleiter-Herstellern werden zunehmend aus Käufern bzw. Nutzern von Halbleitern – wie Microsoft, Amazon oder eben Google – Hersteller (oder Firmen, die Chips nach eigenen Vorstellungen für sich herstellen lassen). So hat zum Beispiel Alphabet, der Mutterkonzern hinter Google, einen eigenen Application Specific Integrated Circuit (ASIC) entwickelt, der speziell auf das Machine Learning zugeschnitten ist. Die zweite Generation dieser Tensor Processing Unit (TPU) von Alphabet bietet eine Leistung von 180 Teraflops, während Nvidias aktuellste GPU bei 120 Teraflops liegt. Flops (Floating Point Operations Per Second) geben an, wie viele einfache mathematische Berechnungen wie Addition oder Multiplikation ein Rechner pro Sekunde durchführen kann.

Unterschiedliche Anforderungen an die Leistung

Doch Flops sind nicht der einzige Maßstab für die Leistungsfähigkeit eines Chips. So wird bei KI-Prozessoren unterschieden zwischen der Leistung in der Trainings-Phase, wo besonders parallele Rechenprozesse gefragt sind, und der Leistung in der Applikations-Phase, in der das Gelernte angewendet wird – der sogenannten Inferenz. Hier liegt der Fokus darauf, durch Schlussfolgerung neue Fakten aus einer bestehenden Datenbasis abzuleiten. „Im Gegensatz zur KI-Komponente des massiven parallelen Trainings, die in Rechenzentren gefragt ist, ist Inferenz grundsätzlich eine sequentielle Kalkulation, die, wie wir glauben, zumeist auf Edge Geräten wie Smartphones oder dem Internet der Dinge ausgeführt werden wird“, meint Abhinav Davuluri, Analyst bei Morningstar, einem führenden Anbieter von unabhängigem Investment-Research. Edge Computing bezeichnet im Gegensatz zum Cloud Computing die dezentrale Datenverarbeitung am „Rand“ des Netzwerks. Dabei spielen KI-Techniken eine immer größere Rolle, denn lernfähige Edge Devices wie Roboter oder autonome Fahrzeuge müssen die Daten zur Analyse nicht erst in die Cloud übertragen. Vielmehr können sie die Daten direkt vor Ort übernehmen – sie sparen sich die Zeit und Energie, die für die Datenübertragung zum Rechenzentrum und zurück erforderlich ist.

Lösungen für das Edge Computing

Gerade für derartige Edge-Computing-Anwendungen etabliert sich aktuell neben CPUs, GPUs und ASICs eine weitere Chip-Variante – die sogenannten Field Programmable Gate Arrays (FPGA). Hierbei handelt es sich um integrierte Schaltkreise, in die nach der Herstellung eine logische Schaltung geladen werden kann. Im Unterschied zu Prozessoren bieten FPGAs mit ihren mehreren programmierbaren Basisblöcken echte Parallelität, so dass verschiedene Verarbeitungsoperationen nicht auf die gleiche Ressource angewiesen sind. Jeder einzelne Verarbeitungs-Task wird einem dedizierten Bereich auf dem Chip zugewiesen und kann so autonom ausgeführt werden. Sie erreichen im Trainingsprozess zwar nicht ganz die Leistung einer GPU, stehen aber im Inferenz-Ranking über Grafikprozessoren. Vor allem aber verbrauchen sie weniger Energie als GPUs – das ist bei Anwendungen auf kleinen mobilen Geräten besonders wichtig. Tests haben gezeigt, dass FPGAs zum Beispiel mehr Bilder pro Sekunde und Watt erkennen können als GPUs oder CPUs. „Wir denken FPGAs sind in punkto Inferenz am vielversprechendsten, da sie ein Upgrade erhalten können, während sie im Feld sind und niedrige Latenz bieten, wenn sie im Edge Device neben einer CPU platziert werden“, so Morning-Star Analyst Davuluri.

Immer mehr Start-ups entwickeln KI-Chips

Immer mehr Unternehmensgründer – und Kapitalgeber – erkennen die Chancen, die in KI-Chips stecken: Mindestens 45 Start-ups arbeiten heute an entsprechenden Halbleiter-Lösungen, wenigstens fünf von ihnen haben jeweils mehr als 100 Millionen US-Dollar von Investoren erhalten. Insgesamt investierten Risikokapitalgeber laut den Marktforschern von CB Insights mehr als 1,5 Milliarden US-Dollar in Chip-Start-ups in 2017 – das ist doppelt so viel wie noch vor zwei Jahren. So hat die britische Firma Graphcore mit ihrer Intelligence Processing Unit (IPU) eine neue Technologie zur Beschleunigung von Anwendungen von Machine Learning und Künstlicher Intelligenz entwickelt. Die KI-Plattform der US-Firma Mythics-AI führt hybride Digital/Analog-Berechnungen in Flash-Arrays durch. Die Inferenz-Phase kann dadurch direkt innerhalb der Speicher ausgeführt werden, in denen das Wissen des neuronalen Netzes abgelegt ist – mit entsprechenden Vorteilen bei Leistung und Genauigkeit. China ist eines der aktivsten Länder bei KI-Chip-Start-ups. Alleine der Wert von Cambricon Technologies wird auf mittlerweile 1 Milliarde US-Dollar geschätzt. Das Start-up hat einen Neuronalen-Netz-Prozessorchip unter anderem für Smartphones entwickelt.

Neue Chip-Architekturen für noch mehr Leistung

Der neueste Technologie-Trend bei KI-Halbleitern sind neuromorphe Chips. Deren Architektur ahmt die grundlegende Funktionsweise des menschlichen Gehirns beim Lernen und Verstehen nach. Ein wesentliches Merkmal ist die Aufhebung der Trennung zwischen Recheneinheit und Datenspeicher. Erste in 2017 vorgestellte neuromorphe Test-Chips können mit über 100.000 Neuronen und mehr als 100 Millionen Synapsen Training und Interferenz auf einem Chip vereinen. Sie sollen selbstständig im Einsatz lernen können, wobei die Lernrate um den Faktor eine Million über der von neuronalen Netzen der dritten Generation liegt. Gleichzeitig sind sie dabei besonders energieeffizient. Im wahrsten Sinne ein Quantensprung für KI-Systeme sind Quantencomputer: Nicht nur die großen Player der IT-Branche wie Google, IBM oder Microsoft, sondern auch Staaten, Geheimdienste, selbst Autohersteller investieren in die Entwicklung dieser Technologie. Diese Computer basieren auf den Lehren der Quantenmechanik. So kann ein Quantencomputer jeden Rechenschritt mit sämtlichen Zuständen zur gleichen Zeit durchführen. Das heißt, er liefert eine besonders hohe Leistung für die parallele Verarbeitung von Befehlen und besitzt das Potenzial, mit einer weitaus höheren Geschwindigkeit zu rechnen als herkömmliche Computer. Auch wenn die Technik noch in den Kinderschuhen steckt – das Rennen um immer bessere und zuverlässigere Quanten-Prozessoren hat längst begonnen.

Ethik und Grundsätze einer KI

Künstliche Intelligenz ist nur so gut, wie ihre Datenbasis. Berücksichtigt diese nicht alle Faktoren und alle Bevölkerungsgruppen, können fehlerhafte und voreingenommene Entscheidungen­ her­auskommen. Doch wie steht es um die Ethik und Grundsätze Künstlicher Intelligenz in aktuellen Anwendungen? 

Das Feld der Künstlichen Intelligenz entwickelt sich rasant und verspricht, einige der größten Herausforderungen unserer Gesellschaft zu bewältigen“, so Kate Crawford, Mitbegründerin des AI Now Institutes. „Aber wir benötigen dringend mehr Forschung über die realen Auswirkungen von KI-Implementierungen in unseren sensibelsten sozialen Einrichtungen. Die Menschen sind bereits von diesen Systemen betroffen, sei es in der Schule, auf der Suche nach Arbeit, beim Lesen von Nachrichten im Internet oder beim Umgang mit der Justiz.“ Genau aus diesem Grund wurde das AI Now Institute Ende 2017 an der New York University gegründet: Es ist das erste universitäre Forschungsinstitut, das sich den sozialen Auswirkungen Künstlicher Intelligenz widmet. Dazu will es die KI-Forschung um Experten aus Bereichen wie Recht, Gesundheitswesen, Arbeits- und Sozialwissenschaften ergänzen. Meredith Whittaker, ebenfalls Mitbegründerin von AI Now. „Die Gewährleistung einer sicheren und gerechten KI erfordert ein viel breiteres Spektrum an Fachwissen als nur Technik-Know-how. Genauso wie man einem Richter nicht vertrauen würde, ein tiefes neuronales Netzwerk aufzubauen, sollten wir aufhören zu glauben, dass ein Ingenieursabschluss ausreicht, um komplexe Entscheidungen in Bereichen wie der Strafjustiz zu treffen. Wir brauchen Experten aus den Bereichen Recht, Gesundheitswesen, Bildung, Wirtschaft und darüber hinaus.“

Eine sichere und gerechte KI erfordert ein viel breiteres Spektrum an Fachwissen als nur Technik-Know-how.

KI-Systeme mit Vorurteilen sind Realität

„Wir haben einen wichtigen Wendepunkt in der Entwicklung und Implementierung von KI-Systemen erreicht“, so Kate Crawford. „Wenn diese Systeme nicht richtig gemanagt werden, können sie auch weitreichende soziale Folgen haben, die schwer vorhersehbar und kaum umkehrbar sind. Wir können es uns einfach nicht leisten abzuwarten, wie sich die Künstliche Intelligenz auf die verschiedenen Bevölkerungsgruppen auswirkt.“ Das AI Now Institute will dazu Methoden zur Messung und zum Verständnis der Auswirkungen von KI in der Gesellschaft entwickeln.

Schon heute zeigt sich, dass unausgereifte oder voreingenommene KI-Systeme sehr real sind und Folgen haben: Das bewies unter anderem ein Team von Journalisten und Technikern bei Propublica, einem Non-Profit-Newsdesk für investigativen Journalismus. Sie testeten einen Algorithmus, der von Gerichten und Strafverfolgungsbehörden in den USA verwendet wird, um Rückfälle bei Kriminellen vorherzusagen. Das Ergebnis: Er war messbar gegenüber Afroamerikanern voreingenommen. Derartige vorurteilsbehafteten Entscheidungen entstehen, wenn die Datengrundlage, mit denen die KI arbeitet, nicht neutral ist. Wenn sie zum Beispiel soziale Ungleichheiten enthält, ist auch die Auswertung tendenziös. Werden als Grundlage für ein Analyseverfahren beispielsweise nur Daten von Männern genutzt, werden Frauen möglicherweise benachteiligt.

Gefährlich ist es auch, wenn den KI-Systemen nicht alle relevanten Kriterien beigebracht wurden. So stellte zum Beispiel das Medical Center der University of Pittsburgh fest, dass einem KI-System zur Ersteinschätzung von Lungenentzündungs-Patienten ein Hauptrisikofaktor für schwerwiegende Komplikationen fehlte. Und es gibt viele andere relevante Bereiche, in denen KI-Systeme derzeit verwendet werden, ohne dass sie auf Voreingenommenheit und Ungenauigkeit geprüft und bewertet werden.

Mechanismen zur Überprüfung benötigt

In seinem Forschungsbericht 2017 fordert das AI Now Institute daher alle wichtigen öffentlichen Institutionen auf, den Einsatz von „Black Box“ KI sofort zu beenden. „Wenn über die Risiken der KI gesprochen wird, gibt es eine Tendenz, sich auf die ferne Zukunft zu konzentrieren“, meint Meredith Whittaker. „Aber diese Systeme werden bereits heute in kritischen Einrichtungen implementiert. Wir sind wirklich besorgt, dass die bisher aufgedeckten Beispiele nur die Spitze des Eisbergs sind. Es ist zwingend notwendig, dass wir die Black-Box-Algorithmen in den relevanten Institutionen nicht mehr verwenden, bis wir Methoden zur Gewährleistung grundlegender Sicherheit und Fairness haben.“ 

Autonomes Fahren dank KI

Schon in wenigen Jahren wird jedes neue Fahrzeug mit elektronischen Co-Piloten ausgerüstet sein. Sie verarbeiten sowohl Informationen vom Inneren des Autos als auch von dessen Umgebung für Komfort- sowie Assistenzsysteme.

Wir bringen dem Auto bei, sich selbstständig durch den Straßenverkehr zu bewegen“, so Dr. Volkmar Denner, Vorsitzender der Bosch-Geschäftsführung. „Automatisiertes Fahren macht den Straßenverkehr sicherer. Künstliche Intelligenz ist der Schlüssel dazu. Das Auto wird schlau“, ist sich der Bosch-Chef sicher. Dazu entwickelt das Unternehmen zurzeit einen Fahrzeugcomputer mit KI: Mit ihm sollen automatisiert fahrende Autos auch durch komplexe und für das Auto neue Verkehrssituationen lenken können.

Wissen per Update übertragen

Der KI Autocomputer weiß, wie Fußgänger oder Fahrradfahrer aussehen. Neben dieser sogenannten Objekterkennung erleichtert Künstliche Intelligenz auch die Situationserfassung von automatisiert fahrenden Fahrzeugen. Blinkende Autos beispielsweise wechseln mit höherer Wahrscheinlichkeit die Spur als nicht blinkende. So kann ein selbstfahrendes Auto mit KI komplexe Verkehrssituationen wie das Abbiegen eines vorausfahrenden Fahrzeugs erkennen, beurteilen und für den eigenen Fahrweg berücksichtigen. Das beim Fahren erlernte Wissen speichert der Computer auf künstlichen neuronalen Netzen. Experten überprüfen das Wissen im Labor auf ihre Richtigkeit. Nach weiteren Tests auf der Straße lassen sich die künstlich erzeugten Wissensstrukturen per Update auf beliebig viele andere KI Autocomputer übertragen.

Assistenten erkennen Sprache, Gesten und Gesichter

Beim Bau des zentralen Fahrzeugcomputers will Bosch auch mit dem US-amerikanischen Technologieunternehmen Nvidia kooperieren. Nvidia soll Bosch einen Chip liefern, auf dem die mit maschinellen Lernverfahren erzeugten Algorithmen für die Fahrzeugbewegung gespeichert sind. Wobei laut Nvidia-Gründer Jensen Huang KI im Auto nicht nur für das automatisierte Fahren eingesetzt werden wird: „Schon in wenigen Jahren wird jedes neue Fahrzeug über KI-Assistenten für Sprache und Gesten-, Gesichtserkennung oder Augmented Reality verfügen.“ So hat der Chip-Hersteller auch mit Volkswagen bei der Entwicklung eines intelligenten Co-Piloten für den Elektro-Microvan I.D.Buzz zusammengearbeitet: Er soll Sensordaten sowohl vom Inneren des Autos als auch von dessen Umgebung für Komfort- sowie Assistenzsysteme verarbeiten. Diese Systeme können sich im Zuge weiterer Entwicklungen beim autonomen Fahren neue Fähigkeiten aneignen. Dank Deep Learning kann das Auto der Zukunft lernen, sowohl Situationen präzise einzuschätzen als auch das Verhalten von anderen Verkehrsteilnehmern zu analysieren.

Leistungsfähigere Objekterfassung mit Künstlicher Intelligenz

Mit 2D-Kameras das Umfeld dreidimensional erkennen

Voraussetzung des automatisierten Fahrens ist ein möglichst exaktes Abbild der Umgebung. Neue Kamerasysteme nutzen dazu auch KI. So hat ein Projektteam von Audi Electronics Venture eine Monokamera entwickelt, die durch Künstliche Intelligenz ein hochpräzises 3D-Modell der Umgebung generiert. Als Sensor dient eine handelsübliche Frontkamera. Sie erfasst den Bereich vor dem Auto in einem Winkel von etwa 120 Grad und liefert 15 Bilder pro Sekunde mit 1.3 Megapixel Auflösung. Diese Bilder werden daraufhin in einem neuronalen Netz verarbeitet. Dort findet auch die sogenannte semantische Segmentierung statt. Dabei wird jedem Pixel eine von 13 Objektklassen zugeordnet. Dadurch kann das System andere Pkw, Lkw, Häuser, Fahrbahnmarkierungen, Menschen und Verkehrsschilder erkennen und unterscheiden. Auch für die Abstandsinformationen nutzt das System neuronale Netze. Die Visualisierung erfolgt hier über sogenannte ISO-Linien – virtuelle Begrenzungen, die einen konstanten Abstand definieren. Mit dieser Kombination aus semantischer Segmentierung und Tiefenschätzung entsteht ein präzises 3D-Modell des realen Umfelds. Mithilfe von „unsupervised learning“ wurde das neuronale Netz im Vorfeld trainiert: Das neuronale Netz bekam zahlreiche mit einer Stereokamera aufgenommene Videos von Straßensituationen zu sehen. Daraufhin lernte das Netz, eigenständig die Regeln zu verstehen, mit denen es aus den Bildern der Monokamera 3D-Informationen erstellt.

Auch Mitsubishi Electric hat ein Kamerasystem entwickelt, das KI nutzt. Es soll Fahrer in kommenden spiegellosen Fahrzeugen vor möglichen Gefahren warnen und besonders beim Spurwechsel helfen, Unfälle zu vermeiden. Das System nutzt ein neues Rechenmodell für visuelle Erkennung, das das Sehen des Menschen nachahmt: Es erfasst nicht detailliert die gesamte Szenerie, sondern konzentriert sich schnell auf spezifische interessante Bereiche innerhalb des Sichtfelds. Die relativ simplen Algorithmen für visuelle Erkennung der eingesetzten KI schonen die Systemressourcen des On-Board-Rechners. Dennoch kann das System zwischen Objekttypen wie Fußgängern, Pkw und Motorrädern unterscheiden. Im Vergleich zu herkömmlichen kamerabasierten Systemen kann die Technologie die Höchstentfernung der Objekterkennung von heute rund 30 Metern auf 100 Meter deutlich erweitern. Außerdem kann sie die Genauigkeit der Objekterkennung von 14 Prozent auf 81 Prozent verbessern.

KI wird zum Wettbewerbsfaktor

Mit den immer häufiger implementierten intelligenten Assistenzsystemen wird KI zu einem wichtigen Wettbewerbsfaktor für Autohersteller. Das gilt bei der Nutzung Künstlicher Intelligenz für autonomes Fahren ebenso wie in der Entwicklung moderner Mobilitätskonzepte, die auf KI basieren. Fast 70 Prozent der Kunden sind laut McKinsey schon heute bereit, für bessere Features bei assistiertem und autonomem Fahren die Marke zu wechseln. Dominik Wee, Partner im Münchener Büro von McKinsey rät daher: „Insbesondere Premiumhersteller mit ihren anspruchsvollen Kunden sollten einen technischen Vorsprung auch bei KI-basierten Anwendungen demonstrieren, zum Beispiel in der sprachbasierten Interaktion mit dem Fahrzeug oder bei der Parkplatzsuche.“

(Bildnachweis: Volkswagen AG)

Meinungen zu Künstlicher Intelligenz

Was wird Künstliche Intelligenz für die Menschheit und unser Leben bedeuten? Darüber streiten Wissenschaftler und Unternehmer mit Vehemenz. Ein kleiner Querschnitt der Meinungen von Schwarzsehern, Optimisten und Realisten.

„Künstliche Intelligenz ist ein existenzielles Risiko für die menschliche Zivilisation und ich glaube nicht, dass die Menschen das voll und ganz verstehen.“

Elon Musk, Unternehmer und Investor

„Die KI, Big Data ist eine Bedrohung für den Menschen. KI und Roboter werden eine Menge Jobs vernichten, denn in Zukunft werden diese von Maschinen erledigt.“

Jack Ma, Gründer und Vorsitzender Alibaba

„Ich befürchte, dass AI den Menschen komplett ersetzen kann. Wenn Menschen Computerviren entwerfen, wird auch jemand eine Künstliche Intelligenz entwickeln, die sich selbst verbessert und repliziert. Dies wird eine neue Lebensform sein, die den Menschen übertrifft.“

Stephen Hawking, Physiker

„Ein Problem ist, dass der Begriff ‚Killerroboter‘ die Leute an ‚Terminator‘ denken lässt, der immer noch 50, 100 oder mehr Jahre entfernt ist. Aber es sind viel einfachere Technologien, dumme KI und nicht intelligente KI, um die wir uns in naher -Zukunft Sorgen machen müssen.“

Prof. Toby Walsh, University of New South Wales

„Wir leben in einer Welt, die durch den Missbrauch von KI mit alltäglichen Gefahren behaftet sein könnte, und wir müssen die Verantwortung für die Probleme übernehmen – weil die Risiken real sind.“

Dr Seán Ó hÉigeartaigh, Executive Director of Cambridge University’s Centre for the Study of Existential Risk

„Es ist Zeit für ein optimistisches Gegenmittel gegen die Ankündigung von Untergang und Finsternis, von denen wir oft hören, wenn über AI und die Zukunft der Arbeit gesprochen wird. Es gibt keine passive Prognose für die Zukunft der Arbeit – es wird sein, was wir daraus machen, und das beginnt mit der Vorstellung davon, was wir wollen dass es sein soll.“

Martin Reeves, Direktor BCG Henderson Institute

„KI ist wahrscheinlich die wichtigste Sache, an der die Menschheit jemals gearbeitet hat. Ich betrachte es als etwas Tiefgreifenderes als Elektrizität oder Feuer. Künstliche Intelligenz wird uns retten, nicht zerstören.“

Sundar Pichai, CEO Google

„Die Regulierung der Künstlichen Intelligenz kann warten, bis wir sie tatsächlich erfunden haben. Es ist nicht wahr, dass es zu spät sein wird, wenn wir sie geschaffen haben. Wir haben Schalter. Sie funktionieren.“

Reza Zadeh, Gründerdes KI-Unternehmens Matroid

„Wenn wir die demografische Lücke schließen wollen, können wir auf niemanden verzichten. Roboter, intelligente Maschinen und Softwaresysteme helfen den Menschen, produktiver zu arbeiten.“

Dieter Spath, Co-Vorsitzender der Plattform Lernende Systeme

„Nicht nur volkswirtschaftlich, auch aus Sicht der Unternehmen verspricht KI Vorteile: Sie gibt Mitarbeitern die Möglichkeit, sich ständig wiederholende oder gefährliche Arbeiten an Computer und Roboter abzugeben und sich auf wertschöpfende und interessante Aufgaben zu konzentrieren.“

Harald Bauer, Seniorpartner im Frankfurter Büro von McKinsey

„Künstliche Intelligenz wird unser Zusammenleben verändern, das steht außer Frage. Für unsere Gesellschaft gilt es, die positiven Entwicklungen zu begrüßen und dabei negative Auswirkungen zu verhindern.“

Hannes Schwaderer, Präsident der Initiative D21

„Wir müssen alles tun, um das Potenzial von KI für die digitale Gesellschaft bestmöglich zu nutzen. Es geht nicht darum, dass ein KI-System den Polizisten oder den Arzt ersetzt. Es geht darum, dass intelligente Systeme ihm zuarbeiten.“

Achim Berg, Präsident Bitkom

„KI macht Fortschritte in allen Bereichen unseres Lebens wie Gesundheit und Wellness, Transport und Bildung. Es gibt jedoch auch dringende Bedenken hinsichtlich der Sicherheit, Vertrauenswürdigkeit, Fairness und Transparenz der Technologie, die angegangen werden müssen.“

Prof. Tony F. Chan, Präsident Hong Kong University of Science and Technology

Formen Künstlicher Intelligenz

Trotz der Leistungsfähigkeit, die bereits heute viele KI-Systeme haben, gelten sie immer noch als schwache KI. Erst wenn sie nicht mehr nur für die Lösung einer spezifischen Aufgabe ausgelegt sind, werden sie zur starken KI.

Künstliche Intelligenz ist zurzeit ein echtes „Buzz-word“, auch oder gerade außerhalb der Hightech-Industrie. Doch KI ist nicht gleich KI – Experten unterscheiden zwischen drei Formen Künstlicher Intelligenz:

  1. Schwache Künstliche Intelligenz
  2. Starke Künstliche Intelligenz
  3. Künstliche Superintelligenz

Zunächst gibt es die sogenannte schwache Künstliche Intelligenz (engl.: weak AI oder narrow AI). Dieser Typ von Künstlicher Intelligenz kann nur eine bestimmte, klar definierte Aufgabe lösen. Dazu setzt das System Methoden der Mathematik und Informatik ein; die Herangehensweise an die Problemlösung wird nicht variiert und sie erlangen kein tieferes Verständnis hierzu. Schwache Künstliche Intelligenzen können so durchaus Aufgaben besser als der Mensch bewältigen – aber sie können nicht für die Lösung anderer Probleme als der ursprünglich definierten eingesetzt werden. Ein bekanntes Beispiel für schwache Künstliche Intelligenz ist Siri, einige Roboter in der industriellen Fertigung oder auch autonome Fahrzeuge.

Gleiche intellektuelle Fähigkeiten wie der Mensch

Die meisten Menschen verbinden den Begriff Künstliche Intelligenz mit Maschinen, die schlauer als der Mensch sind und all das tun können, was auch der Mensch kann. Diese Art von KI nennt man starke KI (engl.: strong AI oder general AI). Maschinen mit starker KI können die gleichen intellektuellen Fertigkeiten wie der Mensch erlangen oder sie sogar übertreffen. Eine derartige KI kann nicht nur ein bestimmtes Problem lösen, sondern handelt auch aus eigenem Antrieb und ist in der Lage zu planen, zu lernen und in natürlicher Sprache zu kommunizieren. Stand der Dinge heute ist allerdings, dass es noch nicht gelungen ist, eine starke KI zu entwickeln. Wissenschaftler halten es aber für realistisch, dass es innerhalb eines Zeitraums von 20 bis 40 Jahren gelingen wird.

Wenn die Maschinen schlauer werden als ihre Schöpfer

Als dritte Form Künstlicher Intelligenz wird schließlich noch die Künstliche Superintelligenz (engl.: Artificial Superintelligence oder ASI) definiert. Sie wird erreicht, wenn Maschinen die Intelligenz der schlauesten Köpfe der Menschengeschichte übertreffen. Dann, so die Befürchtung, ist ein Stadium erreicht, wo der Mensch nicht mehr länger die dominante Spezies sein wird. Ultraintelligente Maschinen wären in der Lage, noch bessere Maschinen zu bauen, die Künstliche Intelligenz würde sich explosionsartig weiterentwickeln und die menschliche Intelligenz weit hinter sich lassen. Für dieses Szenario wurde der Begriff der technischen Singularität geprägt. Eine besondere Popularität fand der bereits in den 1960er Jahren geprägte Begriff 1998 durch das Buch „The Singularity is near“ von Raymond Kurzweil (deutscher Titel: „Menschheit 2.0“). Hierin sieht Kurzweil die technische Singularität im Jahr 2045 erreicht – dann, so schätzt er, übersteigt die Rechenleistung der künstlichen Intelligenz die der gesamten Menschheit um den Faktor eine Milliarde. Allerdings wurden seitdem immer wieder andere Termine genannt. Aus heutiger Sicht ist eine Künstliche Superintelligenz nicht in Sicht. Doch man darf nicht vergessen, dass die Rechenleistung von Computern sich mit beträchtlicher Geschwindigkeit verbessert – alle 18 Monate verdoppelte sich in der Vergangenheit die Leistungsfähigkeit von Computerchips. Computer entwickeln sich also in einem wesentlich schnelleren Tempo als das menschliche Bewusstsein. Wo Menschen Tausende Jahre benötigen, um sich zu entwickeln, können Computer das in weniger als 100 Jahren. Damit scheint eine Künstliche Superintelligenz nur eine Frage der Zeit zu sein …

Vorteile Künstlicher Intelligenz erschließen

Die Technologielandschaft ändert sich immer schneller, Entwicklungszeiten für neue Produkte werden kürzer, die Abstände, in denen Innovationen auf den Markt drängen, schrumpfen. Dies sind Trends, auf die gerade auch ein Elektronikdistributor reagieren muss, meint William Amelio, CEO von Avnet, dem Mutterkonzern von EBV. Amelio, der seit Sommer 2016 Vorstandsvorsitzender von Avnet ist, hat daher ein umfangreiches Programm gestartet, mit dem er das gesamte Unternehmen einer echten Transformation unterziehen will: Rund 450 Projekte sollen die Beziehungen zu den Kunden noch weiter vertiefen und dabei helfen, ihre Bedürfnisse noch besser umzusetzen und ihnen noch mehr Services zu bieten. „Wir sind die Ersten, die als Elektronik-Distributor echte End-to-End-Lösungen anbieten, mit denen wir eine Produktidee von den ersten Prototypen bis zur Massenfertigung begleiten. Um das zu erreichen, mussten wir einige signifikante Veränderungen als Unternehmen realisieren“, so Amelio. Sein Ziel: Avnet soll zu einem „Innovationsvermittler“ werden. Künstliche Intelligenz ist dabei für den Manager ein wichtiger Baustein – als Marktsegment, aber vor allem auch für sein Unternehmen selbst, wie er im Interview erläutert.

Welchen Einfluss wird Künstliche Intelligenz aus Ihrer Sicht in Zukunft auf die Technologie und unser Leben im Allgemeinen haben?

William Amelio: Zukunftsforscher sagen, dass KI einen größeren Einfluss auf die Gesellschaft haben wird als die industrielle und digitale Revolution. Aktuell beobachten wir immer mehr konkrete Beispiele, die zeigen, wie das aussehen könnte. Denn die Technologien, die KI-Systemen die nötige Leistung verleihen, werden heute immer bezahlbarer und sind zunehmend frei zugänglich. KI ermöglicht bereits stärker personalisierte Medikations- und Behandlungspläne im Gesundheitswesen. Die Fahrzeuge auf unseren Straßen werden vermehrt autonom. Auch Gesichts-, Stimm- und Fingerabdruck-Erkennung gehören immer mehr zum Alltag. Noch liefert KI die Informationen an uns und wir treffen die letzte Entscheidung. Mit der Zeit werden diese Applikationen so ausgestattet, dass sie mehr für uns entscheiden, so dass wir – zumindest in der Theorie – mehr Zeit für wirklich wichtige Denkaufgaben haben.

Da KI sich in den nächsten Jahren in immer mehr Anwendungen etablieren wird, wird ihr Einfluss exponentiell wachsen, insbesondere in Bereichen wie dem Arbeitsmarkt. Wenn Landwirte die Effizienz ihrer Felder maximieren können oder sich ständig wiederholende Bürotätigkeiten automatisiert werden, wird das dramatischen Einfluss darauf haben, wie wir unsere Arbeit managen. Zudem wird KI neue Herausforderungen im öffentlichen Bereich bringen. Auch wenn die Meinungen bezüglich Umfang und Zeitpunkt auseinandergehen, hat KI die Fähigkeit und das Potenzial, uns dabei zu helfen, viele der komplexen Probleme zu lösen, die unsere Gesellschaft plagen.

Welche Rolle spielt KI-Technologie im Speziellen für Avnet als Elektronik-Distributor?

W. A.: KI wird uns helfen, unsere Geschäftstätigkeiten zu optimieren, die Zufriedenheit unserer Kunden und Mitarbeiter zu steigern und neue Marktchancen zutage fördern. Heute forschen wir an dem Einsatz von Datenbank-Modellen für eine personalisierte Preisgestaltung, für das automatisierte Bezahlen und zum Managen und Vorhersagen von Kundenbedürfnissen. Wir haben ein Pilotprojekt gestartet, in dem sich wiederholende Aufgaben automatisiert werden, die keinen Beitrag zu unserer Wertschöpfung oder zur Zufriedenheit unserer Mitarbeiter leisten. KI kann uns auch helfen, Prognosen zu treffen und stärker personalisierte Angebote sowie Services für unsere Kunden, Lieferanten und für unsere Mitarbeiter anzubieten.

Wir werden zudem in der Lage sein, Prozesse zu beschleunigen und zu automatisieren, indem einige Entscheidungen an Maschinen übertragen werden.

Insbesondere glaube ich, dass Lieferketten als Ergebnis einer Kombination neuer Technologien – inklusive KI – eine komplette Metamorphose durchlaufen werden. Viele der frühen Versprechungen der KI laufen auf eine verbesserte Entscheidungsfindung hinaus. Das ist ebenso ein Gebiet, in dem KI die Unternehmensführung und kultur signifikant beeinflussen wird.

Welchen Einfluss hat KI-Technologie auf Ihr Produktportfolio?

W.A.: KI beginnt sicherlich, einen Bedarf für neue Technologien zu generieren, was wiederum neue Marktchancen eröffnet. Zum Beispiel verbessert unsere neue „Avnet MiniZed Zync SoC“-Plattform die Leistung der Geräusch-Erfassung für KI-Anwendungen. Es nutzt Technologien von Xilinx und Aaware, um eine schnellere, sicherere Fernbereichs-Voice-Schnittstelle zu schaffen. Unter unseren wichtigsten Lieferanten können wir beobachten, dass KI sowohl Hardware- als auch Software-Produkte vorantreibt. Dazu gehören sowohl FPGA-Kits als auch kundenspezifische Chips zur Hartkodierung von neuronalen Netzwerken für KI. Viele Unternehmen designen zudem KI-spezifische Chips. Darin spiegelt sich ein größerer Trend, eine gewisse Intelligenz in die Geräte zu verlegen, statt sie vollständig in der Cloud zu halten. Das löst den Konflikt zwischen Latenz und Kosten auf der einen Seite und Größe an Rechen-Power, die diese Anwendungen erfordern, auf der anderen Seite. Nicht nur, dass Risikokapitalgeber Start-ups in diesem Bereich unterstützen, sondern auch Technologie-Schwergewichte wie Intel, Google, Apple und Microsoft mischen bei kundenspezifischen Chips mit. Viele sind bereits in unserer Linecard.

„Wir müssen eine neue Generation an Führungskräften formen, die versteht, wie man mit KI arbeitet.“

Wird KI darüber hinaus Veränderungen für Avnet bedeuten?

W.A.: Ich habe gerade schon erwähnt, dass KI erheblichen Einfluss auf die Unternehmenskultur und -führung haben wird. Denn die Art, wie wir arbeiten, Entscheidungen treffen und unsere Geschäftsmodelle strukturieren, wird durch KI verändert. Um dahin zu kommen, müssen wir eine neue Generation an Führungskräften formen, die versteht, wie man mit KI arbeitet. Das bedeutet, es müssen neue Kompetenzen erworben und einige der vorhandenen weiterentwickelt werden, um die neuen Vorteile wirklich zu verstehen, die KI mit sich bringt.

So kann KI zum Beispiel dabei helfen, die Mitarbeiterzufriedenheit zu prognostizieren und die Arbeitsbelastung entsprechend auszubalancieren. Wir erhalten zudem viel schneller und regelmäßiger Einblick in Kundenbefragungen, da wir nicht mehr durch so ein arbeitsaufwändiges Data-Mining gehen müssen. Doch sind die Prozesse eines Unternehmens und die Talente, die benötigt werden, damit Personalentwicklung und Kundenservice auf diese Art arbeiten, heute schon vorhanden? Wahrscheinlich nicht.

KI kann sehr viel für uns tun, aber wir müssen erst lernen, wie man damit arbeitet. Die Art, wie wir unsere Geschäfte machen, wird in zehn Jahren ziemlich anders aussehen. Jeder von uns muss bereit für eine persönliche Reise mit vielen Veränderungen und kontinuierlichem Lernen sein.

Avnet nutzt bereits AI in der Plattform Ask Avnet. Können Sie uns kurz erklären, was Ask Avnet ist und wie Ihre Kunden davon profitieren?

W.A.: Ask Avnet ist ein intelligenter Assistent, der durch eine Kombination von KI und menschlicher Expertise unsere Kunden optimal unterstützt. Unsere Kunden können so eine große Bandbreite an Fragen stellen, ohne einen Hürdenlauf durch den Kundenservice machen zu müssen. Ask Avnet kann den Kunden nahtlos durch unsere verschiedenen digitalen Kanäle bewegen. Unsere Kunden können immer noch die gleichen Seiten nutzen, während Ask Avnet sie mit den Ressourcen unseres gesamten breiten Ecosystems vernetzt. Wir sehen bereits vielversprechende Ergebnisse wie eine reduzierte Fehlerzahl. Da Ask Avnet mit der Zeit immer mehr dazu lernt, wird es uns helfen, einen besser skalierbaren, effizienten und ansprechenden Kundenservice anzubieten.

Noch wichtiger ist, dass Ask Avnet entwickelt wurde, um den Kontext der Kunden-Anforderungen zu verstehen und seine Antworten entsprechend maßzuschneidern. Es macht Personalisierung möglich, und das führt zu einem signifikanten Mehrwert, der mit der Zeit nur wachsen kann. Das System kann kontextuell verstehen, in welchem Stadium der Produktentwicklung unsere Kunden sind. So kann Ask Avnet proaktiv Informationen identifizieren, die nützlich für unsere Kunden sind, auch wenn sie nicht notwendigerweise bewusst danach gesucht haben – wie zur Produktreife oder zu prognostizierten Lieferzeiten. Es lernt kontinuierlich durch neue Anfragen bzw. Erfahrungen und liefert ständig die neuesten Einblicke während sich Anforderungen, Technologien und Märkte entwickeln.

Ask Avnet greift auch auf das Know-how der Plattformen hackster.io und element14 zurück. Wie wichtig sind diese Akquisitionen aus 2016 für das mit Ask Avnet verfolgte Ziel, die Time-to-Market für Ihre Kunden zu reduzieren?

W.A.: Ask Avnet ist ein weiterer Weg für unsere Kunden, Zugriff auf die Fülle an Informationen zu erhalten, die über unser Avnet Ecosystem zur Verfügung gestellt wird. Die von Ihnen genannten Communities sind ein wichtiger Teil dieses Ecosystems. Letztlich erweitert es die Aufgabe unserer Communities, wobei es mehr Proaktivität und Personalisierung einführt. Wenn man in unseren Communities ist, befindet man sich auf einer Sondierungsreise. Wenn man Ask Avnet nutzt, hat man einen KI-gestützten Guide, der die Informationen liefert, die man benötigt.

Indem wir Ask Avnet mit unseren Online-Communities kombinieren, helfen wir, die Time-to-Market unserer Kunden zu verkürzen. Denn damit sind die Ressourcen, die sie zur Lösung ihrer Herausforderungen benötigen, ohne weiteres verfügbar, leicht zugänglich und relevant.

„KI hat die Fähigkeit und das Potenzial, uns dabei zu helfen, viele der komplexen Probleme zu lösen, die unsere Gesellschaft plagen.“

Die Beta-Version von Ask Avnet ging im Juli 2017 online. Wie sind die bisherigen Erfahrungen Ihrer Kunden?

W.A.: Der Kundennutzen wird immer besser, da der intelligente Assistent von jeder Anfrage lernt. Unsere Kunden profitieren immer mehr von dem Tool, während sowohl der Gebrauch als auch die Kunden-Zufriedenheit zunehmen. Es ist in der Lage, detailliertere und längere Unterhaltungen zu führen, während sich die Art der Fragen, die Ask Avnet beantworten kann, signifikant erweitert hat. Es ist sogar in der Lage, tiefer in Fragestellungen einzutauchen.

Zum Beispiel hat Ask Avnet in der Startphase eine Anfrage mit einer Liste von Empfehlungen beantwortet. Heute antwortet Ask Avnet mit relevanteren Fragen, um die Kundenanfragen zu klären und Optionen einzugrenzen, bevor es Empfehlungen liefert. Es kann zudem kontextuell relevante Informationen einbinden wie How-to-Projekte von unseren Communities, Preise, Bestände oder Lieferzeiten. Während es lernt, liefert Ask Avnet mehr Informationen und führt qualitativ immer höherwertige Unterhaltungen.

Wird es in Zukunft weitere Projekte geben, in denen KI für Prozesse bei Avnet genutzt werden?

W.A.: Ohne Zweifel. Zurzeit konzentrieren wir uns auf die Projekte, die den höchsten Nutzwert für unsere Zielgruppen haben, was sowohl Front-Office- als auch Back-Office-Projekte beinhaltet. Wir schauen auf Nachfragesteuerung, Lieferketten-Optimierung und setzen die Arbeit zur Verbesserung des Kundennutzens mit Ask Avnet und anderen Projekten fort. Die Technologie ist wirklich überall einsetzbar, wo es Chancen zur Verbesserung der Effizienz sowie zum Reduzieren von Langeweile gibt und wo wir unseren Mitarbeitern helfen können, mehr Wert zu schaffen.

Welche Auswirkungen auf unser Leben wird KI Ihrer Meinung nach in Zukunft haben?

W.A.: Immer wenn man denkt, Innovation nimmt ab, etabliert sich ein neuer Trend – wie jetzt KI. Für mich ist es klar, dass der ökonomische und soziale Nutzwert von KI gerade erst am Anfang ist. Welches Argument einen auch immer bewegt, so können wir alle doch darin übereinstimmen, dass KI fundamental die Natur unseres Lebens und unserer Arbeit verändern wird. Das bedeutet, wir müssen neue Geschäftsmodelle erkunden und praktische Erfahrungen und Kompetenzen anwerben. Start-ups, Hersteller, Tech-Giganten und Traditionsbetriebe sind alle im gleichen Spiel. Der Wettbewerb wird neue und innovative KI-Ideen und -Anwendungen hervorbringen. Ich bin gespannt, das nächste Kapitel dieser Geschichte zu sehen!

Von der ersten Skizze bis zur Massenproduktion

Von der Idee zum Design, vom Prototyp zur Produktion – Avnet unterstützt seine Kunden in jeder Phase des Produktlebenszyklus. Als einer der weltweit größten Distributoren für Elektronikkomponenten und Embedded-Lösungen bietet das Unternehmen neben den elektronischen Bausteinen ein umfassendes Portfolio an Design- und Supply-Chain-Services. Mit den in 2016 übernommenen Online-Communities Hackster.io und Element14 schlägt Avnet zudem Brücken zwischen der Welt der Maker und der der Hersteller. Hackster.io hat es sich zur Aufgabe gemacht, jungen Unternehmen dabei zu helfen, Hardware für IoT-Designs zu entwickeln. Das Netzwerk ist mit rund 90 Technologie-Partnern verbunden und umfasst fast 200.000 Ingenieure, Maker und Hobby-Techniker. Element14 ist eine Engineering-Community mit über 430.000 Mitgliedern. Die Akquise beider Plattformen ist ein wichtiger Baustein des Unternehmensziels, den Kunden dabei zu helfen, mit einer Idee als Erster auf dem Markt zu sein. Dabei kann auf ein über fast 100 Jahre eng geknüpftes Netzwerk an führenden Technologie-Unternehmen weltweit zurückgegriffen werden.

Der Hauptsitz von Avnet befindet sich in Phoenix, Arizona. Gegründet wurde das Unternehmen 1921 von Charles Avnet als kleines Ladengeschäft in Manhattan, das sich auf den Verkauf von Komponenten für Radios spezialisiert hatte. Heute beschäftigt Avnet mehr als 15.000 Mitarbeiter und ist in 125 Ländern in Nordamerika, Europa und Asien vertreten.

Mustererkennung durch KI

Mustererkennung, also das Auffinden von Regeln oder Mustern in Big Data, Bildern, Geräuschen und vielem mehr ist eine der großen Stärken Künstlicher Intelligenz.

Viele Funktionen intelligenter Informationssysteme basieren auf Verfahren der Mustererkennung: Die Unterstützung von Diagnosen in der Medizin, die Spracherkennung von Assistenzsystemen und Übersetzungstools, die Objekterkennung aus Kamerabildern und Videos oder auch die Vorhersage von Aktienkursen. Bei allen Anwendungen geht es darum, bestimmte Muster – oder Regeln – in großen Datenmengen zu erkennen. Ob es sich bei diesen Daten um die in einer Datenbank gespeicherten Informationen, um Pixel eines Bildes oder die Betriebsdaten einer Maschine handelt, ist dabei gleich. Mit klassischen Computersystemen war dies entweder gar nicht oder nur mit sehr langen Berechnungszeiten von bis zu mehreren Tagen möglich.

Daten in Sekundenschnelle klassifizieren

Mit der Entwicklung neuronaler Netze und maschinellem Lernen stehen heute Lösungen zur Verfügung, in der auch komplexe Eingangsdaten innerhalb von Minuten oder sogar Sekunden mit antrainierten Merkmalen abgeglichen und klassifiziert werden können. Dabei werden zwei grundsätzliche Methoden unterschieden: die überwachte und die unüberwachte Klassifikation.

Bei der überwachten Klassifikation von Eingangsdaten in der Mustererkennung wird das System mit Trainingsdaten „gefüttert“, bei denen die Daten mit dem richtigen Ergebnis entsprechend gekennzeichnet sind. Die richtige Antwort muss also während der Trainingsphase vorliegen und der Mustererkennungs-Algorithmus muss die Lücke zwischen dem Input und dem Output füllen. Diese überwachte Mustererkennung wird beispielsweise beim maschinellen Sehen für die Objekterkennung oder für die Gesichtserkennung eingesetzt.

Beim unüberwachten Lernen sind die Trainingsdaten nicht gekennzeichnet, die möglichen Ergebnisse sind also unbekannt. Der Mustererkennungs-Algorithmus kann also nicht trainiert werden, indem ihm die Ergebnisse, auf die er kommen soll, vorgegeben werden. Vielmehr werden Algorithmen genutzt, die die Struktur der Daten erkunden und sinnvolle Informationen aus ihnen bilden. Um beim Beispiel des maschinellen Sehens zu bleiben: Die Techniken der unüberwachten Mustererkennung werden unter anderem für die Objekterkennung verwendet. Grundsätzlich dienen unüberwachte Verfahren auch dem Data Mining, also der Erkennung von Inhalten in großen Datenmengen anhand von sichtbar werdenden Strukturen.

Strukturen in Big Data finden

Bei dieser Analyse von Big Data werden wiederum verschiedene Verfahren eingesetzt. So zum Beispiel die Assoziationsmuster-Analyse. Hierbei wird in einer Trainingsdatenmenge nach Kombinationen von Einzel-Tatsachen oder Ereignissen gesucht, die signifikant oft oder signifikant selten gemeinsam in den Daten vorkommen. Ein anderes Verfahren ist die Sequenzmusteranalyse. Hier wird in einer Trainingsdatenmenge nach zeitgeordneten Abfolgen gesucht, die auffällig oft oder selten nacheinander in den Daten vorkommen. Als Ergebnis der verschiedenen Analyseverfahren erhält man eine Sammlung von Mustern bzw. Regeln. Sie kann auf zukünftige Datensätze angesetzt werden, um herauszufinden, ob eine oder mehrere Regeln in diesen Datensätzen vorkommen. Die Regeln können in operative Softwareprogramme integriert werden, um zum Beispiel Frühwarnkonzepte zu realisieren oder fällige Wartungen zu prognostizieren.

Chancen Künstlicher Intelligenz

Die Teilnehmer unseres Expertengesprächs sehen vor allem einen großen Bedarf, die Menschen über ­Nutzen und Möglichkeiten Künstlicher Intelligenz aufzuklären. Auch wenn Themen wie Ethik und Voreingenommenheit durchaus eine Herausforderung darstellen – die Menschen ersetzende Super­intelligenz befürchtet keiner.

Das Bild, das sich Menschen über Künstliche Intelligenz machen, ist ziemlich verzerrt. „Zum einen sind die Erwartungen an die Fähigkeiten von KI riesig, zum anderen ist da aber auch die Angst, dass superschlaue Künstliche Intelligenzen die Weltherrschaft übernehmen“, so Andrea Martin, Chief Technology Officer von IBM für die DACH-Region. Gerade Hollywood hat mit Blockbustern wie der „Terminator“ Filmreihe das Bild einer von Maschinen regierten Zukunft geprägt. Aber auch Statements von renommierten Wissenschaftlern wie Stephen Hawking haben die Menschen verunsichert: „Wenn ich höre, dass KI uns irgendwann töten wird, schlage ich die Hände über dem Kopf zusammen“, ereifert sich René Büst, Director of Technology Research bei Arago. „Derartige Phrasen sorgen einfach dafür, dass die Menschen Angst haben. Und das macht es uns als Anbietern extrem schwer, klarzumachen, was KI kann und was nicht.“ Die Roundtable-Teilnehmer sehen hier auch die Medien in der Pflicht, nicht nur über Schreckensszenarien im Zusammenhang mit KI zu berichten, sondern vor allem auch Chancen und Möglichkeiten darzustellen. „Mein Eindruck ist aber leider, dass die Presse lieber spektakuläre Weltuntergangs-Thesen aufgreift, weil sie einfach mehr Aufmerksamkeit beim Leser finden“, so Reinhard Karger, Unternehmenssprecher des Deutschen Forschungszentrums für Künstliche Intelligenz.

Auf der anderen Seite tragen aber auch die Anbieter von Systemen, die KI nutzen, Mitschuld an dem verzerrten Bild in der Öffentlichkeit: „Mit hohem Marketing-Aufwand werden Systeme, die eigentlich relativ trivial sind, auf den Markt gebracht“, meint Thomas Staudinger, Vice President Marketing bei EBV. So entstehe eine Erwartungshaltung, die viele Systeme dann letztendlich nicht erfüllen können.

„Wir sollten auf die Chancen und Möglichkeiten schauen, die sich mit KI bieten.“
Andrea Martin, Chief Technology Officer IBM DACH

Mehr Anwendungen als gedacht

Ein typisches Beispiel dafür sind Chatbots: Viele Nutzer erwarten, man könne mit den digitalen Assistenten einen Dialog führen wie mit einem Menschen. „Das werden wir wahrscheinlich auch auf lange Sicht nicht können“, so René Büst. „Man sollte vielmehr mit kleineren Aufgaben wie der Automatisierung von Prozessen anfangen.“ Das sieht auch Andrea Martin so: „Die personalisierte Interaktion ist nur ein Teilbereich von Künstlicher Intelligenz. Daneben sollt man sehen, wie uns KI helfen kann, aus riesigen Datenmengen neue Erkenntnisse zu gewinnen und uns dabei unterstützen kann, bessere Entscheidungen zu treffen.“

Die Experten können eine ganze Reihe von Anwendungen aufzählen, wo KI schon heute eingesetzt wird und echten Nutzen für die Anwender bringt: Sei es bei der vorausschauenden Wartung, in der Arbeitsorganisation, in der medizinischen Forschung oder in vielen anderen Bereichen, in denen KI-Systeme Menschen unterstützen. Tatsächlich werden heute schon viel mehr KI-Lösungen eingesetzt, als den meisten Menschen bewusst ist. Das macht eine Zahl von Oliver Gürtler, Senior Director Business Group Cloud and Enterprise, Microsoft Deutschland, deutlich: „Stand heute arbeiten bereits 760.000 Entwickler bei unseren Partnern an Lösungen, die KI nutzen. Und das ist nur auf unserer Plattform – es gibt natürlich noch weitere Anbieter.“ Das passt zu den Zahlen, die Andrea Martin nennt: „2018 werden rund 70 Prozent aller Entwickler in irgendeiner Art und Weise Funktionen der Künstlichen Intelligenz in ihre Produkte einbauen.“

„Die Entscheidungen einer KI müssen transparent und reproduzierbar sein.“
Oliver Gürtler, Senior Director Business Group Cloud + Enterprise, Microsoft Deutschland

Verschiedene Technologien wirken zusammen

Möglich werden diese rasanten Fortschritte durch das Zusammenwirken verschiedener Technologien, wie René Büst erklärt: „Mit Cloud Computing, Big Data, Analytics Services oder GPUs wurden in den letzten zehn Jahren die Grundlagen für die heutigen KI-Lösungen geschaffen.“ Vor allem in der Möglichkeit, mit Grafikkarten Daten massiv parallel zu verarbeiten und damit neuronale Netze zu berechnen, sieht DFKI-Sprecher Karger einen wesentlichen Durchbruch für die KI: „Wir haben damit heute letztendlich Supercomputer, die wir zum Beispiel ins Auto integrieren, um Sensordaten in Echtzeit zu verarbeiten.“ Neben der Möglichkeit, die Rechenleistung über die Prozessoren in die Applikation zu bringen, sieht Thomas Staudinger einen weiteren Baustein: „Die Sensoren sind dank der Entwicklungen im Bereich der Halbleiter-Technik so günstig geworden, dass sie sich massenhaft in Anwendungen integrieren lassen.“ Damit können die benötigten Datenmengen für KI-Lösungen generiert werden. „Daten sind das Rohöl für Artificial Intelligence“, betont Oliver Gürtler. „Um sie zu verarbeiten, werden auf der einen Seite Datenbanken benötigt, auf die in Millisekunden zugegriffen werden kann. Auf der anderen Seite wird viel mehr direkt am Front-End, auf den Geräten verarbeitet werden. Dazu brauche ich zudem Connectivity, um Daten zwischen Geräten und Rechenzentren auszutauschen.“ Die Entwicklung wird weitergehen, wie die Round-table-Teilnehmer betonen. Sie nennen unter anderem das Mesh-Computing, bei dem Endgeräte direkt ohne Internetverbindung miteinander kommunizieren, oder Quantencomputer, mit denen bereits erste Tests durchgeführt werden.

„Es gibt eine Pluralität von Assistenten, aber keine Singularität von KI.“
Reinhard Karger, Unternehmenssprecher Deutsches Forschungszentrum für Künstliche Intelligenz

Sichere KI-Systeme

„Die Technologie-Entwicklung beschleunigt exponentiell. Eine große Herausforderung ist dabei der Themenkomplex der Transparenz“, so Oliver Gürtler. Wenn man nicht wisse, warum eine KI eine bestimmte Entscheidung trifft, dann könnten die Ergebnisse leicht manipuliert werden, ohne dass der Nutzer das merkt. Dazu gehört auch, dass die Ergebnisse reproduzierbar sind. Und natürlich der Schutz der Daten, um Manipulationen zu verhindern. „Wenn keine Transparenz gegeben ist, also nicht erkennbar ist, wie die KI überhaupt arbeitet, dann muss der Nutzer die Ergebnisse akzeptieren, ohne sie hinterfragen zu können.“ Die Sicherheit bei KI-Systemen hat viele Säulen, wie Andrea Martin erklärt: „Sicherheit muss in der Hardware, in der Software und in der Connectivity gewährleistet sein. Und dann gibt es noch eine weitere Säule – den Menschen.
Wenn wir den außer Acht lassen, haben wir den wichtigsten Faktor außen vor gelassen.“ Auch Reinhard Karger sieht im Menschen, beziehungsweise in dem nur wenig ausgeprägten Sicherheits-Bewusstsein der Anwender, einen großen Risikofaktor. „Bei der ganzen Diskussion um Datenschutz und Security geht es um immer bessere Schlösser für die Tür – dabei stehen die Fenster sperrangelweit auf.“

„Ich sehe KI als eine Companion-Technologie, die uns hilft, das Leben einfacher zu gestalten.“
René Büst, Director of Technology Research, Arago

Herausforderung Vorurteile

Während Datenschutz und Datensicherheit schon aus vielen anderen Bereichen bekannte Themen sind, kommt bei KI-Lösungen ein neuer Aspekt hinzu: Voreingenommenheit, unter den Experten mit dem englischen Begriff Bias bezeichnet. „Wird eine Gesichtserkennung von einem Team entwickelt, das zum Beispiel aus einer Gruppe weißer Männer besteht, kann es passieren, dass das System falsche Ergebnisse bei Menschen liefert, die keine weiße Hautfarbe haben“, gibt Oliver Gürtler ein Beispiel. „Das kann man vermeiden, wenn man auf Diversität in den Entwicklungsteams achtet. Das lernt die Industrie jetzt gerade.“ Er betont, dass dazu Guidelines für KI-Entwickler nötig sind. „Microsoft, IBM, Google, Facebook, Amazon und ein paar andere Unternehmen haben dafür die Non-Profit-Organisation Partnership on AI gegründet“, so Andrea Martin. „Hier sollen gemeinsam Prinzipien für vorbildliche Vorgehensweisen bei der Entwicklung von KI-Lösungen erarbeitet werden. Damit das, was wir tun, auch möglichst zum Nutzen der Gesellschaft und Wirtschaft eingesetzt wird – und nicht dagegen.“ Wie kompliziert das sein kann, verdeutlicht Reinhard Karger: „Für das Training neuronaler Netze benötigt man massenhaft Daten. Doch wie kann man prüfen, ob diese Daten auch tatsächlich den Ansprüchen der heutigen Gesellschaft entsprechen? Sollen Tausende Menschen geschult werden, die Daten einzeln zu prüfen? Was sind die Kriterien? Und müsste man diese Prüfung regelmäßig wiederholen? Es ist sehr schwer, die Voreingenommenheit aus einem System herauszukriegen.“

„Gerade in Richtung Produktivität und Effizienz kann Künstliche Intelligenz sehr positive Entwicklungen anstoßen.“
Thomas Staudinger, Vice President Marketing, EBV

Regeln für KI-Entwicklung

Ähnlich herausfordernd ist die Frage nach der Ethik von Entscheidungen, die KI-Systeme treffen. Was macht zum Beispiel ein autonomes Auto, wenn es in einem Notfall zwischen dem Leben des Fahrers, eines Kindes auf der Straße oder eines alten Mannes auf dem Gehweg wählen muss? „Das ist in meinen Augen viel wichtiger als die Diskussion, ob Maschinen uns irgendwann unterjochen“, meint René Büst. Doch Reinhard Karger ist ein wenig genervt von diesem Thema: „Die Wahrscheinlichkeit, dass so ein Szenario auftritt, ist mehr als extrem gering. Wenn Menschen in derartige Katastrophensituationen kommen, entscheiden sie reflexhaft und nicht reflektiert nach ethischen Grundsätzen, die es für diese Dilemma-Situation noch nicht einmal gibt.“ Doch hier stößt er auf Widerspruch: „Es gibt in dem Kontext viel Unsicherheit, weil es viele offen Fragen gibt“, meint zum Beispiel Oliver Gürtler. „Die müssen beantwortet werden, bevor Entscheidungen einer KI akzeptiert werden – nicht nur beim autonomen Fahren, auch bei Anwendungen wie in der Medizin.“ Auch Andrea Martin hält die Ethik im Zusammenhang mit KI für relevant: „Die Frage kommt ja aus dem Teil der Gesellschaft, der sich nicht so tiefgehend mit Künstlicher Intelligenz beschäftigt. Allerdings ist es noch ein sehr langer Weg, sind noch viele technische Grundlagen zu meistern, bis ein Auto derartige Entscheidungen treffen muss. Von daher glaube ich, dass wir zur Beantwortung der Frage noch Zeit haben.“ Dennoch sieht sie wie René Büst die Notwendigkeit, Ethikkommissionen zu bilden, die sich um die moralischen Fragen des KI-Einsatzes kümmern. „Nicht, um den Menschen Angst, sondern um KI gesellschaftsfähig zu machen“, betont Büst.

Ansätze zur Integration in Unternehmen

Die Konsumenten sind das eine, meint Thomas Staudinger: „Aber wie kann ich als mittelständisches Unternehmen KI in meine Geschäftsprozesse einbinden? KI wird ja nicht zum Selbstzweck gemacht.“ Letztendlich ist das eine Frage der Strategie, die von der Unternehmensführung vorgegeben werden muss, meint unter anderem Oliver Gürtler und betont: „KI bietet die große Chance, sich vom Wettbewerb differenzieren zu können.“ Doch was kann man mit KI als Unternehmen wirklich machen? Wie kann damit ein neues Geschäftsmodell aufgebaut werden? Welche Prozesse lassen sich damit verbessern? Das sind alles Fragen, die sich laut Staudinger viele Entscheider in Unternehmen heute noch stellen: „Hier besteht noch großer Erklärungsbedarf. Best-Practice-Beispiele könnten helfen, die Vorteile von KI-Lösungen zu verstehen und das Thema greifbarer zu machen.“

Andrea Martin rät dazu, die Perspektive zu wechseln: „Das Themenfeld KI ist so breit, dass Unternehmen -davon erschlagen werden. Statt das als ein Riesentier zu sehen, das erlegt werden muss, sollte man sich klarmachen, dass es sich bei KI um einen Baukasten handelt. Da kann man sich einzelne Elemente herausgreifen und zweckgebundene Lösungen kreieren.“ René Büst empfiehlt, zunächst einmal in der IT eines Unternehmens anzufangen, Prozesse mit Hilfe von KI zu automatisieren. „Mit den Informationen, die man hierbei sammelt, kann man KI-Lösungen dann auf andere Geschäftsprozesse ausdehnen und im gleichen Maße ein Bewusstsein im Unternehmen schaffen.“ Thomas Staudinger, der die Endkunden seiner Kunden im Auge hat, sieht vor allem die Entscheiderebene in der Verantwortung: „Es geht darum, dem Endkunden einen besseren Service mit KI zu bieten. Das erreiche ich nicht über die IT, sondern das ist eine Geschäftsentscheidung.“ Einfach mal machen – ist dagegen die Empfehlung von Oliver Gürtler: „Unserer Erfahrung nach ist es extrem produktiv, wenn sich sowohl junge als auch erfahrene Mitarbeiter zusammensetzen und kreativ werden. Dann einfach die Lösung mal implementieren. Das sind erstmal alles Kleinstprojekte, die nicht fünf Jahre Softwareentwicklung brauchen, sondern das kann ergänzend zur bestehenden IT ganz schlank implementiert werden. Wenn die Firmen anfangen, den Nutzen der KI zu sehen, dann werden sie auch lernen, KI für sich zu begreifen.“ Daraus würden dann die wirklich transformativen Projekte entstehen, meint Gürtler. Auch Reinhard Karger hält viel von dem Potenzial, das in den Mitarbeitern steckt: „Gerade für kleinere Betriebe ist es sinnvoll, die eigenen Mitarbeiter zu fragen – über das betriebsinterne Vorschlagswesen zum Beispiel. Denn zuallererst ist bei der Einführung von KI Fantasie gefragt, nicht Technologie-Know-how.“

Chancen realisieren

Einig sind sich alle Teilnehmer, dass man auf die Chancen schauen sollte, die Künstliche Intelligenz bietet – in Produktion, Forschung, Verkehr, aber auch zuhause bei Themen wie Steuer, Versicherung und vielem mehr. „Zwischen der fiktiven Superintelligenz eines Terminators und einem einfachen digitalen Assistenten gibt es noch ganz viel“, meint Andrea Martin. KI ist für die Roundtable-Teilnehmer vor allem eine Möglichkeit, menschliche Fähigkeiten zu ergänzen – nicht zu ersetzen. So ist denn auch Reinhard Kargers Schlusswort optimistisch: „Ja, Künstliche Intelligenz wird unser Leben verändern – und das ist großartig.“

KI in der Produktion

KI steigert Qualität und Produktivität in der Fertigungsindustrie und erleichtert dem Menschen die Arbeit.

Die Künstliche Intelligenz kann zum Wachstumsmotor für die Industrie werden: Alleine in Deutschland könnte bis 2030 das Bruttoinlandsprodukt durch den frühen und konsequenten Einsatz von intelligenten Robotern und selbstlernenden Computern um bis zu vier Prozent oder umgerechnet 160 Milliarden Euro höher liegen als ohne den Einsatz von KI, so das Ergebnis einer Studie der Wirtschaftsberatung McKinsey. „Nicht nur volkswirtschaftlich, auch aus Sicht der Unternehmen verspricht KI Vorteile: Sie gibt Mitarbeitern die Möglichkeit, sich ständig wiederholende oder gefährliche Arbeiten an Computer und Roboter abzugeben und sich auf wertschöpfende und interessante Aufgaben zu konzentrieren“, so Harald Bauer, Seniorpartner im Frankfurter Büro von McKinsey.

Gerade im Umfeld der Industrie 4.0 spielen KI und Maschinenlernen ihre Chancen aus: Denn damit sich eine Produktion selbstständig organisieren und flexibel reagieren kann, sind enorme Datenmengen erforderlich. Computersysteme finden in der Datenflut selbstständig Strukturen, Muster und Gesetzmäßigkeiten. So können Unternehmen neues Wissen aus Erfahrungswerten ableiten. Auf diese Weise lassen sich Trends und Anomalien aufspüren – in Echtzeit und im laufenden System.

Die Fertigung bietet viele Ansatzpunkte für die KI, um die Wettbewerbsfähigkeit zu steigern. Aktuell werden 70 % aller gesammelten Produktionsdaten nicht genutzt – KI kann das ändern. (Quelle. obs / A.T. Kearney)

Reagieren, bevor die Maschine ausfällt

Vor allem die vorausschauende Wartung (Predictive Maintenance) verspricht echtes Rationalisierungspotenzial. Mit Hilfe einer Vielzahl von Sensoren werden Daten über den Zustand einer Maschine oder Anlage, beispielsweise Schwingungen, Spannungen, Temperatur und Druck, ausgelesen und an ein System zur Auswertung übertragen. Durch die Datenanalyse können Prognosen aufgestellt werden: Wann kommt es zu einem Ausfall der Systeme? Wann ist der optimale Zeitpunkt für eine Wartung? Somit werden Ausfälle reduziert oder sogar ausgeschlossen. McKinsey geht von einer besseren Auslastung von bis zu 20 Prozent aus, wenn Anlagenbetreiber ihre Wartungsarbeiten vorausschauend planen und durchführen.

Das deutsche Start-up Sensosurf integriert zum Beispiel Kraftsensoren direkt in von Haus aus unintelligente Maschinenkomponenten wie Flansch- und Stehlager, Linearführungen und Gewindestangen. „Wir beschäftigen uns mit Bereichen, aus denen es bislang keine oder nur wenige Informationen gab“, sagt Dr. Cord Winkelmann, Geschäftsführer des Bremer Unternehmens Sensosurf. Die so gewonnenen Daten werden mithilfe maßgeschneiderter Machine-Learning-Algorithmen interpretiert. Dadurch können zum Beispiel spezifische Unregelmäßigkeiten erkannt und es kann Ausfällen vorgebeugt werden.

Die Anlagenverfügbarkeit steigt um bis zu 20 % während die Wartungskosten um bis zu 10% sinken.

Hören, ob die Maschine rundläuft

Das intelligente System Predisound des israelischen Unternehmens 3DSignals misst nicht Verformungen bzw. Schwingungen eines Bauteils, sondern es erfasst akustische Werte einer Maschine. Erfahrene Maschinenbetreiber und Instandhalter erkennen am Klang einer Anlage, ob diese rundläuft. Im besten Fall können sie sogar drohende Ausfälle vorhersagen. Solche Treffer sind natürlich nicht völlig zuverlässig – und sie binden Personal. Beides soll Predisound ändern. Das System besteht aus zahlreichen in den zu überwachenden Maschinen verbauten Ultraschallsensoren. Sie nehmen das komplette Klangspektrum während des Betriebs auf und senden die Daten an eine zentrale Software, die auf einem neuronalen Netz basiert. Per Deep Learning erkennt diese nach und nach immer präziser, welche Abweichungen im Klangbild kritisch sein könnten. So lassen sich Anomalien entdecken, die einem Menschen verborgen blieben. Mit Predictive-Analytics-Algorithmen ausgestattet, lassen sich so Ausfallwahrscheinlichkeiten und zeiträume einzelner Maschinenteile vorhersagen. Der Wartungstechniker wird automatisch informiert, bevor es zu einem Schaden kommt – und damit zum Stillstand einer Anlage. Fixe Prüfintervalle sind deshalb nicht mehr notwendig.

Die Produktivität steigt bei einzelnen Arbeitsschritten um bis zu 20 % durch die KI-basierte Interaktion von Mensch und Roboter. (Quelle: McKinsey)

Effektivere Qualitätssicherung durch Bildverarbeitung

Neben der Maschinenwartung ist die industrielle Bildverarbeitung ein weiteres wichtiges Einsatzgebiet für KI. Die automatische Mustererkennung über Kameras und Sensoren ermöglicht es, Fehler und deren Ursachen schneller zu erkennen. Das unterstützt die Qualitätssicherung maßgeblich. Wie zum Beispiel der APAS Inspector von Bosch. Er erkennt mithilfe lernender Bildverarbeitung automatisch, wenn die Materialoberfläche eines Fertigungsteils nicht den Vorgaben entspricht. Der Mitarbeiter bringt der Maschine einmal bei, welche Abweichung sie noch tolerieren darf und ab wann ein Teil aussortiert werden muss. Sie kann erlernte Muster dank Künstlicher Intelligenz dann auf alle folgenden Qualitätsprüfungen übertragen und diese eigenständig übernehmen.

Roboter lernt selbstständig dank Künstlicher Intelligenz

Dank KI werden zudem Industrieroboter immer mehr zum Partner des Fabrikarbeiters und arbeiten mit ihm Hand in Hand. Ein Beispiel für so einen kollaborativen Roboter ist der Panda von Franka Emika, ein in seinen Bewegungen besonders feinfühliger Leichtbau-Roboterarm. Das mittelfristige Ziel des Entwicklers Sami Haddadin: Aus Panda einen lernfähigen Roboter machen, der nicht mehr programmiert werden muss. Der Mensch gibt eine Aufgabe vor und Panda probiert selbst, wie diese Aufgabe am besten zu lösen ist. Der Clou: Hat Panda die effizienteste Vorgehensweise entdeckt, gibt er die Information via Cloud an andere Roboter weiter. Für den Produktionsbetrieb fällt somit die aufwändige Programmierung weg. „Wir stehen erst am Anfang einer spannenden Entwicklung“, ist sich Matthias Breunig sicher, Partner im Hamburger Büro von McKinsey. „Voraussetzung für den sinnvollen Einsatz von Künstlicher Intelligenz ist eine offene Debatte darüber, wie und an welcher Stelle Menschen und Maschinen sinnvoll zusammenarbeiten können.“

KI-Chatbots­ werden menschlich

Softwaresysteme, die via Text oder Sprache mit dem ­Menschen kommunizieren, werden immer ­ausgefeilter: KI-Chatbots­ ­erkennen die Stimmung des ­Gegenübers und reagieren als Avatar mit ­ passenden ­Gesten und Gesichtsausdrücken.

Beim britischen Elektroeinzelhändler Dixons Carphone beginnt das Einkaufserlebnis für neun von zehn Kunden online. Zwei Drittel der Kunden kommen mobil über ihr Smartphone in das virtuelle Ladengeschäft, um Produktinformationen einzuholen und Preise zu vergleichen. Sie alle werden von Cami empfangen, dem KI-Chatbot des Unternehmens. Cami ist so konzipiert, dass er aus den Chats lernt, um die Bedürfnisse der Kunden zu antizipieren, sie mit aktuellen Preisen und Lagerbeständen abgleicht und so alle Fragen schnell und präzise beantworten kann. Damit erzielt der Händler im E-Commerce nennenswerte Umsatzzuwächse und schafft Freiräume für die menschlichen Vertriebsmitarbeiter, die in der gewonnenen Zeit wertvolle Kundendienstleistungen anbieten können.

Immer natürlichere Kommunikation dank Chatbots mit künstlicher Intelligenz

Chatbots – also Softwareprogramme, die via Text oder Sprache mit dem Menschen kommunizieren können – ermöglichen heute eine immer natürlichere Kommunikation mit dem Nutzer: Sie nutzen Künstliche Intelligenz, insbesondere Natural-Language-Processing-(NLP-)Technologien, um Sprache zu verstehen und zu generieren. Natural Language Understanding interpretiert das, was der Benutzer sagt, und ordnet es einem im Computer hinterlegten Muster zu. Natural Language Generation erzeugt eine natürliche Sprachantwort, die vom Benutzer verstanden werden kann.

Bei der vollautomatischen Einbindung eines Chatbots agiert dieser alleine mit dem Kunden. Während des Gesprächs wählt der Bot die Antworten aus, die er dem Kunden gibt oder ob er den Dialog an einen menschlichen Agenten weiterleitet, wenn er zum Beispiel die Frage nicht versteht. Im Unterschied hierzu agiert ein teilautomatischer Chatbot nicht komplett autark, sondern schlägt einem menschlichen Agenten Antworten vor. Von diesen kann der Agent die passendste auswählen, die Antwort überarbeiten oder auch selbst den Dialog übernehmen. Der Vorteil daran ist, dass der Chatbot hierbei weiter lernen kann, während er den Agenten bereits unterstützt, schneller und gezielter zu reagieren. Gleichzeitig wird das Risiko gesenkt, durch einen Fehler des Bots wertvolle Kundenbeziehungen zu verlieren. „Die Evolution der Chatbots beginnt gerade erst“, so Wolfgang Reinhardt, Geschäftsführer von optimise-it, einem der führenden Anbieter für Live-Chat- und Messaging-Services in Europa. „In den nächsten Monaten und Jahren werden sie noch intelligenter und funktionsfähiger werden. Wichtig ist dabei die Einbindung und Vernetzung der Bots in die Kommunikationsstruktur der Unternehmen, um dem Kunden eine optimale User- und Service-Experience zu bieten.“

KI-Chatbots­ erhalten eine Gestalt

Dazu sollen die Chatbots auch eine Gestalt bekommen – als Avatar bilden sie den Menschen auch grafisch nach. Die Kölner Firma Charamel und das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) arbeiten bereits seit Längerem auf dem Gebiet der virtuellen Avatare zusammen. Mit der Avatar-Plattform VuppetMaster von Charamel ist eine Einbindung von interaktiven Avataren in Web-Anwendungen oder anderen Plattformen ohne zusätzliche Softwareinstallation möglich. Ziel ist es, eine nächste Generation von multimodalen Sprachdialogsystemen zu entwickeln, die auf der Ausgabeseite Mimik, Gestik und Körpersprache stärker nutzt, um einen natürlichen Gesprächsverlauf zu ermöglichen. Prof. Dr. Wolfgang Wahlster, Vorsitzender der Geschäftsführung des DFKI: „Chatbots werden damit zu glaubwürdigen virtuellen Charakteren mit einer individuellen Persönlichkeit. Kundendialoge, Empfehlungs-, Beratungs- und Tutorsysteme werden durch diese neue Form der digitalen Kommunikation im Internet der Dienste noch effizienter und attraktiver. Diese individualisierten virtuellen Dienstleister machen die Smart Service Welt für den Menschen noch leichter nutzbar und zu einem persönlichen Erlebnis.“

Von Angesicht zu Angesicht

„Am Ende des Tages sind die emotionalsten Gespräche, die wir führen, Gespräche von Angesicht zu Angesicht“, meint auch Greg Cross, Chief Business Officer bei Soul Machines. „Wenn wir von Angesicht zu Angesicht kommunizieren, öffnen wir eine ganze Reihe neuer nonverbaler Kommunikationskanäle.“ Viele Bots sind bereits heute gut darin zu verstehen, was jemand sagt. Aber in Zukunft wird es wichtiger, auch einzuschätzen, wie jemand etwas sagt. Dabei helfen die über 20 Gesichtsausdrücke, über die ein Mensch verfügt. So ist zum Beispiel ein Augenzwinkern nach einem Satz ein Hinweis darauf, die Aussage nicht zu ernst zu nehmen. Dies zu erkennen sollen jetzt auch Maschinen bzw. Chatbots in der Lage sein. Das klappt heute schon in einer beeindruckenden Weise, wie der lebensähnliche Avatar von Soul Machines zeigt. Dessen Computer-Engine nutzt neuronale Netze, um das menschliche Nervensystem nachzuahmen. Wenn der Benutzer das System startet, beginnt eine Kamera, seine Gesichtsausdrücke zu lesen und zu interpretieren. Gleichzeitig nimmt ein Mikrofon die Anfrage auf. Mit Hilfe der KI von IBM Watson wird die Anfrage interpretiert und eine passende Antwort gegeben. Parallel dazu erkennt die Engine von Soul Machines die Emotionen anhand des Gesichts und des Tons in der Stimme, um besser zu verstehen, wie jemand mit dem System interagiert.

Da Menschen in ihrem täglichen Leben mit immer mehr Maschinen interagieren, wird es für Greg Cross zunehmend wichtig, der KI ein Gesicht zu geben: „Wir sehen das menschliche Gesicht als einen absolut kritischen Teil der Mensch-Maschine-Interaktion in der Zukunft.“

KI gesteuerte Drohnen

Schon heute können KI gesteuerte Drohnen ähnliche Leistungen wie vom Menschen gesteuerte erbringen. Selbst im urbanen Umfeld können sie sicher navigieren.

Verstopfte Straßen, steigende Emissionen und fehlende Parkmöglichkeiten – urbane Logistik wird zur immer größeren Herausforderung. Getrieben durch E-Commerce, wächst der Paketmarkt in reifen Märkten wie Deutschland oder den USA um sieben bis zehn Prozent jährlich. Bis 2025 wird sich das Volumen in Deutschland damit verdoppeln: Rund fünf Milliarden Pakete werden dann jährlich verschickt. „Während Lieferungen an Verbraucher früher etwa 40 Prozent ausmachten, wird inzwischen mehr als die Hälfte aller Pakete an Privathaushalte geliefert. Zeitnahe Zustellung wird immer mehr verlangt“, sagt Jürgen Schröder, McKinsey-Seniorpartner und Experte für Logistik und Postdienste. „Neue Technologien wie autonomes Fahren und die Zustellung durch Drohnen müssen noch weiterentwickelt werden. Die bieten Möglichkeiten zur Kostensenkung und Vereinfachung der Zustellung. Wir erwarten, dass 2025 rund 80 Prozent der Pakete automatisiert ausgeliefert werden können.“

Paketdrohnen, wie sie Amazon 2013 erstmals vorstellte, wurden zunächst als verrückte Idee belächelt. Heute experimentieren viele Unternehmen mit der Belieferung per Drohne. Wie auch Mercedes-Benz mit seinem „Vans & –Drones“-Konzept, bei dem das Paket nicht direkt per Drohne zum Endkunden, sondern zu einem Verteilfahrzeug geliefert wird. Im Sommer 2017 führte das Unternehmen in Zürich zum ersten Mal autonome Drohneneinsätze in einem urbanen Umfeld durch. Im Zuge des Pilotprojekts konnten Kunden beim Online-Marktplatz siroop ausgewählte Produkte bestellen. Diese waren maximal zwei Kilogramm schwer und für den Transport per Drohne geeignet. Zur Produktpalette gehörten zum Beispiel Kaffee oder Elektronikartikel. Die Kunden erhielten die Waren noch am selben Tag. Der Händler bestückte die Drohnen direkt nach Eingang der Bestellung in den eigenen Räumlichkeiten. Sie flogen daraufhin zu einem von zwei im Projekt genutzten Mercedes-Transportern mit integrierter Drohnen-Landeplattform. Die Vans hielten an einem von insgesamt vier fest definierten sogenannten „Rendez-Vous-Punkten“ im Züricher Stadtgebiet. Dort übernahm der Paketzusteller die Produkte und lieferte sie an die Endkunden aus, während die Drohne zum Händler zurückkehrte. Insgesamt konnten rund 100 Flüge ohne jegliche Zwischenfälle über dem Stadtgebiet durchgeführt werden. „Wir glauben, dass drohnengestützte Logistik-Netzwerke die Art, wie wir tagtäglich auf Produkte zugreifen, grundlegend verändern werden“, so Andreas Raptopoulos, Gründer und CEO von Matternet, dem Hersteller der im Test verwendeten Drohnen.

Hindernissen sicher ausweichen dank Künstlicher Intelligenz

Eine Voraussetzung für derartige Anwendungen sind Drohnen, die sicher zwischen Gebäuden oder im dichten Straßennetz fliegen können, wo Radfahrer und Fußgänger plötzlich ihren Weg kreuzen. Forscher der Universität Zürich und des Forschungszentrums NCCR Robotics haben dazu eine intelligente Lösung entwickelt. Anstatt sich auf komplexe Sensorsysteme zu verlassen, nutzt die Drohne der Schweizer Forscher eine normale Kamera wie die eines Smartphones und den leistungsstarken KI-Algorithmus Dronet. „Dronet erkennt statische sowie dynamische Hindernisse und reduziert das Tempo, um Zusammenstöße zu vermeiden. Mit diesem Algorithmus sind wir dem Ziel einen Schritt nähergekommen, selbstständig navigierende Drohnen in unseren Alltag zu integrieren“, erklärt Davide Scaramuzza, Professor für Robotik und Wahrnehmung der Universität Zürich. Der Algorithmus erzeugt für jedes Eingangsbild zwei Outputs: einen für die Navigation, um Hindernisse zu umfliegen, und einen für die Kollisionswahrscheinlichkeit, um gefährliche Situationen zu erkennen und darauf reagieren zu können. Um ausreichend Daten für das Training des Algorithmus zu erfassen, wurden Informationen zu Fahrten von Autos und Fahrrädern gesammelt, die in städtische Umgebungen navigierten und die Verkehrsregeln respektierten. Durch Imitieren hat die Drohne automatisch gelernt, diese Regeln einzuhalten, wie zum Beispiel „Wie folge ich der Straße, ohne in den Gegenverkehr zu geraten“ oder „Wie halte ich an, wenn Hindernisse wie Fußgänger, Baustellen oder andere Fahrzeuge meinen Weg blockieren“. So trainiert, kann die Drohne nicht nur durch Straßen navigieren, sondern findet sich auch in komplett anderen Umgebungen zurecht, für die sie nie trainiert wurde – so etwa in Gebäuden wie Parkhäusern oder Bürofluren.

KI gesteuerte Drohnen bestehen im Wettbewerb

Wie leistungsfähig von KI gesteuerte Drohnen schon heute sind, zeigte ein Wettrennen, das das Jet Propulsion Laboratory (JPL) der NASA veranstaltete. Dabei trat der Welt–klasse--Drohnenpilot Ken Loo gegen eine Künstliche Intelligenz an. „Wir haben unsere Algorithmen gegen einen Menschen eingesetzt, der viel mehr nach Gefühl fliegt“, sagte Rob Reid von JPL, der Task-Manager des Projekts. Im Vergleich zu Loo flogen die Drohnen vorsichtiger, aber konsequenter. Die Drohnen brauchten rund drei Sekunden länger für den -Parcours, hielten aber bei einer Geschwindigkeit von bis zu -64 Kilometern pro Stunde ihre Rundenzeiten konstant, während der menschliche Pilot stark variierte und schon nach wenigen Runden erschöpft war.

(Bildnachweis: Daimler AG)

Neuronale Netze simulieren das Gehirn

Mit verschiedenen Ansätzen der Datenauswertung sollen Maschinen intelligent werden. Im ­Fokus steht dabei nicht nur die Leistungsfähigkeit, ­sondern immer mehr auch eine Flexibilität, wie sie das menschliche Gehirn bietet. Künstliche neuronale Netze spielen dabei eine große Rolle.

Künstliche Intelligenz ist nicht gleich Künstliche Intelligenz – denn es existieren verschiedene Ansätze, wie die Systeme ihr Wissen abbilden: Unterschieden wird vor allem zwischen den beiden methodischen Ansätzen der neuronalen Netze und der symbolverarbeitenden Künstlichen Intelligenz.

Wissen wird durch Symbole repräsentiert

Klassische KI beschäftigt sich vor allem damit, eine Aufgabe logisch zu analysieren und zu planen. Diese symbolische, auch regelbasierte KI ist die ursprüngliche, bereits in den 1950er Jahren entwickelte Herangehensweise. Dabei wird versucht, menschliche Intelligenz durch die Verarbeitung abstrakter Symbole und mit Hilfe formaler Logik nachzubilden. Das bedeutet, dass Fakten, Ereignisse oder Aktionen durch konkrete und eindeutige Symbole repräsentiert werden. Auf Basis dieser Symbole lassen sich dann mathematische Operationen definieren wie zum Beispiel das unter Programmierern bekannte Paradigma „wenn X, dann Y, sonst Z“. Das Wissen, also die Summe an Symbolen, ist in großen Datenbanken hinterlegt, mit denen sie ihre Inputs abgleichen. Diese Datenbanken müssen vorab von Menschen „gefüttert“ werden. Klassische Anwendungen der symbolischen KI sind zum Beispiel Textverarbeitung und Spracherkennung. Das wohl berühmteste Beispiel für symbolische KI ist DeepBlue: Der von IBM entwickelte Schachcomputer schlug 1997 mit Hilfe symbolischer KI den damaligen Schachweltmeister Garri Kasparow.

Die symbolische KI kann mit steigender Computer-Rechenleistung immer komplexere Probleme lösen. Allerdings arbeitet sie nach festen Regeln – soll sich eine Maschine außerhalb eines eng eingegrenzten Bereichs zurechtfinden, muss sie eine deutlich flexiblere KI haben, die auch mit Unsicherheiten und neuen Erfahrungen zurechtkommt.

Das Wissen über Neuronen selbstständig erweitern

Diese Flexibilität bieten künstliche neuronale Netze, die derzeit im Fokus der Forschung stehen. Mit ihnen wird die Funktionsweise des menschlichen Gehirns nachgebildet: Wie in der Natur bestehen künstliche neuronale Netze aus Knotenpunkten, die Neuronen oder auch Units genannt werden. Sie nehmen Informationen aus der Umwelt oder von anderen Neuronen auf und leiten sie in modifizierter Form an andere Units oder an die Umwelt (als Ergebnis) weiter. Dabei wird zwischen drei verschiedenen Arten von Units unterschieden:

Input-Units nehmen von der Außenwelt verschiedene Informationen auf. Das können zum Beispiel Messdaten oder Bildinformationen sein. Die Auswertung dieser Daten, zum Beispiel dem Foto eines Tieres, erfolgt über mehrere Schichten von Hidden-Units. Am Ende des Prozesses geben Output-Units das Ergebnis an die Außenwelt: „Das Foto zeigt einen Hund.“ Die Auswertung erfolgt über die Kanten, über die die einzelnen Neuronen miteinander verbunden sind. Die Stärke der Verbindung zwischen zwei Neuronen wird durch ein Gewicht ausgedrückt. Je größer das Gewicht ist, desto größer ist der Einfluss einer Unit auf eine andere Unit. Das Wissen eines neuronalen Netzes ist also in seinen Gewichten gespeichert. Lernen erfolgt in der Regel über eine Veränderung des Gewichts, wie bzw. wann sich ein Gewicht verändert, ist in Lernregeln definiert. Bevor ein neuronales Netzwerk in der Praxis eingesetzt werden kann, muss es also zunächst mit diesen Lernregeln trainiert werden. Anschließend können neuronale Netze dann mit ihrem Lernalgorithmus selbstständig dazulernen und eigenständig wachsen – das macht neuronale Künstliche Intelligenzen zu sehr dynamischen, anpassungsfähigen Systemen, die auch Herausforderungen meistern, bei denen die symbolische KI versagt.

Kognitive Prozesse als Basis einer neuen KI

Eine weitere neue Form der Künstlichen Intelligenz haben Informatiker der Universität Tübingen entwickelt: Ihr Computerprogramm „Brain Control“ simuliert sowohl eine 2D-Welt als auch darin eigenständig handelnde, kooperierende und lernende virtuelle Figuren – oder Agenten. Die Simulation zielt darauf ab, moderne Theorien der Kognitionswissenschaft in ein Modell zu überführen und neue Varianten Künstlicher Intelligenz zu erforschen. Brain Control verzichtet bisher auf den Einsatz neuronaler Netze, folgt aber auch nicht dem klassischen KI-Paradigma. Die theoretische Kernidee hinter dem Programm entstammt einer kognitionspsychologischen Theorie, nach der kognitive Prozesse im Wesentlichen prognostizierbar agieren und auf sogenannten „Events“ basiert sind. Solche Events, beispielsweise eine bestimmte Bewegung, wie das Greifen nach einem Stift, und die Verkettung von Events, wie das Zusammenpacken, wenn man Feierabend hat, bilden demnach den Grundstock der Kognition, mittels dem zielorientiert Interaktionen und Interaktionsketten mit der Welt ausgewählt und kontrolliert werden. Diese Hypothese wird von Brain Control gespiegelt: Die Figuren planen und entscheiden, indem sie Events und ihre Verkettung simulieren und damit relativ komplexe Handlungsfolgen ausführen können. So können die virtuellen Figuren sogar kooperativ handeln. Zuerst bringt eine Figur eine andere auf eine Plattform, damit diese dort den Weg freimachen kann, woraufhin beide vorankommen. Die Modellierung kognitiver Systeme wie in Brain Control ist allerdings noch immer ein ambitioniertes Vorhaben, soll aber langfristig zu besserer Künstlicher Intelligenz führen.

Autonome Züge im Fernverkehr

Die wachsenden Metropolen der Welt erfordern eine neue ­verkehrstechnische Vernetzung. Autonome Züge und völlig neue Zugkonzepte werden den Personen- und ­Güterverkehr zwischen den Städten revolutionieren.

Sechs Uhr abends in Berlin. Ein Besuch des neuen Restaurants in Hamburg wäre schön. Also schnell über das Smartphone ein autonomes Taxi von Uber rufen. Es kommt pünktlich zum Büro, fährt weiter zum Arbeitsplatz der Ehefrau und bringt seine Passagiere zum Hyperloop-Portal am Hauptbahnhof. Das autonome Taxi hat selbstständig die Vakuumbahn informiert. So kann das Taxi direkt in die bereitstehende Hyperloop-Kapsel hineinfahren. Die Bahn beschleunigt stetig, bis sie die Geschwindigkeit eines Düsenjets erreicht – nach 20 Minuten ist man bereits in Hamburg angekommen. Das Uber-Taxi fährt direkt aus der Hyperloop-Bahn zum Restaurant … So sieht die Vision von Doug Chey, Systementwickler bei Hyperloop One, aus. „Das ist eine direkte, autonome, ultraschnelle Intercity-Verbindung und die Türen öffnen sich nur zweimal, einmal um dich einsteigen zu lassen und einmal zum Aussteigen“, so schreibt er im Blog von Hyperloop One. Er gibt aber zu, dass das eine Vision von einer fernen Zukunft ist: „Wir müssen offensichtlich noch Tonnen von Engineering-Arbeit leisten.“ Die ursprüngliche Vision zu diesen Zügen in Vakuumröhren hatte Elon Musk, der mit seinem Unternehmen Tesla erfolgreich Elektroautos baut und mit SpaceX Raumflüge realisiert. Hyperloop One ist eines der Unternehmen, die an der Umsetzung der Idee arbeiten und auch schon erste Fahrtests mit den Wagen durchgeführt hat – allerdings erstmal nur mit einer Geschwindigkeit von knapp über 100 Kilometern pro Stunde.

Fahrerlos ist nicht gleich autonom

Die Metropolen werden also erstmal weiterhin mit „klassischen“ Zügen untereinander verbunden bleiben. Aber auch hier gibt es eine Entwicklung hin zu immer mehr Automatisierung – so heißt es in Zukunft nicht mehr nur „Die Türen schließen selbsttätig“, sondern der komplette Zug wird selbsttätig fahren.

Fahrerlose Züge sind schon seit einigen Jahren in Städten wie Nürnberg, Singapur oder Paris im Einsatz. Aber eben bisher nur im Nahverkehr. Und sie sind nicht wirklich autonom, denn die Intelligenz für das Fahren steckt in der Infrastruktur, nicht oder nur wenig im Bahnfahrzeug selbst. Die bisherigen Züge haben also keine eigenen Sensoren zur Überwachung der vor ihnen liegenden Strecke. Sie werden zudem von einem entfernt liegenden Kontrollraum über ein Computersystem gesteuert – die Züge selbst treffen also nicht eigenständig Entscheidungen.

Doch das wird sich in absehbarer Zeit ändern: Denn die Vorteile sind groß. Autonome Züge können – mit geringerem Abstand und höherer Geschwindigkeit fahren. Bahn-Manager können so mehr Züge auf einer vorhandenen Strecke einsetzen, statt teure neue Gleistrassen bauen zu müssen.

So will zum Beispiel auch der französische Bahnbetreiber SNCF seinen Hochgeschwindigkeitszug TGV ab 2023 autonom fahren lassen. Mit eigenen Sensoren soll der Zug, der ab 2019 getestet wird, Hindernisse erkennen und selbstständig Bremsungen einleiten. Allerdings sollen auch weiterhin Lokomotivführer an Bord autonomer Züge sein, aber nur in Notfällen eingreifen. Der Bahnbetreiber erwartet, mit einem autonomen TGV die Geschwindigkeit und Frequenz der Bahnverbindungen zu steigern – bis zu 25 Prozent mehr Hochgeschwindigkeitszüge sollen so etwa auf der Strecke Paris–Lyon fahren können.

Auch die Deutsche Bahn will bis spätestens 2023 auf einigen ausgewählten Strecken autonome Fernverkehrszüge einsetzen. In 2017 startete das Unternehmen im Erzgebirge ein entsprechendes Pilotprojekt: Auf der 25 Kilometer langen Teststrecke bewegt sich ein umgebauter Dieseltriebwagen „automatisiert“. Dazu muss das Fahrzeug lernen, Hindernisse und optische Signale auf der Strecke zu erkennen. „Der Triebwagen wird so intelligent sein, dass er mit den bestehenden Infrastrukturanlagen zurechtkommt“, erklärt der Projektkoordinator Michael T. Hoffmann. Ähnlich wie bei selbstfahrenden Autos kommen verschiedene Sensorsysteme zum Einsatz, wie Kameras, Radar und Lidar zur optischen Abstands- und Geschwindigkeitsmessung. Allerdings entscheidet das Fahrzeug nicht selbst, sondern „die Steuerung kommt weiterhin aus einer Zentrale“, wie Hoffmann erklärt.

Intelligente Einzelwagen im Güterverkehr

Doch nicht nur komplette Züge sollen autonome Fähigkeiten erhalten. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) hat jetzt mit dem NGT Cargo ein Konzept für Güterzüge der Zukunft vorgestellt, bei dem jeder einzelne Wagen autonome Fähigkeiten hat. „Ganzzüge, die nicht rangiert werden und mit ganz vielen Wagen eine große einheitliche Frachtmenge von Punkt A nach Punkt B bringen, beherrschen aktuell den Güterverkehr“, so DLR-Forscher Dr. Joachim Winter, der das Projekt Next Generation Train (NGT) leitet. Die Zusammenstellung dieser Züge ist aber sehr zeit- und ressourcenintensiv. Die automatisch fahrenden NGT-Cargo-Züge sollen dagegen je nach Bedarf aus Einzelwagen und leistungsstarken Triebköpfen zusammengestellt und automatisch gekuppelt werden. Die intelligenten Güterwagen im NGT-Cargo-Konzept verfügen über einen eigenen Antrieb, der auf Elektromotoren basiert, und über eine Batterie, welche die beim Bremsen zurückgewonnene Energie speichert. Dadurch können die Einzelwagen selbstständig rangieren und dank ihrer Sensoren sogar autonom die letzten Kilometer zum jeweiligen Kunden fahren.

Energieversorgung für ­die Künstliche Intelligenz

Voraussetzung für eine intelligente, vernetzte Welt sind energieeffiziente Rechenzentren.

Die Erfindung der Computer – fähig, Informationen zu speichern und wiederzugeben – änderte die Welt. Bis vor kurzem jedoch waren sie nicht in der Lage, nach dem Vorbild des menschlichen Gehirns autonom zu lernen, um auf Grundlage dieses Wissens Aufgaben zu übernehmen oder Entscheidungen zu treffen.

Um es der Verarbeitungsleistung des menschlichen Gehirns gleichzutun, muss ein KI-System etwa 40.000 Billionen Rechenoperationen pro Sekunde ausführen (d. h. 40 PetaFLOPS). Eine typische Serverfarm, die in der Lage wäre, Rechen-Power für KI in dieser Größenordnung zu liefern, hätte einen Stromverbrauch von knapp 6 MW. Das menschliche Gehirn hingegen hätte zur Durchführung derselben Aufgaben im Vergleich nur einen Kalorienbedarf von 20 Watt. Einige der fortschrittlichsten KI-Lernsysteme haben aktuell einen Strombedarf von bis zu 15 Mega­­watt –­­ ausreichend, um ein europäisches Städtchen mit etwa 1.500 Haushalten einen Tag lang mit Strom zu versorgen.

Die neuronalen Netze der KI lernen durch Differenzierungsprozesse ähnlich wie der Mensch. Üblicherweise werden über Grafikprozessoren (GPU) Tausende Bilder verarbeitet – und zwar parallel, damit das Netz so schnell wie möglich Vergleiche ziehen und lernen kann.

Die KI-Leistung ist im Übrigen von sogenannten Edge ­Devices abhängig – Kameras, Sensoren, Datenerfassungsgeräten und Aktuatoren. Darüber erhält das System Input und führt Bewegungen oder Aktionen in der realen Welt aus. Trends in den Bereichen Konsumgüter und industrielle Fertigung, wie das Internet der Dinge (IoT), haben zu einer raschen Ausbreitung KI-fähiger Geräte in Privathaushalten und Fabrikhallen geführt: Zwangsläufig erhöhen sich dadurch die Datenmengen und der Energieverbrauch.

Die Stromversorgung und das Management der Stromnachfrage im Megawatt-Bereich stehen unter einem ständigen Druck steigender Energiepreise. Jedes zusätzliche Watt an Energie macht mehr Kühlung erforderlich, was die Energiekosten weiter steigen lässt.

Verkleinerung ist das Schlüsselwort für eine verbesserte Verarbeitungsleistung: Aber kleinere Größen mit höherer Leistungsdichte verringern auch die Oberfläche für die Wärmeabfuhr. Das Wärmemanagement gehört somit zu den zentralen Herausforderungen bei der Frage, wie die neue Generation von KI-Supercomputern mit Energie versorgt werden soll.

Verringerung der CO2-Emissionen

Schätzungen zufolge wird es bis 2020 über 50 Milliarden cloudgestützte Sensoren und IoT-Geräte geben. Die Auswirkung, welche diese Geräte und die Datenzentren, die die AI mit Strom versorgen, in Kombination auf den globalen Stromverbrauch und die globale Erwärmung haben werden, unterstreicht die Notwendigkeit des gemeinsamen Vorgehens, um die Stromversorgung von Server-Racks, ­edge Geräten und IoT-Geräten energieeffizienter zu machen.

Neben Investitionen in erneuerbare Energien und dem Bemühen, nicht länger auf Benzin- und Diesel-Fahrzeuge­ zu setzen, wird in Europa ein deutlicher Fokus auf der Energieeffizienz liegen müssen, um den CO²-Ausstoß zu reduzieren. 2008 implementierte die Europäische Kommission den Verhaltenskodex für mehr Energieeffizienz in Rechenzentren in Form einer freiwilligen Initiative, die allen Stakeholdern bei der Verbesserung der Energie-Effizienz helfen soll. Dennoch steuern die Rechenzentren allein in Europa weiter auf einen Verbrauch von 104 TWh bis 2020 zu – fast das Doppelte der 56 TWh des Jahres 2007.

Laut einer Studie aus dem Jahr 2017 über den Energieverbrauch von Rechenzentren generiert der Sektor der Informations- und Kommunikationstechnologie (IKT) bis zu 2 Prozent der gesamten CO²-Emission weltweit – ein Wert, der gleichauf mit den globalen Emissionen der Luftfahrt ist. Rechenzentren machen 14 Prozent dieses IKT-CO²-Fuß­abdrucks aus.

In einem anderen Bericht wird jedoch ausgeführt, dass IKT-gestützte Lösungen, zum Beispiel energieeffiziente Technologien, den CO²-Gesamtausstoß der EU bis 2030 um mehr als 1,5 Gigatonnen (Gt) CO²e (Kohlendioxid-Äquivalent) verringern könnten. Das wäre eine gewaltige Einsparung in Höhe von nahezu 37 Prozent der gesamten CO²-Emissionen der EU im Jahr 2012.

Analoge vs. digitale Steuerungstechnik

Zweifellos wird KI die menschliche Gesellschaft zukünftig ganz entscheidend prägen. Die repetitiven Algorithmen Künstlicher Intelligenz werden jedoch signifikante Änderungen in IT-Architekturen und den Prozessoren selbst erfordern. Folglich wird die Stromversorgung dieser KI-Systeme dauerhaft eine Herausforderung bleiben.Ausgeklügeltere Lösungen müssen her: Es gibt inzwischen Power-Management-Produkte mit hochentwickelter digitaler Steuerungstechnik, die an die Stelle herkömmlicher, analog aufgebauter Lösungen treten.

Es hat sich gezeigt, dass eine digitale Steuerung die Flexibilität und Adaptivität von Systemen im High-End-Bereich der Energieversorgung insgesamt erhöht. Beim digitalen Ansatz lässt sich Steuerungstechnik ohne teure und zeitaufwändige Veränderungen auf Hardware-Ebene individuell anpassen. Dies vereinfacht das Designen und die Umsetzung skalierbarer Energielösungen, die Voraussetzung für KI sind. Sogar mit ihrer umfassenden Funktionalität und der passgenau bereitgestellten Energieleistung sind digitale Lösungen inzwischen im Vergleich zu den analogen Lösungen, die sie ersetzen, preislich wettbewerbsfähig.

Die Lösungen für die Energieversorgung der KI-Anwendungen der Zukunft so effizient wie möglich zu gestalten, ist ein relativ einfacher und gangbarer Weg, wie der IKT-Sektor zur Verringerung der globalen CO²-Emissionen beitragen kann.

Clayton Cornell, Technical Editor, Infineon Technologies AG

Bessere Spracherkennung dank Deep Learning

Digitale Assistenten erkennen dank Deep Learning Sprache immer besser. Mit ihrer Künstlichen Intelligenz können sie sogar die Wünsche ihrer ­Nutzer vorhersehen.

„Tee, Earl Grey, heiß“ – jeder Star-Trek-Fan kennt die Worte, mit denen Captain Picard sein Lieblingsgetränk beim Replikator bestellt. Die Steuerung von Computern und Raumschiffen über die Sprache ist fester Bestandteil der meisten Science-Fiction-Filme. Schon seit vielen Jahren wird versucht, Maschinen über die Sprache zu steuern: Die erste Spracherkennungssoftware für Computer generell hatte IBM im Jahr 1984 der Öffentlichkeit präsentiert. Rund zehn Jahre später wurde sie für den PC und damit für den Massenmarkt konzipiert. Microsoft setzte Spracherkennung in einem Betriebssystem erstmals 2007 ein – bei Windows Vista.

Für den Durchbruch auf dem Massenmarkt sorgte Apple im Jahr 2011. Damals stellte das Unternehmen die Spracherkennungssoftware Siri für das iPhone 4s vor. Inzwischen teilt sich Siri mit verschiedenen ähnlichen Lösungen den Markt: Amazons Alexa, Cortana von Microsoft oder Googles Assistant. Allen Systemen gemein ist, dass die Verarbeitung der Spracheingabe nicht auf dem mobilen Gerät vor Ort erfolgt, sondern auf Servern der Unternehmen: Die Sprachmitteilung wird an ein Rechenzentrum geschickt und dort von gesprochener in geschriebene Sprache umgewandelt. Damit kann das eigentliche Assistenz-System Kommandos und Fragen erkennen und entsprechend reagieren. Eine Antwort wird generiert und an das mobile Gerät vor Ort zurückgeschickt – mal als Datensatz, mal als fertiges Soundfile. Allerdings werden dafür schnelle mobile Internetverbindungen gebraucht. Die Spracherkennung profitiert also vom Trend zum Cloud Computing und schnelleren mobilen Internetverbindungen.

Die Fehlerrate von Spracherkennungssystemen ist signifikant gesunken von 27% in 1997 auf gerade einmal 6% in 2016!

Qualität der Spracherkennung steigt dank Deep Learning und Künstlicher Intelligenz

Vor allem aber profitieren Spracherkennungssysteme in letzter Zeit von Künstlicher Intelligenz. Selbstlernende Algorithmen sorgen dafür, dass Maschinen Sprache immer besser verstehen: Die Fehlerrate bei computergestützter Spracherkennung sank laut einer McKinsey-Studie aus dem Jahr 2017 von 27 Prozent im Jahr 1997 auf sechs Prozent in 2016. Dank Deep Learning können die Systeme Stimmmuster, Dialekte und Akzente des Anwenders immer besser erkennen und lernen.

Auch Nuance – das Unternehmen steckt übrigens hinter der Spracherkennung von Apples Siri – konnte die Genauigkeit seiner in 2017 herausgebrachten Dragon-Spracherkennung um bis zu zehn Prozent im Vergleich mit der Vorgängerversion verbessern. Dazu verwendet die Software durchgängig Deep Learning und neuronale Netzwerke: Zum einen auf der Ebene des Sprachmodells, wo die Häufigkeit von Wörtern und ihrer typischen Kombinationen erfasst werden. Zum anderen auch auf der Ebene des akustischen Modells, in der die Phoneme oder kleinsten gesprochenen Einheiten einer Sprache modelliert werden. „Normalerweise benötigen Deep-Learning-Verfahren Zugang zu umfangreichen Daten und eine aufwändige Hardware im Rechenzentrum, um die neuronalen Netze zu trainieren“, erläutert Nils Lenke, Senior Director Corporate Research bei Nuance Communications. „Wir bei Nuance haben es jedoch geschafft, dieses Training direkt auf den Mac zu bringen. Dragon verwendet die spezifischen Sprachdaten des Anwenders und lernt dadurch fortlaufend hinzu. So können wir die Präzision erheblich steigern.“

Vorausschauende Assistenten

Doch KI verbessert nicht nur die Spracherkennung, sondern auch die Qualität der Dienste von digitalen Assistenten wie Alexa, Siri und Co. Denn durch ihre Lernfähigkeit können die Systeme Themen vorausschauend behandeln und Empfehlungen aussprechen. Microsofts Cortana hat dazu – wie ein menschlicher Assistent – zum Beispiel ein Notizbuch. Darin merkt sie sich die Interessen und Präferenzen des Nutzers, oft besuchte Orte oder Ruhezeiten, in denen der Nutzer nicht gestört werden mag. Wenn der Nutzer zum Beispiel täglich vor dem Aufbruch zur Arbeit nach Wetter und Verkehrsbedingungen fragt, kann das System die Informationen nach einigen Wiederholungen selbständig anbieten, der Nutzer muss nicht mehr aktiv werden.

IoT-Geräte per Sprache steuern

Spannend werden die digitalen Assistenten vor allem dann, wenn sie mit dem Internet der Dinge vernetzt werden. Denn so lassen sich die unterschiedlichsten elektronischen Geräte mit ihnen steuern. Mehr als fünf Milliarden Geräte aus dem Consumer-Bereich sollen in 2018 bereits digitale Assistenten unterstützen, so die Marktforscher von IHS Markit. Bis 2021 sollen weitere drei Milliarden Geräte hinzukommen. So lässt sich zum Beispiel bereits heute das Smart Home über digitale Assistenten per Sprache steuern.

Seit Anfang 2017 integriert auch Ford in den USA den Sprachassistenten Alexa in seine Fahrzeuge – damit zog erstmals überhaupt die Amazon-App ins Auto ein. Die Fahrer können so am Steuer Hörbücher genießen, im Amazon-Universum einkaufen, lokale Ziele suchen, diese direkt ins Navigations-System übertragen und vieles mehr. „Ford und Amazon teilen die Vision, dass jeder Mensch seine bevorzugten Mobilgeräte und Services mit seiner eigenen Stimme aufrufen und bedienen können sollte“, erklärt Don Butler, Leitender Direktor Ford Connected Vehicle and Services. „In Kürze können unsere Kunden ihre Autos von zuhause aus starten und ihre vernetzten Wohnungen von unterwegs bedienen – so erleichtern wir Schritt für Schritt ihr Leben.“

Doch auch die Star-Trek-Fans können sich freuen: Dank Alexa kann man sich heute auch sein Heißgetränk per Sprachbefehl bestellen. Der Kaffeeröster Tchibo hat zum Beispiel die Qbo-Kapselmaschine auf den Markt gebracht, die über WLAN mit Alexa verbunden werden kann. Dann kann man schon im Bett seinen Frühstücks-Kaffee bestellen: „Kaffee, aber pronto!“

Autonome Schiffe stechen bald in See

Der Mangel an qualifiziertem Personal, eine höhere Wirtschaftlichkeit und mehr Sicherheit sind die Gründe, auch bei der Seefahrt auf Auto­matisierung zu setzen. In 2018 sollen die ersten Schiffe mit autonomen Funktionen vom Stapel laufen.

Es ist keine Frage, ob es autonome Schiffe geben wird, sondern nur noch, wann. Dessen ist sich Oskar Levander, Vize-Präsident für Innovation in Marine-Anwendungen bei Rolls-Royce, sicher: „Die Technologien, um ferngesteuerte und autonome Schiffe Realität werden zu lassen, existieren längst. Wir werden ein ferngesteuertes Schiff im kommerziellen Einsatz bereits zum Ende dieser Dekade sehen.“ Das Unternehmen hat dazu unter anderem die Advanced Autonomous Waterborne Applications Initiative (AAWA) initiiert, an der mehrere finnische Universitäten, Unternehmen aus der Schifffahrtsbranche sowie die Klassifikationsgesellschaft DNV GL beteiligt waren – das Projekt endete im Juni 2017. Ziel der Initiative war es, die Technologien für ferngesteuerte und autonome Schiffe zu entwickeln.

Weltweit existieren ähnliche Projekte, wobei in der Regel kein vollständig autonomer Betrieb vorgesehen ist: Spätestens im Hafen beim An- und Ablegen soll der Mensch die Kontrolle wieder übernehmen. Er sitzt dabei allerdings nicht mehr auf der Brücke des Schiffes, sondern in einem Kontrollzentrum an Land. Von dort aus soll er in Zukunft auch die Schiffe im autonomen Betrieb, zum Beispiel wenn sie auf offener See sind, überwachen.

„Die Vorteile unbemannter Schiffe sind vielfältig, konzentrieren sich aber vornehmlich auf die Sicherung von Leben und die Reduzierung von Herstellungs- und Betriebskosten“, erklärt Brett A. Phaneuf, Geschäftsführer beim britischen Unternehmen Automated Ships. Laut einer Untersuchung der in München ansässigen Allianz-Versicherung sind zwischen 75 und 96 Prozent der Schiffsunfälle auf Fehler der Besatzung zurückzuführen, oft ein Ergebnis von Übermüdung. Ferngesteuerte oder autonome Schiffe würden dieses Risiko deutlich reduzieren. Ein weiterer Vorteil ist, dass die Schiffe mit höherer Ladekapazität und geringerem Windwiderstand konstruiert werden können. Denn ohne Besatzung sind keine Brücke, Unterkünfte oder Ventilation, Heizung oder Abwassersysteme erforderlich. Dadurch werden die Schiffe leichter und windschnittiger, der Treibstoffverbrauch wird reduziert, die Bau- und Betriebskosten sinken und es steht mehr Platz für die Ladung zur Verfügung. Zu guter Letzt machen autonome Schiffe den Beruf des „Seemanns“ wieder attraktiver: Die Seeleute sind nicht mehr wochenlang auf See, sondern arbeiten in der Kontrollstation an Land und können jeden Abend wieder zuhause sein.

Technik für autonome Schiffe ist bereits vorhanden

Einen Großteil der benötigten Technik für ein autonomes Schiff gibt es schon – auf einer modernen Schiffsbrücke ist vieles automatisiert: Der Autopilot steuert einen vorgegebenen Kurs mit Unterstützung von GPS, eine Tempoautomatik hält die Geschwindigkeit. Radargeräte und Schiffserkennungssysteme suchen die Umgebung ab und schlagen bei Gefahr automatisch Alarm. Zusätzlich soll ein autonomes Schiff mit weiteren Sensoren bestückt werden: Um die Fähigkeiten zur Erfassung auch kleiner Objekte wie Treibgut oder kleiner Boote zu ermöglichen, werden zum Beispiel im Autosea-Projekt zusätzlich zum normalen Radar Sensortypen integriert, die bisher nicht im maritimen Bereich zum Einsatz kommen. Dazu gehören etwa Lidar, Infrarot- oder 3D-Kameras. Das Projekt wird von der norwegischen Universität für Wissenschaft und Technik geleitet, zu den Industriepartnern gehören unter anderem die beiden norwegischen Firmen Kongsberg Maritime und Maritime Robotics.

Über Satellit weltweit vernetzt

Eine Software wertet die Daten sämtlicher Sensoren aus und entscheidet beispielsweise darüber, ob und wie das Schiff seinen Kurs ändert, um Kollisionen zu vermeiden. Via Satellit soll ein Mensch das Geschehen überwachen und, wenn nötig, eingreifen. Das erfordert eine konstante Echtzeit-Verbindung mit hohen Datenübertragungsraten. Dazu hat das britische Unternehmen Inmarsat, ebenfalls Partner des AAWA-Projekts, inzwischen vier Global-Xpress-Satelliten stationiert. Sie ermöglichen über das Ka-Band eine weltweit verfügbare High-Speed-Breitband-Verbindung. Darüber können nicht nur die Betriebsdaten zur Kontrollstation übertragen werden, sondern autonome Schiffe können für ihre Entscheidungen auch auf Wetterberichte oder Informationen von anderen Schiffen zurückgreifen.

Entwicklungsstufen autonomer Schiffe

2020

Reduzierte Mannschaft, einige Funktionen werden ferngesteuert durchgeführt

2025

Ferngesteuerte unbemannte Küstenfrachter

2035

Autonome hochsee-tüchtige Schiffe

Erste Schiffe ab 2018

Inzwischen werden die Pläne für unbemannte Hochsee-Schiffe zunehmend konkret: So ist bereits die „Hrönn“ in Bau, ein Gemeinschaftsprojekt von Automated Ships und Kongsberg Maritime, der Stapellauf soll in 2018 erfolgen. Die „Hrönn“ ist als leichtes Versorgungsschiff für Offshore–Windkraftanlagen oder Fischfarmen konzipiert. Das Schiff wird anfangs als ferngesteuertes Schiff betrieben. Dabei sollen aber die Steueralgorithmen parallel im Einsatz weiterentwickelt werden, so dass es später vollautomatisch und sogar autonom betrieben werden kann. Kongsberg ist auch an einem weiteren Projekt beteiligt: der „Yara Birkeland“, dem ersten elektrisch angetriebenen und autonomen Containerschiff der Welt. Das Schiff soll ab 2018 fahren, zunächst noch mit Mannschaft, ab 2019 dann ferngesteuert und voraussichtlich ab 2020 autonom. „Autonome Schiffe sind die Zukunft der Schiffsindustrie. Genauso bahnbrechend wie das Smartphone, wird das smarte Schiff die Welt der Konstruktion und den Betrieb von Schiffen revolutionieren“, ist sich Mikael Makinen, Präsident von Rolls-Royce Marine sicher.

(Bildnachweis: Rolls Royce Plc)

Deep Learning in Künstlicher Intelligenz

Maschinelles Lernen und insbesondere Deep Learning sind zentrale­ Kompetenzen von Künstlicher Intelligenz. Selbstlernende Programme werden heute in immer mehr Produkten und Lösungen eingesetzt. Algorithmen des maschinellen Lernens finden sich bei der Spracherkennung auf Smartphones genauso wie im Spam-Filter der Virenprogramme. Auch personalisierte Online-Werbung funktioniert nur so gut aufgrund lernender Systeme. Dabei gibt es eine ganze Bandbreite verschiedener Konzepte, Methoden und theoretischer Ansätze. Ihnen allen gemein ist das Ziel: Der Computer oder die Maschine soll selbstständig Wissen aus Erfahrung erwerben und darauf basierend eigenständig Lösungen für neue und unbekannte Probleme finden. Damit ist das Maschinenlernen eines der zentralen Teilgebiete Künstlicher Intelligenz, ohne das andere Kernkompetenzen smarter Systeme wie Mustererkennung oder die Verarbeitung der natürlichen Sprache kaum denkbar wären. Die Technologie ist eigentlich nicht besonders neu, schon der KI-Pionier Marvin Minsky baute in den 1950er Jahren eine erste lernende Maschine. Den Durchbruch und die praktische Anwendung der entsprechenden Methoden ermöglichte jedoch erst die rasante Entwicklung der letzten Jahre im Bereich der Halbleitertechnologie. Nur mit der jetzt zur Verfügung stehenden Prozessortechnologie konnten große Datenmengen in hoher Geschwindigkeit ­parallel verarbeitet werden.

Viele Experten sehen in Deep Learning aktuell das Gebiet innerhalb der KI mit dem größten Potenzial.

Deep Learning dominiert aktuell die ­Lernverfahren

Eine Methode des maschinellen Lernens ist Deep Learning: Viele Experten sehen hier aktuell das Gebiet innerhalb der KI mit dem größten Potenzial. Deep Learning nutzt komplexe neuronale Netzwerke, um eigenständig zu lernen, wie etwas klassifiziert werden kann. Dazu nimmt das System große Mengen an bekannten Informationen – zum Beispiel Bilder oder Geräusche – in eine Datenbank auf und vergleicht sie mit unbekannten Daten.

Das Verfahren macht viele Arbeitsschritte des klassischen Maschinenlernens überflüssig. Denn der Trainingsaufwand ist deutlich geringer: Der „Trainer“ muss dem neuronalen Netzwerk nur noch Daten wie zum Beispiel Bilder präsentieren – wie die darauf zu sehenden Dinge zu klassifizieren sind, findet das System von allein heraus. Der Mensch muss einzig markieren, ob der Gegenstand, dessen Erkennung gelernt werden soll, auf dem Bild zu sehen ist (also zum Beispiel ob das Bild einen Fußgänger zeigt oder nicht). Das Deep-Learning-Programm verwendet die Informationen aus den Trainingsdaten, um typische Merkmale eines Fußgängers zu definieren und daraus ein Vorhersagemodell zu erzeugen. Dabei arbeitet sich das System von Ebene zu Ebene immer tiefer in das neuronale Netz vor – daher der Name Deep Learning. So registrieren die Knoten der ersten Ebene zum Beispiel nur Helligkeitswerte der Bildpixel. Die nächste Ebene erkennt, dass einige der Pixel Linien bilden. Die dritte unterscheidet dann zwischen horizontalen und vertikalen Linien. Dieser iterative Prozess geht so lange, bis das System Beine, Arme und Gesichter erkennt – und gelernt hat, wie ein Mensch auf dem Bild zu klassifizieren ist. Dieser Lernprozess benötigt allerdings große Rechenleistung und stellt damit hohe Anforderungen an die Prozessortechnik. Forscher und Hersteller arbeiten daher intensiv daran, spezielle KI-Chips zu entwickeln, die noch mehr Rechenprozesse in noch kürzerer Zeit durchführen können.

Erlerntes Wissen einfach weitergeben

Gleichzeitig wird überlegt, wie das Wissen, das sich ein System aufwändig angeeignet hat, auch anderen Systemen verfügbar gemacht werden kann. Denn so müsste zum Beispiel nicht jedes autonome Auto für sich allein lernen, wie ein Fußgänger aussieht, sondern könnte auf die Erfahrungen von Fahrzeugen, die schon länger auf der Straße unterwegs sind zurückgreifen. Die Khronos Gruppe, ein offenes Konsortium führender Hardware- und Software-Firmen, hat daher Ende 2017 ein Austauschformat für neuronale Netzwerke vorgestellt. Mit dem Neural Network Exchange Format 1.0 sollen Wissenschaftler und Ingenieure bereits trainierte Netzwerke von der Training-Plattform auf viele andere Systeme übertragen können – also ähnlich funktionieren wie das PDF-Format in der Textverarbeitung.

Autonome Landmaschinen

Autonome Landmaschinen werden das Bild des Ackerbaus nachhaltig verändern. Mit ihnen lassen sich Ackerflächen effizienter nutzen und gleichzeitig lässt sich die Umwelt schonen.

Die Landwirtschaft steht vor großen Herausforderungen: Um die rapide wachsende Weltbevölkerung auch in Zukunft ernähren zu können, sollen die zur Verfügung stehenden Agrarflächen effizienter genutzt werden. Gleichzeitig fehlt es den Agrarbetrieben in vielen Teilen der Welt an Personal.

Autonome Landmaschinen: Rund um die Uhr im Einsatz

Traktorhersteller arbeiten daher schon seit einigen Jahren an autonomen Landmaschinen. So stellte zum Beispiel Case IH 2016 sein ACV (Autonomous Concept Vehicle) der Öffentlichkeit vor. „Im ACV wird viel von der herkömmlichen Technologie moderner Traktoren verbaut. Mit RTK, einer ultrapräzisen GPS-Variante, erzielt man bei der Parallelsteuerung Abweichungen von weniger als 2,5 Zentimeter. Viele Landwirte nutzen diese Technik bereits, um unwirtschaftliche Überlappungen oder Fehlstellen zwischen den einzelnen Wegstrecken zu vermeiden“, so Dan Stuart von Case IH. Zusätzlich ist das ACV mit Radar, Lidar, Näherungssensoren sowie Sicherheits- und Funksystemen ausgestattet. Dadurch kann der Traktor, sobald er das Feld erreicht hat, komplett unabhängig und fahrerlos arbeiten. Derzeit ist das ACV noch ein Konzept, aber ein Testprogramm unter Realbedingungen in Zusammenarbeit mit Landwirten hat schon begonnen.

Landwirtschaft auf den Punkt

Doch in letzter Zeit mehren sich die Stimmen, die den Einsatz großer schwerer Maschinen auf dem Acker grundsätzlich negativ sehen. „Die Landwirtschaft, wie sie aktuell betrieben wird, steht in der gesellschaftlichen Kritik. Angesichts von Nitratbelastung, Artenrückgang und Bodenverdichtung müssen wir kritisch hinterfragen, wie lange das noch gut geht“, sagt zum Beispiel Dr. Jens-Karl Wegener, der am Braunschweiger Julius Kühn-Institut das Fachinstitut für Anwendungstechnik leitet. Noch größere Maschinen auf noch größeren Flächen einzusetzen scheint nicht die Lösung, sondern eher Teil des Problems zu sein. Er verfolgt einen anderen Ansatz und geht von den Bedürfnissen der Einzelpflanze aus.

„Solch ein Precision Farming, das auf die Bedürfnisse der Einzelpflanze ausgerichtet ist, hätte natürlich auch einen Einfluss darauf, wie die Flächen künftig aussehen“, sagt Projektmitarbeiterin Lisa-Marie Urso. Spot Farming nennen sie und ihre Kollegen das neue Anbausystem, das kleinräumige Unterschiede in der Landschaft berücksichtigt. „Vorteil des Spot Farmings wäre, dass auf einem großen Schlag nicht wie bisher nur eine, sondern verschiedene Fruchtfolgen gleichzeitig gefahren werden können“, so Urso weiter. Entsprechend der Bodenbeschaffenheit könnten verschiedene Kulturpflanzen (Raps, Weizen und Rüben) ausgesät und Eigenheiten der Fläche wie Senken mit Staunässe, trockene Kuppen oder andere Kleinstrukturen berücksichtigt werden. „Das würde auf jeden Fall für mehr Artenvielfalt auf dem Feld sorgen, von der Einsparung bei Düngung und Pflanzenschutz durch die Einzelpflanzenbehandlung ganz zu schweigen“, malt Wegener das Bild weiter aus. Dass dies nicht nur eine Vision ist, zeigte das Unternehmen Deepfield Robotics schon 2015: Damals präsentierte das Start-up den Bonirob, einen kleinwagengroßen Roboter, der dank video- und lidar-basierter Positionsbestimmung sowie Satellitennavigation auf den Zentimeter genau über das Feld navigiert. Er kann anhand der Blattformen Nutzpflanzen von Unkraut unterscheiden und mithilfe eines Rammstabs Unkraut – statt mit Gift – mechanisch beseitigen. Mit Blick auf die vielfältige Flora kommt der automatischen Bilderkennung des Bonirobs eine wesentliche Rolle zu. Professor Dr. Amos Albert, Leiter von Deepfield Robotics, beschreibt die Herausforderung: „In frühen Stadien ähneln sich zum Beispiel die Blätter von Möhren und Kamille sehr.“ Daher muss er dem Bonirob das Lernen und Erkennen von Blattformen lehren. Albert und sein Team nutzen dafür maschinelles Lernen. Dabei erfasst die Technik viele Bilddaten, in denen die Bosch-Forscher die Unkräuter markieren. „Der Bonirob lernt so mit der Zeit, immer besser anhand Parameter wie Blattfarbe, -form und -größe zwischen gewünschten und unerwünschten Pflanzen zu unterscheiden“, so Albert. Aber noch ist der Bonirob nicht als Serienfahrzeug auf dem Markt.

Pflanzen gezielt einzeln bekämpfen

Einen Schritt weiter ist da die Schweizer Firma Ecorobotix: Sie hat eine erste Serie ihres Jät-Roboters produziert. Diese für Testphasen bestimmten Maschinen bewähren sich zurzeit im Freiland, in der Schweiz, in Frankreich und in Belgien. Die offizielle Markteinführung ist für 2018 geplant. Der mit Sonnenenergie betriebene Roboter wiegt gerade einmal 130 Kilogramm. Er arbeitet bis zu zwölf Stunden pro Tag ohne menschliche Kontrolle und wird vollständig durch eine Smartphone-Applikation kontrolliert und konfiguriert. Der Roboter orientiert und positioniert sich mithilfe seines RTK-GPS, seiner Kamera und Sensoren. Sein System der Bilderfassung ermöglicht ihm, sich an den Pflanzenreihen auszurichten und zu erkennen, ob und wo sich Unkraut in oder zwischen den Reihen befindet. Dabei passt er seine Geschwindigkeit an die Dichte des Unkrautvorkommens an. Zwei Roboterarme sprühen eine Mikrodosis Herbizid gezielt und ausschließlich auf das entdeckte Unkraut.

(BIldnachweis: Case IH; iStockphoto: Barcin, gusach, juliedeshaies)

Künstliche Intelligenz wandert ins Smartphone und Wearable

Dank neuer Entwicklungen bei der Chip-Technologie erhalten selbst kleine Wearables wie Fitness-Armbänder eine KI on-board. Aktuelle Top-Smartphones lernen bereits mit neuronalen Netzen, den Nutzer besser zu verstehen, und liefern deutlich mehr Leistung.

Mobile Geräte wie Smartphones und Wearables gewinnen im Alltag der Menschen immer mehr an Bedeutung. „Gerade das Smartphone hat in den vergangenen zehn Jahren unser Leben tiefgreifend verändert: Es hat sich zum universellen Zugriffspunkt auf Kommunikation, Inhalte und Dienste entwickelt“, so Martin Börner, Mitglied des Präsidiums des Branchenverbandes Bitkom.

Mobile Geräte erhalten KI-Fähigkeiten

Jetzt kommen die ersten mobilen Geräte auf den Markt, die mit Künstlicher Intelligenz die erfassten Daten noch besser analysieren und dem Nutzer gezieltere Empfehlungen zur Steigerung seiner Gesundheit oder Fitness geben können. Im Trend dabei ist das Edge Computing: Hier bleiben die Daten auf dem Gerät und werden zur Analyse nicht – oder nur teilweise – an die Cloud übertragen. Das hat gleich mehrere Vorteile: Erstens wird die Belastung von Cloud-Computing-Systemen und Übertragungsmedien reduziert. Zweitens sinkt die Latenz, der Nutzer erhält die Analyse-Ergebnisse schneller. Und drittens – wichtig gerade bei medizinischen Anwendungen – bleiben personenbezogene Daten geschützt auf dem mobilen Gerät. „KI vertraute früher auf leistungsstarke Cloud-Computing-Funktionen für Datenanalyse und -algorithmen, doch mit der Weiterentwicklung von Chips und der Entwicklung von Edge-Computing-Plattformen haben Feldgeräte und Gateways grundlegende KI-Fähigkeiten erhalten, mit denen sie unter anderem bei der anfänglichen Datenprüfung sowie Analyse assistieren und sofort auf Anforderungen reagieren können“, betont Jimmy Liu, Analyst bei Trendforce.

Mehr Effizienz, Leistung, Geschwindigkeit

Auch für Huawei ist diese On-Device-KI eine Antwort auf bestehende KI-Probleme wie Latenz, Stabilität und Datenschutz. So präsentierte das Unternehmen Ende 2017 seine Smartphones Mate 10 und Mate 10 Pro, die laut Hersteller als erste in der Welt mit einem künstlich intelligenten Chipsatz mit einem fest zugeordneten neuronalen Netzwerkprozessor (NPU, Network Processing Unit) ausgestattet sind. Damit können die Smartphones die Gewohnheiten der Benutzer verstehen lernen. Die mobile KI-Rechnerplattform ermöglicht es, den effektivsten Modus des Handys zu ermitteln, die Performance zu optimieren und insgesamt größere Effizienz mit mehr Leistung bei schnelleren Geschwindigkeiten zu liefern. Vor allem aber nutzt Huawei die KI bei der Echtzeit-Szenen- und Objekterkennung, um ohne große Einstellungen durch den Nutzer ein perfektes Foto zu machen.

Gesichtserkennung auf dem Smartphone

Auch Apple hat sein neues iPhone X mit einem speziellen Chip für On-Device-KI ausgestattet: Die neurale Architektur des A11 Bionic Chips hat ein Zweikern-Design und führt bis zu 600 Milliarden Operationen pro Sekunde für Echtzeitverarbeitung aus. Diese Architektur wurde für spezielle Algorithmen des maschinellen Lernens entwickelt und ermöglicht Face ID, Animoji und andere Funktionen. Damit ist es zum Beispiel möglich, das Smartphone durch eine Gesichtserkennung zu entsperren: Die Face ID genannte Funktion projiziert mehr als 30.000 unsichtbare IR-Punkte auf das Gesicht des Nutzers. Das IR-Bild und das Punktmuster werden durch neuronale Netze geschoben, um ein mathematisches Modell des Gesichts des Anwenders zu erstellen und die Daten an die Secure Enclave zu senden, um eine Übereinstimmung zu bestätigen, während maschinelles Lernen körperliche Veränderungen des Erscheinungsbilds im Laufe der Zeit nachempfindet. Alle gespeicherten Gesichtsinformationen werden durch die Secure Enclave geschützt, um die Daten extrem sicher zu halten und die gesamte Verarbeitung erfolgt auf dem Gerät und nicht in der Cloud, um die Privatsphäre der Anwender zu wahren. Face ID entsperrt iPhone X nur dann, wenn es der Nutzer ansieht, wobei umfassend trainierte neuronale Netzwerke einer Manipulation durch Fotos oder Masken vorbeugen.

Immer der richtige Aufnahmemodus

„Der Smartphone-Markt hat sich in den letzten zehn Jahren signifikant weiterentwickelt“, betont Hwang Jeong-hwan, Präsident der LG Mobile Communications Company. „Unsere Kunden erwarten Premium-Qualität bei den vier wichtigsten Kernfunktionen eines Smartphones – bei den Audiofeatures, der Leistungsfähigkeit des Akkus, der Kameraqualität und dem Display.“ Daher hat auch LG damit begonnen, differenzierte und intuitive KI-basierte Lösungen für die am häufigsten in Smartphones verwendeten Features zu entwickeln. Erstes Ergebnis ist das Smartphone LG V30S ThinQ mit integrierter Künstlicher Intelligenz. Die KI-Kamera des Geräts analysiert Motive im Bild und empfiehlt den optimalen Aufnahmemodus – je nachdem ob es sich zum Beispiel um ein Porträt, Speisen, ein Haustier oder eine Landschaft handelt. In jedem Modus werden die speziellen Eigenschaften des Motivs verbessert – unter Berücksichtigung von Faktoren wie Betrachtungswinkel, Farbe, Reflexionen, Beleuchtung und Sättigungsgrad. Mit der Voice KI können Benutzer Anwendungen ausführen und Einstellungen allein über Sprachbefehle anpassen. In Verbindung mit Google Assistant wird so die Suche über Menüoptionen überflüssig und bestimmte Funktionen lassen sich direkt auswählen. Doch LG will nicht nur neue Smartphone-Modelle mit KI ausrüsten – abhängig von der Hardware und anderen Faktoren, sollen einige Smartphone-Modelle von LG zukünftig wichtige KI-Funktionen via Over-the-Air-Updates erhalten.

Jedes dritte Wearable mit KI

Es wird erwartet, dass KI-Wearables dem stagnierenden Wearables-Segment dringend benötigte Impulse geben werden. Nach Schätzungen der Marktanalysten von Counterpoint arbeitete in 2017 bereits jedes dritte Wearable mit KI. Parv Sharma, Research Associate: „Wearables haben bis jetzt noch nicht das erwartete Momentum gesehen, da sie noch Probleme mit einer stärkeren Mensch-Computer-Interaktion hatten. Die Integration Künstlicher Intelligenz in die Wearables wird jedoch die Art und Weise verändern, wie wir mit Wearables interagieren oder sie nutzen. KI wird nicht nur die Benutzererfahrung verbessern, und so die Verbreitung von Wearables steigern, sondern auch Wearables smarter und intelligenter machen.“ Besonderes Wachstum erwarten die Analysten im Bereich der Hearables – mit Geräten wie dem Apple Airpod oder innovativen Produkten von unbekannteren Marken wie dem Dash von Bragi.

Wearables lernen den Nutzer kennen

Aber neben dem Smartphone nutzen auch andere Wear­ables KI. Bei der Überwachung von Vital-Parametern versprechen Methoden des maschinellen Lernens viel größere prädiktive Möglichkeiten. So hat die Firma Supa smarte Kleidung mit integrierten Sensoren entwickelt. Sie erfassen eine Vielzahl biometrischer Daten im Hintergrund und liefern personalisierte Informationen über die Umgebung des Nutzers. Künstliche Intelligenz versetzt die Supa-Kleidung in die Lage, beständig mehr über den Nutzer zu lernen und so zum Beispiel das eigene Verhalten beim Sport besser zu verstehen. Laut Sabine Seymour, Gründerin und CEO von Supa, kann man mit derartigen Wearables in 20 oder 30 Jahren klären, warum der Nutzer zum Beispiel an Krebs erkrankt ist, ob es an genetischer Veranlagung, Umwelt oder Ernährung liegt.

Auch PIQ hat seinen Sport-Assistenten Gaia mit einer Künstlichen Intelligenz kombiniert. Damit können Bewegungen über spezifische Motion-Capture-Algorithmen intelligent erfasst und ausgewertet werden. Dank KI lernt Gaia die Bewegungen des Nutzers immer besser zu erkennen und kann individuell zugeschnittene Hinweise zur Optimierungen des Trainings geben.

Mehr Sicherheit im Busverkehr

Intelligente Wearables helfen aber nicht nur beim sportlichen Training, sondern auch bei ernsthafteren Applikationen. So testet NEC zum Beispiel zusammen mit Odakyu City Bus ein Wearable, das die biologischen Informationen von Fahrern sammelt. Das Ziel ist, die Sicherheit im Busbetrieb zu verbessern. Bei dem Pilotprojekt misst ein Armband Vitaldaten wie Puls, Temperatur, Feuchtigkeit und Körper­bewegungen während des Fahrens. Die Daten werden dann über ein Smartphone zur Analyse an eine IoT-Plattform gesendet, die auf den neuesten Technologien der Künstlichen Intelligenz von NEC basiert. So soll eine breite Palette von Gesundheitsfaktoren visualisiert, überwacht und bewertet werden – wie etwa der Ermüdungsgrad des Fahrers oder Veränderungen seiner physischen Konditionen, die er eventuell nicht selbstständig erkennen kann.

Eine weitere spannende Lösung hat Ayata Intelligence entwickelt: Die smarte Brille Vishruti hilft Menschen mit einer Sehbehinderung, sich in ihrer Umgebung zurechtzufinden. Dafür ist sie mit einer Kamera und einem speziellen, energieeffizienten Chip zur Bilderkennung und für Deep-­Learning-Prozesse ausgestattet. Damit kann sie verschiedene Objekte und die Gesichter von Personen erkennen. Über eine Sprachausgabe unterstützt das System den Nutzer bei der Orientierung, meldet zum Beispiel, wenn sich ein Auto nähert, wo eine Tür ist oder wie die Person heißt, die vor ihm steht.

Derartige Entwicklungen lassen erwarten, dass auch in den nächsten Jahren Smartphone und Wearables unser Leben weiter entscheidend beeinflussen und zu vielseitigen Ratgebern werden können.

Entwicklung autonomer Fahrzeuge

Für die Entwicklung autonomer Fahrzeuge liefert EBV Elektronik als Europas größter Halbleiter-­Distributor alle erforderlichen Elektronikkomponenten. Aber nicht nur, wie Frank-Steffen Russ, Vertical Segment Manager Automotive Europe bei EBV, betont. Mit seinem Partnernetzwerk können Entwicklungszeiten verkürzt und Produkte schneller auf den Markt gebracht werden. Gleichzeitig können die Erfahrungen, die die EBV-Experten in anderen Anwendungsbereichen machen, neue Lösungen für autonome Fahrzeuge anregen.

The Quintessence: Hand aufs Herz – würden Sie heute schon in einem autonomen Fahrzeug mitfahren?

Frank-Steffen Russ: Ja, ich habe das sogar schon gemacht. Allerdings entsprach das Testfahrzeug dem Autonomielevel 3 bis 4 und war damit noch etwas weg von einem echten Roboterfahrzeug. Grundsätzlich gilt aber, dass man die Grenzen der eingesetzten Technologie kennen sollte. Viele der heute als autonom bezeichneten Fahrzeuge sind noch in der Erprobungsphase und erfordern immer noch Interaktion mit dem Fahrer, zum Beispiel in Gefahrensituationen. Darauf muss man sich als Nutzer einstellen.

Welche Rolle spielen autonome Fahrzeuge für EBV?

F.-S.R.: Autonome Systeme sind ein zentrales Thema in unseren Marksegmenten Industrie, High-REL und Automotive. Für autonomes Fahren, Fliegen oder Arbeiten sind verschiedene Disziplinen erforderlich. Diesen Blick über den Tellerrand kann EBV bieten, denn wir sind in den unterschiedlichsten Anwendungsbereichen tätig – Aktuatorik, Umfeldsensorik, Sensorfusion, Konnektivität und in übergeordneten Themen wie Bordnetz-Strukturen, Security und Daten-Management. Somit kann EBV segmentübergreifend einen großen Beitrag leisten: Im Bereich Umfeldsensorik unterstützen wir zum Beispiel Radartechnologien mit Produkten aus unserem RF- & Wireless-Segment, im LightSpeed-Segment bieten wir Lösungen für das Thema Lidar oder im High-End-Segment kamerabasierte Technologien oder Lösungen zur Sensorfusion nebst KI. In der Konnektivität können wir mit den Technologiesegmenten RF & Wireless und Security & Identification zwei wesentliche Bestandteile zur Vernetzung von Fahrzeugen abdecken. Gepaart mit branchenspezifischem Know-how aus den Marktsegmenten sind wir also in der Lage, einen umfassenden Beitrag zur Evolution von autonomen Fahrzeugen zu leisten.

Welche Rolle spielen Halbleiter grund­sätzlich beim autonomen Fahren? 

F.-S.R.: Die Halbleitertechnologie ist heute in der Lage, die für autonomes Fahren notwendigen Systeme zu unterstützen. Highspeed-Datennetze, die Grundlage für vernetzte Fahrzeuge, können mit ihnen sowohl drahtgebunden als auch drahtlos realisiert werden. Die Verkehrswegeplanung profitiert von modernsten Rechenzentren, selbst hochkomplexe Verkehrssituationen können dank leistungsstarker Prozessoren simuliert und optimiert werden. Und das Fahrzeug selbst profitiert von einer immer höher integrierten Rechnertechnologie – vor allem von Multi-Core-Systemen, die in Automobilqualität und zu einem bezahlbaren Preis angeboten werden. Fahrerassistenzsysteme leisten heute unter Einsatz modernster Halbleiter schon einen maßgeblichen Beitrag, Unfälle und kritische Situationen im Straßenverkehr funktional sicher zu vermeiden.

Welche elektronischen Komponenten ­bietet EBV denn im Einzelnen für die Realisierung eines autonomen Fahrzeugs?

F.-S.R.: In aller Kürze: Halbleiter, gepaart mit Know-how. Ein autonomes System muss funktional sicher aufgebaut sein. Das erfordert Komponenten – von der einfachen Diode über einen Sensor bis hin zum komplexen Multi-Core-µC-System –, die den höchsten Anforderungen an Robustheit, Fehlertoleranz und Zuverlässigkeit gerecht werden.

Wie kann EBV darüber hinaus Unternehmen helfen, ihre Ideen eines autonomen Fahrzeugs erfolgreich zu realisieren?

F.-S.R.: Das Bauelement spielt die zentrale Rolle in unserem Vertriebskonzept. Doch neben der Technologieberatung wird das System-Know-how immer wichtiger, um derart komplexe Strukturen wie autonome Systeme zu realisieren. Hier bringen wir Unternehmen mit Ideen mit den richtigen Systempartnern zusammen. Sie bieten Hardware, Software, Design-Support, Produktion und vieles mehr für die Realisation der Produktidee an. Zudem unterstützen wir unsere Kunden zusammen mit den Halbleiterherstellern mit den richtigen Werkzeugen und Referenzplattformen. So können unsere Kunden ihre Entwicklungszeit deutlich verkürzen – oder als „Quereinsteiger“ die neuesten Technologien für ihre Produktidee nutzen.

Vernetzung ist ja beispielsweise ein großes Thema bei Wearables. Könnten Sie sich hier Technologien vorstellen, die auch für autonome Fahrzeuge interessant sind? 

F.-S.R.: Ja klar – ein Beispiel aus meiner eigenen Erfahrung mit Hörgeräten: Die Hearables können zwar viel, doch die immer leiser werdenden Fahrzeuge, besonders die Elektroautos, stellen eine Herausforderung für die Systeme dar. Warum also nicht gleich die Hearables zum Bestandteil der V2X-Kommunikation werden lassen und intelligente Warnungen vom Fahrzeug direkt ins Ohr des Fußgängers flüstern?

Darüber hinaus wird das autonome Fahrzeug durch seine Umfeldsensorik eine Vielzahl an Daten erfassen, die auch anderswo genutzt werden könnten. Ganz simples Beispiel ist eben das Wetter: Hier kann das Fahrzeug zum Sensor für aktuelle lokale Niederschläge werden – die dann etwa von der Landwirtschaft oder für die Planung von Sportveranstaltungen genutzt werden können. Das vernetzte Fahrzeug wird nicht nur Daten zum Verkehrsfluss empfangen, sondern die Daten aus seinem Umfeld direkt an die nahen Verkehrsteilnehmer oder eben über einen Cloud-Server an das Internet und damit an die unterschiedlichsten Nutzer geben.

Mit Vernetzung und Autonomie wird auch ­Cybersecurity immer wichtiger. Was bietet EBV hierzu?

F.-S.R.: Mit unserer Segmentstrategie bieten wir potenziell „Best Practice“‘ aus allen Bereichen an – Cybersecurity wird bei uns vom Technologiesegment Security & Identification unterstützt. Damit stellen wir sicher, dass unsere Kunden immer auf dem neuesten Stand der Technologie und der angewandten Verfahren beraten werden.

Wie sieht es bei Kommunikationstechniken aus? Aus dem Smart Building kommt zum Beispiel LiFi, also quasi WLAN per Licht. Können Sie sich da auch Anwendungen vorstellen? 

F.-S.R.: Wird ein Fahrzeug mit Funk vernetzt, zum Beispiel per WLAN, dann wird das Umfeld sicherlich ebenso angebunden. Bleiben wir auf DSRC, also der „Dedicated Short Range Communication“, reden wir immer über ein System, das in Echtzeit Daten austauscht. Hier kann LiFi durchaus als Alternative angesehen werden. Bereits heute ließen sich hierfür LED-Tagfahrlichter, -Scheinwerfer oder -Rückleuchten verwenden. Damit wäre die Kommunikation zu Ampeln oder Verkehrsleitsystemen ohne „Funkbelastung“ im Sichtbereich möglich.

Aus Ihrer Sicht: Wie glauben Sie werden ­autonome Fahrzeuge die Mobilität, wie wir
sie kennen, verändern? 

F.-S.R.: Um die Ziele der WHO und der EU zu erreichen, bis 2050 einen sicheren Verkehr zu ermöglichen, sind autonome Fahrzeuge unerlässlich. Dies ist auch der Zeithorizont, den ich für die Veränderungen sehe. Sicherlich werden wir in zehn bis fünfzehn Jahren den Level 5 beim autonomen Fahren technologisch erreicht haben. Doch bis die Technologie, die zunächst im Premium-Segment eingeführt werden wird, in der Fläche verfügbar ist, werden dann noch einige Jahre vergehen.

Die autonome landwirtschaftliche Maschine wird es uns erlauben, Bodenverdichtungen zu minimieren, indem sie Konzepte wie „Swarm Farming“ ermöglicht. Das wird den Ackerbau massiv verändern.

Im Transportwesen kann der autonome Lkw das Berufsbild „Trucker“ vom reinen Fahrer zum mobilen Spediteur, Disponenten und Bewacher der Fracht ändern. Der Fahrerarbeitsplatz wird zum mobilen Büro.

Luftfahrt, aber auch die Schifffahrt, profitieren derzeit davon, dass das Verkehrsaufkommen überschaubar ist. Hier sind autonome Prozesse bereits eingeführt, müssen aber weiter vollautomatisiert werden, wenn das Verkaufsaufkommen zunimmt.

Autonomes Fahren | Start-Ups

Die Möglichkeiten autonomer Fahrzeuge beflügelt die Fantasie. Zahlreiche junge Unternehmen arbeiten daran, aus diesen Ideen innovative Lösungen zu entwickeln, die in den unterschiedlichsten Bereichen eingesetzt werden können. Wir stellen eine kleine Auswahl interessanter Start-ups vor.

Autonomes Fahren Start-Ups

Das Auto selber hacken

Das amerikanische Unternehmen Comma.ai hat Panda, eine Art Dongle, auf den Markt gebracht, das an die OBD-2-Schnittstelle eines Autos angeschlossen werden kann. Mit ihm lassen sich alle Daten, die im Fahrzeug erzeugt werden, auslesen. Zusammen mit dem Software-Tool Cabana können die Nutzer ihr eigenes Auto „hacken“ und seine Systeme modifizieren. So könnten zum Beispiel teilautonome Funktionen wie eine automatische Geschwindigkeitsregelung oder ein Bremsassistent programmiert werden – vorausgesetzt, das Auto verfügt über entsprechende Sensoren.

Entwickelt hat das Gerät George Hotz – in der Hacker-Szene berühmt, da er mit 17 Jahren als Erster ein iPhone gehackt hat und mit 20 in die Playstation 3 eingedrungen ist. Ursprünglich wollte Hotz ein komplettes „Selbstfahr-Kit“ für unter 1.000 Dollar verkaufen. Doch nachdem die Highway Traffic Safety Administration entsprechende Prüfungen und Nachweise gefordert hatte, gab Hotz das Projekt auf – die notwendigen Tests seien zu teuer.

Hotz Vision ist, ein offenes Betriebssystem für selbstfahrende Autos zu entwickeln, das wie Android auf einer Vielzahl von Geräten, sprich Pkw-Marken läuft. Dazu hat er ein Set an Software-Lösungen entwickelt: Die „Chffr“-Cloud-App ist eine Dashcam-App, über die Fahrten aufgezeichnet werden können. Wird die App mit Panda gekoppelt, lassen sich auch alle Sensordaten aufzeichnen und in die Cloud laden. Comma.ai will diese Daten nutzen, um zukünftige autonome Fahrfunktionen zu verbessern. Davon soll schließlich auch Openpilot profitieren – eine von Comma.ai entwickelte Open-Source-Software, mit der selbstfahrende Funktionen über den Panda-Dongle in ein Auto integriert werden können.

Nach eigenen Angaben verfügt Comma.ai bereits über die Daten von mehr als 1 Million gefahrenen Meilen und über das drittgrößte Netzwerk an Datenlieferanten hinter Tesla und Waymo. Hotz‘ Ziel ist, autonomes Fahren auf Level 3 zu ermöglichen – wozu er kostengünstige Hardware verkaufen und einen monatlichen Beitrag für die Mitgliedschaft im Comma-Netzwerk erheben will. Mit immer mehr Nutzern, die Daten von immer mehr Straßen liefern, soll die Gesamtlösung schließlich sogar Fahren auf Level 4 oder 5 ermöglichen.

www.comma.ai

Autonomes Fahren Start-Ups

Unterstützung für den Winzer

Das französische Unternehmen Naïo Technologies hat sich auf Roboter für die Landwirtschaft und den Weinbau spezialisiert. So unter anderem Bob – ein autonomer Roboter auf Kettenlaufwerken, der den Winzer von beschwerlichen Aufgaben wie Unkrautjäten oder Bodenbearbeitung entlastet. Bob bewegt sich selbstständig entlang der Pflanzenreihen, jätet sowohl zwischen den Rebzeilen als auch zwischen den einzelnen Rebstöcken und wechselt ohne menschliches Eingreifen die Zeilen.

www.naio-technologies.com

Autonomes Fahren Start-Ups

Meeresdaten effizienter sammeln

Saildrone mit Sitz in Kalifornien entwickelt und produziert eine Flotte autonomer, von Wind und Sonne angetriebener Wasserfahrzeuge. Sie sollen das kosteneffiziente Sammeln von Meeresdaten in großem Maßstab ermöglichen. Damit sollen neue Erkenntnisse für Wettervorhersagen, den globalen Kohlenstoff-Kreislauf, die Fischereiindustrie und den Klimawandel gewonnen werden. Die Segeldrohnen navigieren selbstständig zum angewiesenen Ziel, halten dort die Position oder fahren bestimmte Suchmuster ab.

www.saildrone.com

Autonomes Fahren Start-Ups

Fliegendes Taxi

Jedem Menschen den Traum vom Fliegen möchte Volocopter erfüllen. Die deutsche Firma entwickelt senkrechtstartende, vollelektrische Multikopter für den Personentransport und als Schwerlastdrohnen. Die technische Plattform lässt den pilotierten, ferngesteuerten und vollautonomen Flugbetrieb zu. Eine hohe Redundanz aller kritischen Komponenten sorgt bei den fliegenden Taxis für hohe Sicherheit. In 2018 soll der erste Volocopter mit Zulassung auf den Markt gebracht werden.

www.volocopter.com

Autonomes Fahren Start-Ups

Taxi, Auto und Bus in einem

Mit italienischem Design und amerikanischem Know-how entwickelt Next ein smartes Transportsystem für den Straßenverkehr, das auf einem Schwarm modularer, selbstfahrender Fahrzeuge basiert. Jedes dieser elektrisch angetriebenen Module kann sich mit anderen Modulen verbinden und wieder trennen. Passagiere sollen sich ein Fahrzeug per App bestellen können. Fahren mehrere Module ein Stück die gleiche Strecke, verbinden sie sich zu einer Fahrzeugkette. So soll Energie und Platz auf den Straßen gespart werden.

www.next-future-mobility.com

(Bildnachweis: Comma.ai; Next Future Mobility; Tien Tran/Naio Technologies; Volocopter; Saildrone)

Autonome Baumaschinen

Autonome Baumaschinen wie fahrerlose Kipper konnten bereits in Erzminen weltweit ihre Einsatzreife beweisen. Jetzt wird an autonomen Baggern gearbeitet, doch hier steht die Technik noch am Anfang.

Im Spätsommer 2016 konnte man im schwedischen Eskilstuna einen Blick auf die Baustelle der Zukunft werfen: Volvo Construction Equipment (CE) führte hier vor, wie ein autonomer Radlader und ein fahrerloser Muldenkipper zusammenarbeiten. Der Radlader schafft rund 70 Prozent der Marge, die eine vom Menschen gesteuerte Maschine normalerweise verlädt. Das ist eine ganze Menge weniger – aber dafür können autonome Baumaschinen rund um die Uhr arbeiten. „Die Maschinen können die gleiche Aufgabe entlang einer vorgegebenen Route wieder und wieder erledigen, und das während einer langen Zeitdauer. Aber diese Technologie steckt noch in den Kinderschuhen. Wir arbeiten an der Entwicklung von Lösungen, welche die vom Markt geforderte Sicherheit und Leistung bieten können“, erklärt Jenny Elfsberg, Direktorin für aufstrebende Technologien bei Volvo CE. „Wir haben noch einen weiten Weg vor uns. Es existieren also noch keine Pläne für eine Industrialisierung“, fährt sie fort. So kommunizieren die Maschinenprototypen noch nicht miteinander. Das aber ist für die Vermeidung von Kollisionen und die Vereinfachung eines effizienten Materialflusses von großer Bedeutung. Dennoch, Jenny Elfsberg ist sich sicher: „Autonome Maschinen erhöhen die Sicherheit in einem gefährlichen Arbeitsumfeld und beseitigen das durch menschliche Fehler verursachte Unfallrisiko. Auch werden sie sich wiederholende Aufgaben effizienter und präziser als ein menschlicher Bediener ausführen.“

Autonome Baumaschinen arbeiten zusammen

Auch der japanische Baumaschinen-Hersteller Komatsu arbeitet an autonomen Baumaschinen. Mit seinem „Smart Construction“-Konzept ist er hier schon recht weit. Allerdings sind die Bagger und Radlader bisher nur teilautonom: Der Baggerführer steuert zum Beispiel nur noch den Auslegerarm, während die Schaufel automatisch geführt wird. Ihre Höhe und Position werden mithilfe von Kameras am Bagger und GPS-Sensoren justiert. Das System „weiß“, wie viel Erde wo bewegt werden muss. Die Daten hierfür liefern Drohnen des US-Herstellers Skycatch mit Tausenden von Luftaufnahmen. Darauf basierend errechnet die Skycatch-Software ein dreidimensionales topografisches Geländemodell mit einer Genauigkeit von drei Zentimetern. Durch mehrere Millionen Messpunkte kann anschließend das zu bewegende Erdvolumen sehr viel genauer berechnet werden als mit herkömmlichen manuellen Verfahren.

Vollautomatischer Eisenerz-Transport

Bis vollautonome Bagger verfügbar sind, wird es noch dauern. Doch vollautonome Lkw sind bereits heute im Einsatz: Zum Beispiel führte die australische Bergbaugesellschaft Rio Tinto schon 2008 sogenannte Autonomous Haulage Systems (AHS – Autonome Transport Systeme) in seinen Eisenerz-Minen in der Region Pilbara ein. Aktuell ist die Gesellschaft mit 71 dieser autonomen Muldenkipper der weltweit größte Betreiber und Eigentümer von autonomen Lkw. Wobei der Begriff Lkw nicht so richtig passen will: Drei Stockwerke hoch sind die fahrerlosen, von Komatsu hergestellten Muldenkipper, die in den Minen Yandicoogina, Hope Downs 4 und Nammuldi den Transport des Eisenerzes übernehmen.

Höhere Produktivität, weniger Risiken für Mitarbeiter

Die Kipper sind mit leistungsstarken Computern ausgestattet, die die normalen Fahrfunktionen – Motor starten, beschleunigen, bremsen – steuern. Die Navigation erfolgt über GPS, eventuelle Gefahren identifiziert und vermeidet der Truck über Systeme zur Abstandserkennung und Kollisionsvermeidung. Zusätzlich werden die Fahrzeuge über ein Operationszentrum im 1.500 Kilometer entfernten Perth überwacht. Josh Bennett, für den Bergwerksbetrieb zuständiger Manager in der Mine Yandicoogina, erklärt: „Wir haben unsere gesamte Mine abgebildet und in ein Computersystem geladen. Das System berechnet dann, wie die Trucks durch die Mine manövrieren.“ Dabei wurden die Kipper so programmiert, dass sie ihre Ladung so effizient wie möglich transportieren. Mit Erfolg: Seit 2008 hat die autonome Flotte die Lade- und Transportkosten in den Minen um 13 Prozent gesenkt. „Autonome Trucks reduzieren für die Mitarbeiter die Gefahren und Risiken, die mit dem Betrieb schweren Gerätes verbunden sind, wie Vorfälle wegen Ermüdung, Verstauchungen und andere Bindegewebsverletzungen sowie die Belastung durch Lärm und Staub“, so Josh Bennett.

Die Zukunft des autonomen Fahrens

Die Zukunft des autonomen Fahrens wird nicht nur ein völlig neues Fahrerlebnis bieten. Sie wird auch die gesamte Automobil­­branche ­verändern.

Mehr als 1,2 Milliarden Menschen verbringen pro Tag mehr als 50 Minuten in ihrem Fahrzeug – einen Großteil der Zeit jedoch im Stau. Wie schön wäre es da, wenn man während dieser Zeit die Hände vom Lenkrad nehmen und sich mit sinnvolleren Sachen beschäftigen könnte. In 2017 ist diese Fiktion Realität geworden: In diesem Jahr werden die ersten Serienautos der Welt präsentiert, die für hochautomatisiertes Fahren entwickelt sind. Fahrfunktionen wie Einparken oder selbstständig im Stau Gas geben und bremsen können dann die Fahrzeuge übernehmen.

Scharfe Sicht auf die Umwelt

Eine Grundvoraussetzung für automatisiertes Fahren sind zuverlässige Informationen über die Fahrzeugumgebung und deren präzise Bewertung. „Um Schritt für Schritt diese Informationen zu sammeln, benötigt man eine Reihe von Sensoren wie Radar, Kamera und Surround-View-Systeme. Ziel ist es, ein dem Menschen gleichwertiges oder besseres Verständnis des Fahrzeugumfeldes zu erreichen. Mehr Reichweite, mehr Sensoren sowie die Fusion der gesammelten Daten kombiniert mit hoher Rechenleistung schärfen die Sicht und sind der Schlüssel für eine konsistente Sicht auf die Umwelt“, sagte Karl Haupt, Leiter des Geschäftsbereichs Fahrerassistenzsysteme bei Continental. Das nimmt der britische Autobauer Jaguar Land Rover wörtlich. „Wir möchten zukünftige hochautomatisierte und autonome Technologien nicht nur auf den Asphalt begrenzen“, so Tony Harper, Leiter der Forschungsabteilung. „Wenn der Fahrer die Straße verlässt, möchten wir, dass Unterstützung und Assistenz weitergehen. Wenn man in der Zukunft die Vorteile von autonomen Spurhaltesystemen auf der Autobahn am Anfang der Reise genießt, dann möchten wir sicherstellen, dass man dies alles auch den gesamten Weg zum Ziel nutzen kann, auch wenn es über grobe Fahrwege oder Schotterpisten geht.“ Jaguar Land Rover kombiniert in einem Konzeptfahrzeug dafür Kameras, Ultraschall, Radar und Lidar-Sensoren. Sie ermöglichen nicht nur einen 360-Grad-Blick auf die Umgebung des Autos, sondern sind so hoch entwickelt, dass sie Oberflächen-Charakteristiken bis hinunter zur Dimension einer Reifenbreite bestimmen – auch bei Regen oder Schneefall. Ultraschallsensoren können zudem die Oberflächen-Bedingungen in einer Reichweite von bis zu fünf Metern erkennen, so dass das Fahrzeug automatisch Traktion und Fahrverhalten anpassen kann, wenn es von Asphalt auf Schnee oder von Gras auf Sand fährt.

Das Fahrzeug kommt zum Fahrer

Die Sensorik ist aber nur der eine Part, der andere ist die Intelligenz, aus den Daten Steuerbefehle zu generieren. Das erfordert Hochleistungs-Steuergeräte an Bord der Autos. Beim im Juli 2017 präsentierten Audi A8 zum Beispiel errechnet während der pilotierten Fahrt ein zentrales Fahrerassistenz-Steuergerät mit auf Deep Learning basierender Software aus den Sensordaten permanent ein Abbild der Umgebung. Auch Daimler treibt die Entwicklung des vollautomatisierten und fahrerlosen Fahrens von Seiten der Software voran. Zusammen mit Bosch hat der Hersteller im April 2017 eine Entwicklungskooperation vereinbart, um vollautomatisiertes und fahrerloses Fahren im urbanen Umfeld Anfang der kommenden Dekade auf die Straße zu bringen. Ziel ist die gemeinsame Entwicklung von Software und Algorithmen für ein autonomes Fahrsystem. Die Idee dahinter: Das Fahrzeug kommt zum Fahrer, nicht der Fahrer zum Fahrzeug. Nutzer könnten sich per Smartphone bequem ein Car-Sharing-Auto oder ein Robotertaxi ordern, das fahrerlos zu ihnen gefahren kommt. „Das Auto, wie wir es kennen, ist bald Geschichte“, meint Dr. Volkmar Denner, Vorsitzender der Geschäftsführung von Bosch. „Heute buchen Sie die Übernachtung im Internet, in Zukunft bestellen Sie Ihre Mobilität online.“

„Eine autonome Flotte kann sehr effektiv eine weitaus größere Anzahl an privaten Fahrzeugen ersetzen.“

Neue Geschäftsfelder erschließen

Car-Sharing ist einer der großen Vorteile autonomer Autos. „Studien haben gezeigt, dass eine autonome Flotte sehr effektiv eine weitaus größere Anzahl an privaten Fahrzeugen in einem Stadtzentrum ersetzen kann“, so David Alexander, Senior Research Analyst bei Navigant Research. „Das bedeutet sowohl eine Chance wie auch eine Herausforderung für die Erstausrüster.“ Denn einerseits werden laut Navigant 120 Millionen Autos mit autonomen Fähigkeiten zwischen den Jahren 2020 und 2035 verkauft. Andererseits wird aber erwartet, dass die Automobilproduktion dann auch ihren Zenit erreicht und danach wegen gemeinsam genutzter Autos sinken wird. Daher sollten die Automobilhersteller ihre Business-Modelle entsprechend anpassen und zum Beispiel zusätzliche Mehrwertdienste verkaufen. „Je mehr sich das autonome Fahren durchsetzt, desto größer wird die Nachfrage der Nutzer nach Services sein, um die frei werdende Zeit im Auto sinnvoll zu nutzen“, so Ralf Gaydoul, Partner und Leiter des Automotive Centers bei der Management-Beratung Horváth & Partners. „Summiert man die Werte über alle Bedürfniskategorien hinweg auf, so kommt man auf einen monatlichen Betrag von weit über 100 Euro pro Fahrer.“ Zusammen mit dem Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) hat Gaydoul die Zahlungsbereitschaft von Autofahrern für derartige Services untersucht: Danach wären drei Viertel der Befragten bereit, dafür Geld auszugeben. Am größten ist die Bereitschaft, Geld für Angebote rund um Kommunikation und Produktivität zu investieren. „Diese Services werden in allen drei untersuchten Ländern am stärksten nachgefragt, jedoch mit unterschiedlicher Ausprägung“, so Steffen Braun, Leiter des Geschäftsfelds Mobilitäts- und Stadtsystem-Gestaltung am Fraunhofer IAO. „In Japan ist beispielsweise das Interesse an Social-Media-Diensten während der Fahrt deutlich höher als hierzulande (64 Prozent gegenüber 23 Prozent).“

(Bildnachweis: Continental)

Einzelhandel: „Wer nicht auf KI setzt, stirbt!“

Der Einsatz von KI ist nicht nur dem Online-Handel vorbehalten. Auch im Ladengeschäft helfen selbstlernende Algorithmen, Angebot und Nachfrage genauer auszutarieren und den Kunden besser zu verstehen.

Der Einzelhandel agiert in einem komplizierten Beziehungsgeflecht zwischen Kunden, Herstellern, Logistikern und Online-Plattformen. Um im Wettbewerb zu bestehen, müssen die Kundenbedürfnisse optimal erfasst und möglichst effizient und passgenau erfüllt werden – der Händler muss also die richtigen Entscheidungen zur idealen Einbindung der Akteure treffen. Selbstlernende Algorithmen und Künstliche Intelligenz erschließen dabei neue Dimensionen der Prozessoptimierung, Personalisierung und Entscheidungsgenauigkeit.

Die Händler können mit Hilfe von Künstlicher Intelligenz besser auf die Bedürfnisse ihrer Kunden eingehen und beispielsweise ihre Bestell- und Lieferprozesse weiter optimieren.

Eine Frage der Notwendigkeit

Prof. Dr. Michael Feindt, Gründer des Unternehmens Blue Yonder: „Wer nicht auf KI setzt, stirbt! Wer sich dagegen der neuen Technologie öffnet und diese klug für sich nutzt, hat beste Chancen, um auch in Zukunft im Einzelhandel erfolgreich zu sein. Digitaler Wandel mit KI ist für den Einzelhandel keine Frage der Wahl, sondern der Notwendigkeit. Nur wer sich verändert und die neuen KI-Technologien für sich nutzt, überlebt.“ Blue Yonder bietet dazu zum Beispiel eine Machine-Learning-Lösung, die durch automatisierte Preise und Preisabschläge den optimalen Abverkauf über die gesamte Saison ermöglicht. Das System misst den Zusammenhang zwischen Preisänderung und Nachfrageverhalten in jeder Filiale und jedem Kanal. Auf Basis der Ergebnisse legt die Lösung über den gesamten Verkaufszyklus bis hin zu Preisabschlägen und Schlussverkauf umsatz- oder gewinnsteigernde Preise automatisiert fest. Sie analysiert nicht nur historische, sondern auch aktuelle Umsatz- und Produktstammdaten und ermöglicht die Validierung und Optimierung Hunderter Preise pro Tag. Mit Hilfe derartiger Systeme können Handelsunternehmen die steigenden Erwartungen der Konsumenten an den Handel erfüllen und gleichzeitig ihren Gewinn maximieren. Laut Blue Yonder soll so eine Maximierung des Gewinns um sechs Prozent, eine Steigerung des Umsatzes um 15 Prozent und eine Reduzierung der Lagerbestände um 15 Prozent erreichbar sein.

Prozesse weiter optimieren mit Hilfe der KI

„Die Händler können mit Hilfe von Künstlicher Intelligenz besser auf die Bedürfnisse ihrer Kunden eingehen und beispielsweise ihre Bestell- und Lieferprozesse weiter optimieren“, so Stephan Tromp, Hauptgeschäftsführer des Handelsverbands Deutschland HDE. Retailer können zum Beispiel Daten ihrer Zulieferer zur Performance-Messung und Prozessoptimierung einsetzen. Kombiniert mit den Daten aus den Geschäften und Lagerbeständen lassen sich zudem Angebot und Nachfrage besser ausbalancieren. Intelligente Prognosesysteme lernen zum Beispiel aus vergangenen Bestellungen, bilden Käufergruppen und betrachten saisonale Effekte. Aus den gewonnenen Einsichten prognostizieren sie zum Beispiel den Absatz der Produkte und wissen im Optimalfall noch vor dem Konsumenten, was als Nächstes bestellt wird. So können Händler ihre Webseiten auf die entsprechenden Produktgruppen ausrichten, den Einkauf veranlassen, das Lager entsprechend zu bestücken, und letztendlich die Versandzeiten weiter verkürzen. Engpässe bei bestimmten Produkten sind so vorherzusehen und der Retailer hat frühzeitig die nötigen Einblicke, welcher Zulieferer momentan am schnellsten in der Lage ist, die benötigten Waren nachzuliefern.

Kundenbewegungen erfassen

Doch nicht nur im Backoffice des Händlers findet KI ihren Einsatz, auch direkt im Ladengeschäft helfen Deep-Learning-Funktionen das Verhalten von Kunden zu messen. So hat zum Beispiel das Unternehmen Retailnext einen All-in-One IoT-Sensor auf den Markt gebracht, der die Bewegungen der Kunden im Laden erfasst: das Abholen von Waren, das Anprobieren von Kleidung, die vom Kunden zurückgelegten Wege im Geschäft. All das wird über eine Kamera erfasst und direkt im Gerät mit Hilfe von Deep-Learning-Funktionen analysiert. Die Daten werden anschließend in Echtzeit an die Cloud übertragen, sodass Marken über alle Filialen der Kette hinweg aussagekräftige Informationen sammeln können. „Gerade diese Projekte ermöglichen es Einzelhändlern, ein tieferes Verständnis für das Kaufverhalten im Laden zu entwickeln und differenzierte Einkaufserlebnisse zu ermöglichen“, ist sich Arun Nair, Mitgründer von Retailnext und technischer Geschäftsführer sicher. „Je mehr der Einzelhändler weiß, was im Laden passiert, desto besser.“

Der Pionier des maschinellen Sehens

Prof. Dr. Ernst Dieter Dickmanns gilt als der Pionier autonomer sehender Autos. Seine in den 1980er Jahren entwickelten Methoden des „maschinellen Sehens“ finden noch heute in autonomen Fahrzeugen Anwendung.

Nicht nur ein bisschen neidisch ist Prof. Ernst Dieter Dickmanns, wenn er die Technologien sieht, die den Entwicklern autonomer Fahrzeuge mittlerweile zur Verfügung stehen. „Die Rechenleistung pro Mikroprozessor ist heute fast eine Million Mal so hoch wie zu der Zeit, als wir anfingen. Das Volumen von Rechnern und Sensoren ist kleiner als ein Tausendstel im Vergleich zu damals.“ Damals – das waren die späten 1980er Jahre, als Prof. Dickmanns, geboren 1936, mit der Entwicklung eines autonomen Autos begann. Er setzte schon zu dieser Zeit auf das, was jetzt gemeinhin „maschinelles Sehen“ genannt wird. „Wenn man sich anschaut, welche Rolle Sehen in biologischen Systemen spielt, dann muss es auch für technische Systeme große Vorteile haben“ – mit diesem Gedanken entwickelte er eine Methode, die den Autos das Sehen beibrachte.

Auch ohne große Rechenleistung in Echtzeit sehen

„Das sichere autonome Fahren auf allen Arten von Schnellstraßen halte ich für wichtig.“

„Man konnte bereits 1975 erkennen, dass die Rechenleistung pro Mikroprozessor in vier bis fünf Jahren um den Faktor 10 zunahm“, erinnert sich Prof. Dickmanns. 1975 war das Jahr, in dem er, knapp 40 Jahre alt, an die Universität der Bundeswehr in München wechselte. „Bis zu meiner Pensionierung war zu erwarten, dass die Rechenleistung um den Faktor eine Million zunehmen würde. Dies sollte reichen, um Videoauswertungen in Echtzeit zu -ermöglichen, was eine völlig neue technische Errungenschaft wäre.“ Dickmanns begann mit seinem Team eine Methode zu entwickeln, die das „Rechnersehen“ schon vor seiner Pensionierung Realität werden lassen sollte. Bei diesem 4D-Ansatz, wie er die Methode nennt, werden die von Kameras aufgezeichneten Informationen digitalisiert und nur als abstrakte Linien mit benachbarten Grauwertflächen vom Rechner verarbeitet. Statt, wie damals allgemein üblich, das jeweils aktuelle Bild mit dem vorherigen zu vergleichen, verwendete er Bewegungsmodelle im 3D-Raum und integrierte die Zeit (daher der Name „4D“), um den beobachteten Prozess in der realen Welt zu verstehen. Mit diesen Modellen wurden die erwarteten Merkmale im nächsten Bild vorhergesagt. So fallen wesentlich geringere Datenmengen an: Selbst mit den damaligen Prozessoren konnten vereinfachte Szenen in 100 Millisekunden verarbeitet werden – was in der Automatisierung Echtzeit entspricht.

Von München nach Kopenhagen – fast vollständig autonom 

Das erste so ausgerüstete Fahrzeug fuhr bereits 1987 autonom auf abgesperrten Teststrecken. Die Technik dafür füllte im wahrsten Sinne Schränke – das erste Testfahrzeug war ein Mercedes-Transporter mit fünf Tonnen Nutzlast: VaMoRs (Versuchsfahrzeug für autonome Mobilität und Rechnersehen) bot ausreichend Kapazitäten, um einen Stromgenerator und mehrere Meter Industrie-Schaltschränke für die Elektronik unterzubringen. Doch schon wenige Jahre später war der Platzbedarf deutlich geschrumpft: Die Fahrzeuge VaMP der Universität der Bundeswehr und ViTA-2 von Daimler basierten beide auf einer Mercedes-Limousine und waren ein Ergebnis des von der europäischen Autoindustrie initiierten Projektes Prometheus. Beide Projekte wurden von Prof. Dickmanns betreut. Ab 1993 konnten diese Autos auf Straßen mit normalem Verkehr völlig autonom fahren. Die Krönung war eine Fahrt von München nach Kopenhagen: Die 1.700 Kilometer lange Strecke legte das Testfahrzeug zu 95 Prozent ohne Intervention des Fahrers zurück, wechselte die Spur, überholte andere Autos und erreichte eine Höchstgeschwindigkeit von 175 Kilometern pro Stunde. Damals eine Sensation – und auch für aktuelle selbstfahrende Pkw noch ein Maßstab. Heute ist der 4D-Ansatz aus autonomen Fahrzeugen nicht mehr wegzudenken – und Prof. Ernst Dieter Dickmanns weltweit als der Pionier anerkannt, der dem Auto das Sehen beibrachte.

Rezept für erfolgreiches Forschen

Bis zu seiner Pensionierung in 2001 entwickelte er noch viele weitere Lösungen rund um das Rechnersehen und das autonome Fahren. Nach seinem Erfolgsrezept gefragt, nennt er vier Punkte: „Die Überzeugung von der Überlegenheit der eigenen Idee, das Einwerben einer ausreichenden Summe an Forschungsmitteln, die Auswahl entsprechend qualifizierter Mitarbeiter und Doktoranden sowie viele intensive Gespräche mit Partnern aus der Industrie und mit internationalen Fachkollegen auf Tagungen.“ Wer dies – neben der eigenen Kreativität – in ein Projekt einbringen kann, hat in seinen Augen das Zeug zu einem erfolgreichen Forscher und Erfinder. Allerdings machte Dickmanns nicht nur gute Erfahrungen in seinem Berufs- und Forscherleben. So rät er rückblickend: „Bei der Auswahl der Partner in Industrie und Forschung würde ich noch vorsichtiger sein und wesentliche Punkte schriftlich fixieren.“

Mit gutem Gefühl 

Doch Prof. Dickmanns ist noch lange nicht im Ruhestand. Nach wie vor verfolgt er die aktuellen Entwicklungen rund um das autonome Fahren, hält Vorträge und hat immer noch Ideen, wie man das maschinelle Sehen verbessern kann: „Beim derzeitigen Stand der Technik würde ich gleich auf Lösungen zielen, die sich in biologischen Systemen bewährt haben. So würde ich kleine Fahrzeugaugen mit dynamischer Blickrichtungs-Stabilisierung und -Steuerung einsetzen, die am oberen Ende des A-Holms links und rechts im Pkw integriert sind.“

Würde er heute tatsächlich mit einem guten Gefühl in einem vollautonomen Auto fahren? „Wenn es das gäbe – ja“, ist seine klare Antwort. Er könnte sich auch vorstellen, eines der neuen Autos zu kaufen, die selber einparken können und im Stau autonom fahren: „Wobei ich auf das Einparken keinen großen Wert lege; das sichere autonome Fahren auf allen Arten von Schnellstraßen halte ich aber für wichtig.“

Platooning: Effizienter im Platoon

Automatisch im Konvoi fahrende Lkw – Platooning genannt – stehen kurz vor der Marktreife. Erste vollautonome Testfahrzeuge sind auf den Straßen unterwegs. Spediteure und Hersteller erhoffen sich eine deutliche Reduzierung der Betriebskosten. 

Strenge gesetzliche Regelungen bei Lenkzeiten und Sicherheitsvorschriften, Personalmangel, steigende Betriebskosten – die Transportbranche kämpft seit langem mit den immer gleichen Problemen. Die meisten davon ließen sich durch den Einsatz autonomer Lkws lösen.

Platooning: Der Endpunkt einer Entwicklung

„Der Zeitpunkt rückt näher, an dem Lkws zunächst auf Autobahnen vermehrt von technologischer Intelligenz gesteuert werden“, sagt Norbert Dressler, Partner von Roland Berger und Nutzfahrzeugexperte. „Das bildet den Endpunkt einer allmählichen, mehr als 15 Jahre dauernden Entwicklung, bei der der Eingriff durch den Fahrer immer geringer wurde. Schon heute verfügen viele Lkws über Systeme wie Stauassistent oder Spurhalteassistent. In der Phase der Vollautomatisierung werden eigenständig agierende Fahrzeuge unter allen Verkehrsbedingungen fahren können, eventuell sogar vollkommen ohne Fahrer.“ Jede Stufe der Automatisierung geht dabei mit einer höheren Systemkomplexität und steigenden Kosten einher: von 1.800 US-Dollar je Lkw für Phase 1 bis hin zu 23.400 US-Dollar je Lkw in der letzten Phase 5, der Vollautomatisierung. Ein wichtiger Kostenfaktor ist die Software, die rund 85 Prozent der Gesamtkosten ausmacht. „Alle Hersteller arbeiten bereits an neuen Lösungen, um dem Handlungsdruck durch Digitalisierung und neue Wettbewerber zu begegnen“, sagt Romed Kelp, Experte für die Nutzfahrzeugindustrie bei der internationalen Management-Beratung Oliver Wyman. „Alle haben Prototypen auf der Straße und investieren hohe dreistellige Millionenbeträge in digitale Technologien.“ Bei ersten markenübergreifenden Platooning-Demonstrationsfahrten bewegen sich Fahrzeuge der großen europäischen Hersteller in elektronischen Konvois. Unter Platooning versteht man ein Fahrzeugsystem für den Straßenverkehr, bei dem zwei oder mehrere Truck-Trailer-Kombinationen mithilfe aktueller technischer Fahrassistenz- und Steuersysteme -sowie einer Car-to-Car-Kommunikation in geringem Abstand hintereinanderfahren können. Die Verkehrssicherheit wird dadurch nicht beeinträchtigt, sondern sogar erhöht. Der Fahrzeugabstand beträgt rund zehn Meter beziehungsweise etwa eine halbe Sekunde Fahrzeit. Alle im Platoon – dem gesamten Sattelzug-Verbund – fahrenden Fahrzeuge sind durch eine sogenannte elektronische Deichsel miteinander verbunden. Das erste Fahrzeug gibt während der Fahrt Geschwindigkeit und Fahrtrichtung vor. Über Car-to-Car-Kommunikation gelangen die notwendigen Steuerbefehle zu den nachfolgenden Fahrzeugen. Diese senden Daten auch wieder zum Zugfahrzeug zurück. Für die Car-to-Car-Kommunikation kommt eine WLAN-Verbindung mit einer Frequenz von 5,9 GHz zum Einsatz. Dieselverbrauch und CO2-Ausstoß lassen sich dadurch um bis zu zehn Prozent reduzieren.

Auf dem Highway autonom

Aber auch erste vollautonome Testfahrzeuge rollen über den Asphalt: Schon Mitte 2015 erhielt ein Freightliner Inspiration Truck als weltweit erster autonom fahrender Lkw eine Straßenzulassung im US-Bundesstaat Nevada. Sobald sich der Truck sicher auf der Autobahn befindet, kann der Fahrer das Highway Pilot genannte System aktivieren. Das Fahrzeug schaltet in den autonomen Modus und passt sich der Geschwindigkeit des Verkehrs an. Der Highway Pilot nutzt ein komplexes Set an Kameras und Radarsystemen mit Spurhalte- und Kollisionspräventionsfunktionen, er regelt die Geschwindigkeit, bremst und lenkt. Durch diese Kombination der Systeme entsteht ein autonomes Fahrzeug, mit dem der sichere Betrieb unter verschiedensten Fahrbedingungen dargestellt werden kann – so hält der Truck beispielsweise automatisch die gesetzlich zulässige Geschwindigkeit ein, regelt den vorgeschriebenen Abstand zum vorausfahrenden Fahrzeug oder nutzt die Stop-and-go-Funktion zur Hauptverkehrszeit. Autonome Überholmanöver leitet der Highway Pilot nicht ein, diese müssen durch den Fahrer selbst durchgeführt werden. Das Gleiche gilt für das Verlassen des Highways und den Spurwechsel.

-15% Kraftstoffverbrauch und CO2-Emissionen beträgt die Reduktion durch Platooning
Quelle: Continental

Vielfältige Einsparungen durch Platooning

Die Kosten für die entsprechende Technologie sind zwar hoch, doch mit autonomen Fahrfunktionen sinken auch die Betriebskosten: „Einsparungen bei den Kraftstoff- und Fahrerkosten tragen am meisten zur Amortisation der hohen Anfangsinvestitionen bei“, sagt Roland-Berger-Experte Dressler. Die Branche muss nicht bis zur Endphase der Automatisierung warten, um Einsparungen zu realisieren: Schon in der ersten Phase sind Kraftstoffeinsparungen von rund sechs Prozent möglich (zum Beispiel durch das Platooning). Die größte Kostenersparnis gibt es in Phase 4, wenn der Fahrer vorgeschriebene Ruhezeiten einlegen kann, während der Lkw autonom weiterfährt. Die Fahrerkosten sinken dadurch um weitere sechs Prozent. In Phase 5, wenn Langstrecken-Lkw gar keinen Fahrer mehr benötigen, werden die Fahrerkosten sogar um 90 Prozent sinken. Weitere Einsparungen ergeben sich durch geringere Versicherungskosten, weil das automatisierte Fahren für mehr Sicherheit sorgt und dadurch die Anzahl der Lkw-Unfälle bis 2040 um 90 Prozent sinken könnte.

(Bildnachweis: iStockphoto Milos-Muller)

Herausforderungen autonomer Fahrzeuge

Neue Regularien, Fragen der Sicherheit und Cybersecurity, Umwälzungen in der Autoindustrie – die Teilnehmer am TQ-Round-Table nennen viele Herausforderungen autonomer Fahrzeuge, die vor dem breiten Einsatz dieser gemeistert werden müssen. Dennoch sind sie sich sicher – sie werden kommen.

Warum nicht“, meint Prof. Dr. Amos Albert, Geschäftsführer von Deepfield Robotics, auf die Frage, ob er sich auch von einem autonom fahrenden Auto zum Expertengespräch hätte fahren lassen. Prof. Dr.-Ing. Eric Sax, Direktor am FZI Forschungszentrum Informatik in Karlsruhe, ist da zurückhaltender: „Ich möchte nicht in einem Fahrzeug fahren, ohne auf die Fahrbahn zu schauen. Dafür sind die Systeme noch nicht ausgereift genug.“ Darin sind sich im Grunde genommen alle Round-Table-Teilnehmer einig. „Heute gibt es noch kein Fahrzeug auf dem Markt, das mehr als Level 3 hat“, so Jens Kahrweg, General Manager EMEA bei Savari. Das liege aber auch daran, dass die Gesetze noch nicht angepasst und Haftungsfragen noch nicht geklärt sind. Auch Prof. Sax sieht die größte Schwierigkeit nicht in der Technologie, die im Großen und Ganzen bereits verfügbar sei, sondern vielmehr in der Absicherung der autonomen Systeme: „Bei den klassischen Methoden wird geschaut, ob das System die Aktion ausführt, die vorher festgelegt wurde. Doch die Vielfalt der Situationen, die im täglichen Straßenverkehr auftritt, wird mit dieser Vorgehensweise nicht mehr abgebildet werden können.“ Die Ausfallwahrscheinlichkeit von Hardware und Software zu berechnen, reicht nicht, um die Sicherheit eines autonomen Fahrzeugs zu bestimmen, meint auch Dr. Albert. „Wenn sich die Umgebungsbedingungen zu schnell verändern, kann die Sicherheit des Systems nicht berechnet werden. Man braucht andere Methoden.“ Eine Möglichkeit, so der Geschäftsführer von Deepfield Robotics, ist die Bewährtheitsprüfung – also Fahrzeuge möglichst viele Kilometer mit aktivierter Technologie, aber überwacht fahren zu lassen, um die Zuverlässigkeit nachzuweisen. Eine andere Methode ist die Definition von sicheren Zuständen und anschließend sicherzustellen, dass das Fahrzeug diesen Zustand im Krisenfall auch einnimmt. „Dann müssen nicht mehr so viele mögliche Situationen berechnet werden“, so Albert.

„Wird autonomes Fahren als Service verkauft, verringert das auch die Einstiegsbarriere für den Nutzer.“ 

Prof. Dr. Amos Albert, Geschäftsführer, Bosch Deepfield Robotics

KI und V2X in wenigen Jahren verfügbar

Doch die Vielzahl der möglichen Umfeldsituationen, auf die ein autonomes Fahrzeug reagieren muss, bedeutet nicht nur für die Sicherheit und Zuverlässigkeit eine Herausforderung, wie Prof. Sax betont: „Da man nicht alle Ereignisse vorhersehen kann, benötigt ein autonomes Fahrzeug künstliche Intelligenz.“ Damit kann es selbstständig Erfahrungen machen und richtige Reaktionen erlernen. Noch steht die Technologie am Anfang. „Aber in wenigen Jahren ist das keine Barriere mehr“, ist sich Dr. Amos Albert sicher. „Die Rechen-Power ist dann mit Cloud-basierten Systemen und Deep-Learning-Anwendungen vorhanden.“

„Das autonome Fahren wird ganze Geschäftsmodelle
revolutionieren.“

Thomas Staudinger, Vice President Marketing, EBV Elektronik

Das erlernte Wissen sollen die autonomen Fahrzeuge in Zukunft untereinander weitergeben. „Die dafür notwendige Vernetzung der Fahrzeuge fehlt aber heute noch“, meint Jens Kahrweg von Savari. Das im Jahr 2008 gegründete Unternehmen entwickelt die hierfür notwendigen V2X-Lösungen. „So eine Vernetzung würde wie ein weiterer Sensor wirken und eine zusätzliche Redundanz bieten, um die Funktionalitäten eines Fahrzeugs abzusichern.“ Noch existiere der zukünftige Mobilfunk-Standard 5G nicht, doch in fünf Jahren sollte das anders aussehen, meint Kahrweg. „Wie flächendeckend das dann ausgerollt ist und ob es dann tatsächlich das alles kann, was gerade versprochen wird, daran arbeiten wir mit der Industrie. Aber dann sollte die Vernetzung von Fahrzeugen umzusetzen sein.“ Bereits eingeführt ist dagegen der modifizierte WiFi-Standard IEEE 802.11p. „Die spannende Frage ist, ob es in Zukunft beide Technologien parallel geben wird – was auch die Vision von Savari ist. Denn unter anderem könnte mit zwei Systemen die Funktionale Sicherheit für automatisierte Fahrzeuge erhöht werden.“

Eine der größten Herausforderungen autonomer Fahrzeuge ist die Cybersecurity

Vernetzung und umfassende Kommunikation erhöht zwar die Sicherheit, bedeutet aber gleichzeitig auch ein Risiko, wie Thomas Staudinger, Vice President Marketing bei EBV Elektronik, betont: „Jeder Punkt, der an so einem Netz hängt, ist ein mögliches Angriffsziel für Hacker. Bei einem erfolgreichen Angriff könnte nicht nur ein einzelnes Auto manipuliert werden, sondern eine ganze Flotte.“ Besonders in den Over-the-air-Updates zukünftiger Fahrzeuge sieht FZI-Direktor Sax ein Risiko: „Es wird Software auf das Auto gespielt – und es ist eine große Herausforderung zu erkennen, ob die valide ist.“ Mit Hardware-Security–Bausteinen, Signierung und Kryptologie ließe sich ein erster Schutzwall aufbauen. „Wir arbeiten zusätzlich an Verfahren der Anomalie-Erkennung“, erzählt Prof. Sax. Das basiert im Kern darauf, dass die üblichen Signale, die innerhalb des Fahrzeugs von den Komponenten ausgetauscht werden, bekannt sind und auf Plausibilität gecheckt werden können. „In dem Augenblick, in dem ein unbekanntes Muster auftaucht, springt die Anomalie-Erkennung an.“ Im Extremfall kann das Fahrzeug dann in einen sicheren Zustand gebracht werden. „Letztendlich ist die Cybersecurity des Autos eine Frage der Systemarchitektur“, meint Staudinger. „Um hier aber eine Lösung zu erhalten, müssen sich die verschiedensten Parteien an einen Tisch setzen – das werden nicht nur die Autohersteller oder Firmen wie Google oder Facebook sein, sondern die unterschiedlichsten Teilhaber an einem solchen Netz.“

„Die Vernetzung der Fahrzeuge untereinander hat begonnen und die fehlende Vernetzung mit der Infrastruktur wird mit zukünftigen Mobilfunktechnologien flächendeckender ermöglicht werden.“ 

Jens Kahrweg, General Manager Savari EMEA

Umwälzungen für Autohersteller

Jens Kahrweg sieht dabei Vorteile für Autohersteller, die neu auf den Markt drängen: „Für einen Hersteller, der schon seit Jahren Millionen von Autos produziert hat, ist es ungleich aufwändiger, seine Fahrzeugarchitektur entsprechend komplett umzustellen. Jemand, der von null anfängt, kann diesen Innovationssprung viel einfacher bewerkstelligen.“ Überhaupt werden die etablierten Autohersteller durch das fahrerlose Auto mit erheblichen Umwälzungen zu tun bekommen – denn die Schwerpunkte ändern sich und Software spielt eine ganz andere Rolle. Prof. Sax ergänzt: „Daher tanzen uns die Unternehmen aus dem Silicon Valley auf der Nase herum – aber nur bis zu einem gewissen Grad. Denn die klassischen Autohersteller haben anderes Know-how – zum Beispiel zu Massen- und Variantenfertigung. Allerdings müssen gerade die deutschen Autobauer ein Stück weit dazulernen. In Zukunft wird nicht mehr das Spaltmaß darüber entscheiden, ob ein Auto gekauft wird.“ Auch Prof. Amos Albert glaubt nicht an den Untergang der klassischen Autohersteller: „Sicher, in ausgewählten Software-Technologien sind andere Firmen heute sehr stark. Aber alle arbeiten massiv an neuen Algorithmen und irgendwann wird dieser Drops auch gelutscht sein und die alten Stärken werden wieder eine Rolle spielen.“

Entscheidender für den Erfolg der Autobauer wird sein, ob sie ihre Geschäftsmodelle anpassen können – da sind sich alle Round-Table-Teilnehmer einig. „In Zukunft wird nicht mehr ein Auto verkauft, sondern Mobilität“, beschreibt Thomas Staudinger diese Entwicklung weg vom Produkt – hin zum Service. „Vielleicht werden die Hersteller in Zukunft ihre Autos nicht mehr an Privatkunden verkaufen, sondern nur noch an Flottenbetreiber“, meint Jens Kahrweg und denkt an Fahrdienstanbieter wie Uber oder Carsharing-Betreiber wie Car2go. „Wenn ein Autobauer nur noch für Großkunden produziert, kann aus dem OEM sehr schnell ein Tier1 werden“, so Staudinger. „Und wenn der OEM sich zum Mobilitätsdienstleister entwickelt, kann von unten der Zulieferer nachrücken und entsprechende Wertschöpfung übernehmen“, führt Kahrweg die Überlegung weiter.

„Die Elektromobilität mit elektrifizierten dezentralen Stellgliedern und Nebenverbrauchern wird ein Door-Opener für autonome Fahrfunktionen sein.“

Prof. Dr.-Ing. Eric Sax,
Direktor, FZI – Forschungszentrum Informatik

Aus der Nische 

Doch diese Umwälzungen werden nur relevant, wenn sich das autonome Auto tatsächlich am Markt etabliert. Und dazu muss es am besten einen geldwerten Vorteil bringen. „Natürlich ist es ein gutes Ziel, bis 2050 keine Verkehrstoten zu haben“, meint Thomas Staudinger. „Aber letztendlich muss jemand Geld in die Hand nehmen, um autonomes Fahren zu realisieren. Das fällt leichter, wenn ein Plus auf der Profit-seite herauskommt.“ Das ist auch der Grund, warum Prof. Sax felsenfest davon überzeugt ist, dass das autonome Fahren zuerst im Nutzfahrzeugbereich kommt. „Ein Spediteur oder ein Kommunalbetrieb kann schätzungsweise bis zu 50 Prozent seiner Kosten durch autonome Fahrzeuge sparen.“ Das FZI hat zum Beispiel für die Stuttgarter Verkehrsbetriebe errechnet, dass im Jahr weit mehr als 100.000 Euro an Personalkosten gespart werden können, wenn alleine die Fahrten auf dem Betriebshof autonom erfolgen würden. „Das Thema autonomes Fahren wird genau aus diesen Nischen kommen, aus Anwendungen mit überschaubaren Szenarien. Und das ist heute schon machbar“, so Sax.

Grundlagen autonomer Fahrzeuge

Sensorik, Rechen-Power und die Fähigkeit zu lernen sind die technologischen Grundlagen autonomer Fahrzeuge. Je mehr Funktionen die Technologie übernimmt, umso höher ist das Level der Automatisierung – bis hin zum völlig fahrerlosen Fahrzeug.

Die Wurzeln für autonome Fahrzeuge reichen weiter zurück, als man gemeinhin meint: Bereits Anfang des 20. Jahrhunderts entwickelte Elmer Sperry ein erstes kreiselkompassgesteuertes Steuerungssystem, mit dem Schiffe automatisch auf Kurs gehalten werden konnten. 1928 wurde dann die erste automatisierte Flugzeugsteuerung auf der Internationalen Luftfahrtausstellung in Berlin gezeigt, entwickelt von Johann Maria Boykow. Doch echtes autonomes Fahren erfordert weitaus mehr, als das Fahrzeug nur auf einem bestimmten Kurs zu halten: Es muss ohne menschliche Steuerung oder detaillierte Programmierung ein vorgegebenes Ziel selbstständig erreichen. Es muss auf Hindernisse genauso reagieren können wie auf unvorhergesehene Ereignisse.

Die Umfelderfassung ist eine der wesentlichen Fähigkeiten autonomer Fahrzeuge.

Vom Assistenzsystem zum autonomen Fahren

Der Weg hin zu einem vollständig autonomen System ist gleitend. Zur Klassifizierung des Automatisierungsgrades hat ein sechsstufiges System weltweite Anerkennung gefunden – es wurde unter anderem vom Internationalen Verband für Automobilingenieure SAE definiert, wird heute aber auch für andere Fahrzeugsegmente herangezogen. Danach entspricht die Stufe 0 einem Fahrzeug ohne jegliches Assistenzsystem, hier ist alleine der Fahrer für alle Funktionen zuständig. Im Level 1 unterstützen erste Assistenzsysteme den Fahrer wie zum Beispiel ein Tempomat. Teilautomatisierte Fahrzeuge mit Einpark- und Spurhaltesystemen, die also bereits Lenkbewegungen automatisiert durchführen können, zählen zum Level 2. Im Level 3 steuert sich das Fahrzeug größtenteils allein, der Fahrer muss das System nicht mehr dauerhaft überwachen. Die vollautomatisierten Fahrzeuge des Levels 4 meistern auch Risikosituationen ohne menschliche Hilfe, sind jedoch auf bekannte Strecken begrenzt. Erst im Level 5 wird vollständig autonom gefahren, in jeder Umgebung und in jeder Situation.

In begrenzten Räumen, wie in der Landwirtschaft, der Intralogistik, bei Stadtbahnen oder im Bergbau, sind bereits seit längerem hoch- und vollautomatisierte Fahrzeuge der Level 3 und 4 im Einsatz. Im Straßenverkehr dagegen sind jetzt erst Autos des Levels 3 unterwegs. Erste serienreife Autos, die zumindest unter bestimmten Bedingungen im realen Straßenverkehr ohne Fahrer auskommen (Level 4), sollen ab dem Jahr 2020 angeboten werden.

Damit ein Fahrzeug autonom sein Ziel erreichen kann, benötigt es verschiedene Fähigkeiten: Als Erstes muss es die Umgebung, durch die es sich fortbewegt, wahrnehmen – ansonsten würde es bereits am ersten Hindernis scheitern. Um dies zu verhindern, sind autonome Fahrzeuge mit den unterschiedlichsten Sensoren ausgerüstet: Ultraschallsensoren werden beim automatisierten Fahren vor allem für die Umgebungserkennung im Nahbereich bis zu sechs Metern und bei niedrigen Geschwindigkeiten, zum Beispiel beim Parken, benötigt. Radarsensoren liefern auf größere Entfernung wichtige 360-Grad-Umfeldinformationen. Die Hauptaufgabe eines Radarsensors ist das Erkennen von Objekten sowie die Messung von deren Geschwindigkeit und Position im Vergleich zur Bewegung des eigenen Fahrzeugs. Relativ neu sind Lidar-Sensoren, die mit unsichtbarem Laserlicht die Umgebung „abtasten“ und eine hochaufgelöste 3D-Karte des Umfelds erzeugen können. Videosensoren, vor allem in Stereo-Video-Kameras, liefern zusätzlich wichtige optische Informationen wie die Farbe eines Objektes. Jedes dieser Sensorsysteme hat seine Stärken und Schwächen. Um ein möglichst exaktes und verlässliches Bild der Umgebung zu erhalten, werden daher in autonomen Fahrzeugen – je nach Einsatz – mehrere Sensoren zusammen eingesetzt und ihre Daten „fusioniert“, also zusammengeführt.

Hochauflösende Karten über die Cloud

Neben der Fähigkeit, das Umfeld zu „sehen“, muss ein autonomes Fahrzeug aber auch navigieren können. Über Satellitennavigationssysteme wie zum Beispiel GPS wissen die Fahrzeuge, wo sie sich aktuell befinden und können darauf basierend ihren Weg errechnen. Dabei greifen sie auf hochauflösende, hochaktuelle Karten zurück, die über die reine Topologie hinaus möglichst auch aktuelle Ereignisse wie Staus dynamisch mit einbauen. Diese Karten können lokal im Fahrzeug oder in der Cloud hinterlegt sein. Gerade im letzteren Fall ist ein leistungsstarkes Kommunikationssystem erforderlich, damit die Daten der Karte in Realzeit aktualisiert werden können. Die Basis dafür bildet zum Beispiel der Mobilfunkstandard 5G. Er ermöglicht ein „taktiles Internet“, das neben Übertragungsraten von mehr als zehn Gigabit pro Sekunde eine ultraschnelle Reaktion mit einer Verzögerung von weniger als einer Millisekunde garantiert. So vernetzt, kann für komplexe Berechnungen zur Situationsanalyse oder Wegfindung auf die nahezu unbegrenzten Ressourcen des Cloud-Computing zurückgegriffen werden.

Lernen als Basis für richtiges Reagieren

Denn die Auswertung der gewaltigen Datenmengen, die von den Sensorsystemen des Fahrzeugs generiert werden, sowie die Situationsinterpretation benötigen erhebliche Rechenkapazitäten. Technologien, die unter Künstlicher Intelligenz zusammengefasst werden, gewinnen zunehmend an Bedeutung. Insbesondere das maschinelle Lernen ist ein essenzieller Bestandteil eines autonomen Systems: Erst dadurch erhält das Fahrzeug die Möglichkeit, intelligent und unabhängig vom Menschen zu agieren. Durch das maschinelle Lernen können autonome Systeme neues Wissen aus gesammelten und bereitgestellten Daten generieren und ihre Wissensbasis beständig erweitern. Ohne dieses eigenständige Lernen wäre es nahezu unmöglich, sinnvolle Reaktionen auf alle prinzipiell denkbaren Situationen in einer Programmierung festzulegen.

Funktionale Sicherheit – Notfallplan

Wenn kein Mensch mehr bei einer Fehlfunktion rechtzeitig eingreifen kann, muss die Technik besonders sicher sein. Spezielle Elektronik und neue Prüfverfahren sind notwendig, um die funktionale Sicherheit bzw. Cybersecurity eines autonomen Fahrzeugs zu gewährleisten.

Vertrauen in die Technik ist das A und O für den Erfolg autonomer Fahrzeuge. Die eingesetzten Systeme müssen nicht nur sehr zuverlässig sein, sondern im Falle eines technischen Defektes auch so ausgelegt werden, dass das Versagen nicht zu einer Gefährdung von Mensch und System führt. Die entsprechenden Anforderungen und Verfahren dazu werden unter dem Begriff „Funktionale Sicherheit“ zusammengefasst. „Die Transformation der Automotive-Industrie verlangt im Grunde von der Öffentlichkeit, ihr Leben einem Computer und einer Maschine anzuvertrauen“, so Zach McClellan. Der ehemalige Baseballstar leitet heute die Schulungsabteilung des US-amerikanischen Engineering-Dienstleisters LHP. „Ganz praktisch gesprochen ist Funktionale Sicherheit definiert als die Maßnahmen, die Ingenieure und Organisationen zur Vermeidung von Fehlern unternehmen, die der Öffentlichkeit Schaden zufügen.“

Einfach abschalten geht nicht

Bei autonomen Fahrzeugen genügt es nicht, ein System einfach abzuschalten, um in einen sicheren Zustand zu kommen – eine Drohne würde vom Himmel fallen oder ein Auto unkontrolliert eine Vollbremsung ausführen. Das bedeutet, dass kritische Systeme eine bestimmte Zeit, auch nachdem ein Fehler aufgetreten ist, noch am Leben gehalten werden. Ein Notfallplan muss her, und der muss schon bei der Entwicklung eines autonomen Fahrzeugs definiert werden. Bereits heute gibt es entsprechende Normen, die dazu erforderliche Methoden in der Entwicklung und Produktion definieren: Zum Beispiel ISO 26262 für Straßenfahrzeuge, ISO 25119 für landwirtschaftliche Fahrzeuge oder ISO 15998 für Baumaschinen.

Sicherheit beginnt in den elektronischen Komponenten

Die Entwicklung eines funktional sicheren Fahrzeugs beginnt bei den einzelnen Komponenten – und vor allem bei den Halbleitern. Denn sie sind in den Systemen zur Umfelderkennung verbaut, in ihnen laufen die Informationen der verschiedenen Sensoren zusammen und sie berechnen die notwendigen Steuerbefehle und bestimmen, wie ein Fahrzeug agiert. Eine Fehlfunktion könnte katastrophale Folgen für das autonome Fahrzeug, seine eventuellen Insassen und die Umgebung haben. Die Halbleiterindustrie hat daher für den Einsatz beim automatisierten Fahren inzwischen spezielle Halbleiter entwickelt, deren Architektur bereits auf Basis eines auditierten ISO-26262-konformen Prozesses designt worden ist. Die Prozessoren müssen eine hohe Zuverlässigkeit bieten und auch bei Vibrationen, Strahlung (zum Beispiel von der Sonne) oder hohen Temperaturschwankungen ihre Aufgaben sicher erfüllen – alles für den Einsatz in Fahrzeugen typische Umgebungsbedingungen. Funktional sichere Prozessoren überwachen sich selbst bei der Ausführung von Prozessen. Bei diesen Multi-Thread-Systemen wird jede Anweisung parallel in zwei oder mehreren Kernen oder Prozessen verarbeitet. Die Ergebnisse werden dann mithilfe einer Hardware-Logik in Echtzeit miteinander verglichen. Ein Unterschied in den Ergebnissen bedeutet, dass in einem der Berechnungsstränge ein Fehler aufgetreten ist. In diesem Fall gibt das System eine Fehlermeldung oder löst eine entsprechend definierte Notfallaktion aus.

Neue Prüfverfahren werden benötigt

Sichere Elektronik ist das eine, doch es werden auch Prüfungen benötigt, die die Funktionale Sicherheit eines Fahrzeugs belegen. Doch dazu existieren bisher noch keine Verfahren oder Prüfzertifikate. Prüforganisationen wie der TÜV arbeiten in verschiedenen Projekten daran, neue Standards und Prüfkriterien für das autonome Fahren zu definieren und so eine Sicherheitsgrundlage für die Praxistauglichkeit der neuen Technologie zu schaffen. Dabei lassen sich nicht alle im Betrieb eines autonomen Fahrzeugs möglicherweise auftretenden Situationen auf einer Teststrecke nachstellen. Daher sind zusätzliche neue Methoden erforderlich, mit denen Sicherheitssysteme auf ihre Wirksamkeit geprüft werden können. Simulationen spielen hierbei eine wichtige Rolle und werden in Ergänzung zu Realtests ausschlaggebend sein.

Bei vernetzten autonomen Fahrzeugen müssen zudem Technologien von unterschiedlichen Zulieferern und aus verschiedenen Branchen in End-to-End-Systeme integriert und im Ökosystem für vernetzte Fahrzeuge validiert werden. Dazu hat FEV, ein Dienstleister im Bereich der Fahrzeugentwicklung, eigens ein globales „Center of Excellence“ für die Entwicklung von „Smart Vehicles“ gegründet. Stephan Tarnutzer, Vice President Electronics bei FEV Nordamerika und Leiter des Centers, betont: „Um die Vielzahl der resultierenden Wechselwirkungen innerhalb, außerhalb und rund um das Fahrzeug zu beherrschen, ist es essenziell, bei jedem Entwicklungsschritt das Gesamtsystem zu betrachten.“

(Bildnachweis: iStockphoto Edi_Eco)

Kommunikation autonomer Autos

Die Kommunikation autonomer Autos ist der Schlüssel zum sicheren Fahren. Sie können über die Cloud von den Erfahrungen anderer Fahrzeuge profitieren, von ihnen erfasste Daten in Echtzeit in allgemein zugängliche Karten laden und per WLAN ihre Umgebung vor Gefahren warnen.

Sensorsysteme wie Lidar, Radar oder Kameras liefern heute bereits ein sehr exaktes Bild des Umfelds eines autonomen Fahrzeugs. In Kombination mit künstlicher Intelligenz und ausgefeilten Algorithmen kann es auf das Geschehen um sich herum reagieren – fast so wie ein Mensch. Doch wie der Mensch kann das Fahrzeug mit diesen Sensoren nur auf das reagieren, was im Sichtfeld liegt. Um auch „um die Ecke schauen“ zu können, sollen autonome Fahrzeuge daher vernetzt werden und mit ihrer Umgebung beziehungsweise der Infrastruktur kommunizieren können.

„Die Übertragung von Daten ins Fahrzeug, sowohl für Echtzeitanwendungen als auch für Wartung und Betrieb, ist eine Schlüsseltechnologie für das automatisierte Fahren“, betont Armin G. Schmidt, CEO von ATS Advanced Telematic Systems. Das deutsche Software-Unternehmen mit Fokus auf vernetzte Fahrzeuge entwickelt Lösungen für die Zukunft der Mobilität. Hierbei setzt ATS auf die Etablierung von industrieweiten Standards und Open-Source-Technologie. „Der Austausch der Daten zwischen Fahrzeugen, also auch zwischen unterschiedlichen Herstellerplattformen, erfordert eine Standardisierung, die weiter vorangetrieben werden muss“, so Schmidt.

In Millisekunden die Umgebung warnen

In Europa hat sich für die Kommunikation von Fahrzeugen im Straßenverkehr als ein Standard ITS-G5 des European Telecommunications Standards Institute (ETSI) etabliert. Es handelt sich um eine Variante des WLAN-Standards IEEE 802.11, der für den Datenaustausch zwischen Fahrzeugen optimiert wurde und inzwischen auch in den USA anerkannt ist. Er nutzt das 5,9-GHz-Frequenzband und ermöglicht eine echtzeitnahe Kommunikation auf kurze Distanz. Die Technik gewährleistet bei hoher Geschwindigkeit der Fahrzeuge eine zuverlässige Übertragung und erlaubt auch ohne Router die direkte Kommunikation zwischen einzelnen Fahrzeugen (Car-to-Car) und zwischen Fahrzeug und Infrastruktur (Car-to-X, Vehicle-to-X [auch V2X]). So können plötzlich auftretende Ereignisse oder Gefahrensituationen innerhalb weniger Millisekunden an die Umgebung kommuniziert werden. Zum Beispiel kann ein Auto den nachfolgenden Verkehr automatisch warnen, wenn es einen Unfall hatte oder vor ihm eine Nebelbank auftaucht. „Die Vorteile für die Sicherheit und Wahrnehmung, die V2X als Sensor bietet – mit seiner Fähigkeit um die Ecke zu schauen –, sind bereits ohne jeden Zweifel erwiesen. Es liefert relevante und verlässliche Warnmeldungen für Fahrerassistenzsysteme“, unterstreicht Jozef Kovacs, CEO der US-amerikanischen Firma Commsignia, einem Anbieter von Software- und Hardware-Lösungen für das vernetzte Auto.

Allerdings werden Straßenfahrzeuge in Zukunft wohl nicht nur mit einer Kommunikationstechnologie ausgestattet sein: Erste Lösungen realisieren ein sogenanntes adaptives hybrides Netzwerkkonzept. Dabei werden verschiedene Drahtlostechnologien wie ITS-G5, LTE-Mobilfunk oder 60-GHz-Technologien (hier werden die Wellenform und die typischen Empfängeralgorithmen des WLAN-Standards IEEE 802.11ad genutzt, um einen gemeinsamen Rahmen für die Fahrzeugkommunikation und die Radartechnologien bei 60 GHz zu ermöglichen) in einem Kommunikationsstack integriert. Die Auswahl der optimalen Kommunikationstechnologie erfolgt adaptiv, das heißt abhängig von der Situation in Echtzeit. Kriterien für die Auswahl der Funktechnologie sind beispielsweise die vorhergesagte Verfügbarkeit oder die Signalqualität.

Menge an Daten, die ein autonomes Fahrzeug am Tag generiert.
Quelle: Intel

Kameras: 20-24 MB pro Sekunde
Sonar: 10-100 KB pro Sekunde
GPS: 50 KB pro Sekunde
Lidar: 10-70 MB pro Sekunde
Radar: 10-100 KB pro Sekunde

Mit 5G in die Cloud

Mobilfunk-Technologien bieten den Vorteil unbegrenzter Reichweite, denn ITS-G5 kann nur Distanzen bis maximal einen Kilometer überbrücken. Schon heute werden zum Beispiel LTE-Netze beim automatischen Notrufsystem ECall genutzt. In Zukunft wird das noch zu realisierende 5G-Netz diese Rolle übernehmen. „Wir gehen davon aus, dass 5G der weltweit dominierende Mobilfunk-Standard der nächsten Dekade wird“, meint Dr. Christoph Grote, Senior Vice President Electronics bei BMW. „Für die Automotive-Industrie ist es essenziell, dass 5G die Herausforderungen der Ära der Digitalisierung und des autonomen Fahrens erfüllt.“ BMW hat daher gemeinsam mit Audi, Daimler, Ericsson, Huawei, Intel, Nokia und Qualcomm die „5G Automotive Association“ gegründet, die entsprechende Kommunikationslösungen entwickeln, testen und promoten will. „Cloud, Kommunikations- und Netzwerk-Technologien sowie Innovationen haben das Potenzial, das Auto in ein vollständig vernetztes Gerät zu transformieren, das das Fahren revolutioniert und das auf die Mobilitätsansprüche der Gesellschaft abzielt“, ergänzt Dr. Marc Rouanne, Chief Innovation & Operating Officer bei Nokia.

Cloud, Kommunikations- und Netzwerk-Technologien sowie Innovationen haben das Potenzial, das Auto in ein vollständig vernetztes Gerät zu transformieren, das das Fahren revolutioniert.“ 

Dr. Marc Rouanne, Chief Innovation & Operating Officer, Nokia

Präziser Navigieren mit Flottendaten

Derartige Technologien bieten zum Beispiel die Möglichkeit, die Erfahrungen, die ein lernfähiges autonomes Fahrzeug gemacht hat, über die Cloud an andere Fahrzeuge weiterzugeben. Auch für die Navigation eröffnen sich mit Cloud-Technologien neue Möglichkeiten: So hat zum Beispiel das israelische Unternehmen Mobileye, Hersteller von Technologien zur Unfallprävention und zum automatischen Fahren, die kamerabasierte Karten- und Lokalisierungstechnologie „Road Experience Management“ (REM) entwickelt. Via Crowdsourcing werden die Echtzeitdaten vieler Fahrzeuge, eines Schwarms von Autos, gesammelt und zur präzisen Lokalisierung und zum Erfassen von High-Definition-Spurdaten genutzt. Dazu erfassen die Fahrzeuge über optische Sensorsysteme Fahrbahnmarkierungen und Straßeninformationen, die komprimiert in eine Cloud fließen. Diese Flottendaten werden zur kontinuierlichen Verbesserung von HD-Navigationskarten mit hochpräziser Lokalisierungsfähigkeit eingesetzt. Sie wiederum sind eine Grundvoraussetzung für das automatische Fahren und die Weiterentwicklung vieler Assistenzsysteme. „Die Zukunft des automatischen Fahrens hängt von der Fähigkeit ab, präzise HD-Karten zu erstellen, diese aktuell zu halten und mit minimalen Kosten zu skalieren“, skizziert Prof. Amnon Shashua, Mitbegründer und Technologievorstand von Mobileye. Anfang 2017 hat -Mobileye dazu mit dem Volkswagen-Konzern vereinbart, ab 2018 einen neuen Navigationsstandard für das automatische Fahren zu realisieren. Künftige Volkswagen-Modelle werden REM nutzen. Die Vereinbarung ermöglicht als erste ihrer Art das weltweite Zusammenführen von Daten verschiedener Automobilhersteller zu einer „HD-Weltkarte“. Und damit wird ein branchenweiter Standard geformt. Dr. Frank Welsch, Volkswagen-Markenvorstand für den Geschäftsbereich Entwicklung: „Tagtäglich fahren weltweit Millionen von Volkswagen durch unsere Straßen. Viele davon sind bereits mit Umfeldsensorik ausgestattet. Diesen Schwarm können wir nun nutzen, um unterschiedliche Umfelddaten, etwa über Verkehrsfluss, Straßenzustand und freie Parkplätze, anonymisiert zu erfassen und in übergeordneten Systemen hochaktuell verfügbar zu machen. Auf dieser Basis sind weitergehende Dienste geplant, die das Autofahren oder die Mobilität allgemein einfacher und komfortabler machen.“

(Bildnachweis: Unsplash)

Lidar – Laser ersetzt Radar

Kleine oder schnelle Objekte zu erkennen, das ist die Stärke von Lidar. Die auf LaserPulsen basierende Technologie ergänzt zunehmend Radar- und Kamerasysteme.

Um ein möglichst umfassendes Bild der Umgebung mit möglichst geringem Fehlerrisiko zu erfassen, werden bei autonomen Fahrzeugen verschiedene Sensortechnologien eingesetzt. Während Radartechnologie auf hochfrequenten elektromagnetischen Schwingungen basiert, arbeitet das sogenannte Lidar mit Laserstrahlen, um im Nahbereich des Fahrzeugs den Abstand zu Objekten zu bestimmen. Lidar wird vor allem genutzt, um kleinere Objekte auf der Straße zu erkennen.

Allerdings ist nicht nur die Straße ein Einsatzgebiet für diese Sensortechnik. „Alle reden nur von autonomen Fahrzeugen, aber autonome Systeme sind auch in der Industrie ein großer Trend“, betont Dr. Dirk Rothweiler, CEO des Berliner Unternehmens First Sensor. Das Unternehmen produziert sogenannte Avalanche-Fotodioden, die die Laserreflexionen in Lidar-Systemen erfassen. Lidar-Technologie ist in vielen industriellen Anwendungen bereits heute technischer Standard, wie Rothweiler erklärt: „Unsere Kunden setzen im Bereich der industriellen Längenmessung seit Jahren auf Lidar, zum Beispiel bei der Geschwindigkeitsmessung oder zur Kontrolle von maschinellen Sicherheitsbereichen. Ein wachsendes Feld ist die Anwendung in autonomen Systemen. Im industriellen Umfeld sind diese leichter einzuführen, da die Umgebung und die Einflussfaktoren kontrollierbar sind.“ Hier sorgen Lidar-Systeme zum Beispiel dafür, dass mobile Roboter nicht mit Menschen im Produktionsumfeld kollidieren oder autonome Transport- und Logistiksysteme komplexe Aufgaben wie die Bestückung von Paletten übernehmen können.

Laserdioden als Grundlage

Lidar steht für Light Detection and Ranging. Das Grundprinzip ist die Laufzeitmessung: Ein sehr kurzer Laserpuls wird ausgesandt, trifft auf ein Objekt, wird reflektiert und von einem Detektor erfasst. Aus der Laufzeit des Laserstrahls ergibt sich die Entfernung des Objekts. Enorm leistungsstarke infrarote Impuls-Laserdioden mit kurzer Schaltzeit bilden die technische Grundlage von Lidar-Systemen. Mit einer optischen Pulsleistung von etwa 25 Watt und einem Spektralbereich von 905 Nanometern sind ihre Impulse für den Menschen so gut wie gar nicht wahrnehmbar. Für das menschliche Auge sind sie vollkommen ungefährlich.

Scanning-Lidar-Systeme rastern horizontal mit einem Laserstrahl über ein bestimmtes Winkelsegment die Umgebung des Fahrzeugs ab und erzeugen eine hochaufgelöste 3D-Karte des Umfelds. Anfangs wurde die Umlenkung der Laserstrahlen in Scanning-Lidar-Systemen mit mechanisch bewegten Spiegeln realisiert. Preisgünstiger, kompakter und robuster sind allerdings Miniatur-Laser-Scanning-Module mit integrierten MEMS-Mikrospiegeln auf Siliziumbasis, wie sie in letzter Zeit auf den Markt gekommen sind. Die Mikro-spiegel bündeln und feinjustieren die Laserstrahlen. Aktuelle Systeme mit Festkörperlaser erreichen Reichweiten von mehr als 200 Metern und eine hohe Auflösung von weniger als 0,1 Grad.

Ergänzung zu anderen Sensorsystemen

Der große Pluspunkt von Lidar gegenüber anderen Sensorsystemen ist die umfassende Datenerfassung: Lidar sammelt mehr Informationen von den einzelnen Datenpunkten als jedes andere System – so zum Beispiel x-, y- und z-Koordinaten, Zeit oder Grad der Reflexion. Reflektierende Oberflächen wie Verkehrsschilder oder auch Straßenmarkierungen liefern ein stärkeres Signal, so dass ein Lidar Fahrbahnbegrenzungen oder Schilder schneller erkennen kann. Das könnte auch eine Kamera bieten. Doch sie könnte von Gegen- oder Sonnenlicht geblendet werden und ist nur begrenzt bei Nacht oder schlechten Sichtverhältnissen einsetzbar. Allerdings liefern auch Lidar-Systeme bei starkem Niederschlag nur noch eingeschränkt Daten. Hier punktet Radar, das durch Objekte „hindurchsehen“ kann. Dafür haben Radarsysteme nicht die hohe Auflösung, die nötig ist, um kleine Objekte oder mehrere Objekte, die sich mit hoher Geschwindigkeit bewegen, zu entdecken. Lidar dagegen kann klar auch kleine Objekte unterscheiden.

„Auch die aggressivsten Start-ups erwarten nicht, dass Lidar die Patentlösung für Erfassung und Wahrnehmung autonomer Fahrzeuge ist“, meint James Hodgson, Senior-Analyst bei ABI Research. „Aber die natürlichen Charakteristika der Technologie passen sehr gut zu denen von Radar und Kamera, die bisher die Kernelemente der Hinderniserkennung waren.“ Seiner Meinung nach sind aber vor allem die hohen Kosten noch Barrieren für eine breitere Anwendung. Wobei die Systeme immer günstiger werden: Die niederländische Firma Innoluce, die inzwischen zu Infineon gehört, plant, zukünftig Automotive-Lidar-Systeme für weniger als 100 US-Dollar auf den Markt zu bringen.

(Bildnachweis: iStockphoto: Jevtic, Kaphoto, photobac, sturti)

Autonomer Bus – Ein Resümee

Nach einem Jahr Einsatz zweier autonomer Kleinbusse in der Schweiz kann ein erstes Fazit gezogen werden: Die Akzeptanz durch die Fahrgäste ist hoch, doch die Technologie steht noch in den Anfängen.

Ein kleines Schweizer Städtchen nimmt bei der Nutzung von automatisierten Bussen eine Pionierrolle ein: Seit Juni 2016 fahren zwei Elektro-Shuttles des französischen Herstellers Navya durch die Innenstadt von Sitten im Kanton Wallis – damit gehört der Betreiber Postauto zu den ersten Anbietern weltweit, die automatisierte Busse für den Personentransport auf öffentlichen Straßen einsetzen.

Noch handelt es sich um einen auf zwei Jahre angelegten Test, und noch fährt ein Sicherheitsbegleiter mit, der das System überwacht und im Bedarfsfall eingreifen kann. Ziel des Pilotprojekts ist, die neue Technologie im öffentlichen Raum zu testen und so Erfahrungen für zukünftige Einsatzmöglichkeiten zu sammeln. Daniel Landolf, CEO von PostAuto Schweiz: „Wir wollen von der neuen Technologie und ihren Möglichkeiten lernen, um für die ganze Branche des öffentlichen Verkehrs neue Mobilitätslösungen zu entwickeln.“

21.500 Personen in einem Jahr

Nach rund einem Jahr haben die beiden 4,8 Meter langen und mit elf Sitzplätzen ausgestatteten Elektro-Shuttles mehr als 21.500 Personen befördert. Sie waren 312 Tage im Einsatz und legten mehr als 4.500 Kilometer zurück. Auch wenn viele Fahrgäste vor der Fahrt skeptisch sind – hinterher zeigen sich gerade ältere Passagiere begeistert von der Technik. Dabei sind sie alles andere als normal: Die kleinen selbstfahrenden Busse besitzen weder Lenkrad noch Pedale. Zwei Stereokameras im unteren Bereich der Frontscheibe überwachen die Fahrbahn und erkennen Ampeln oder -Verkehrsschilder. Sechs Lidar-Sensoren scannen die Fahrzeug-umgebung zusätzlich in einem Winkel von 360 Grad und einem Umkreis von 50 bis 100 Metern. Über Satellitennavigation findet das Smartshuttle seinen Weg durch die Innenstadt. Dazu musste allerdings vorher die Strecke manuell abgefahren werden, wobei der autonome Bus über eine Konsole gelenkt wird. Bei dieser „Erkundungsfahrt“ erfassen die Sensoren des Fahrzeugs die Umgebung und erstellen darauf basierend eine 3D-Karte. Danach ist das Shuttle in der Lage, seine eigene Position für das automatisierte Fahren auf der Strecke zu bestimmen und Hindernisse zu erkennen. Das Fahrzeug fährt wie auf virtuellen Schienen. Allerdings ist es noch nicht vollständig autonom: Wenn es, zum Beispiel wegen falsch geparkter Autos, von der programmierten Linie abweichen muss, steuert das der Begleiter manuell über die Konsole. Zusätzlich überwacht von einer Betriebszentrale aus ein Teleoperator die Shuttles und kann aus der Distanz sofort eingreifen und den Bus an der nächsten Haltestelle stoppen oder zur Ladestation schicken.

Die Cloud am Steuer

Die cloud-basierte Flotten-Management-Software der Schweizer- Firma Bestmile ermöglicht es den selbstfahrenden Fahrzeugen, als Flotte zu kooperieren. Sie verwaltet sowohl fahrplangebundene Fahrten als auch Fahrten auf Abruf und ist unabhängig von Fahrzeugherstellern. Mit modernen Algorithmen zur Planung, automatischem Einsatz-Management in Echtzeit, Streckenberechnung und Energie–Management integriert Bestmile die „individuellen Roboter“ in ein intelligentes und flexibles Mobilitätssystem. Die Flotten-Management-Software kommuniziert zudem in Echtzeit mit der Steuerungs-Software des Shuttles. Die Software im Bus steuert das Fahrzeug, bestimmt die Geschwindigkeit und betätigt die Bremsen. Auch wenn die Busse eine Höchstgeschwindigkeit von 45 Kilometern pro Stunde erreichen können, fahren sie in Sitten nicht schneller als 20, die Durchschnittsgeschwindigkeit liegt sogar nur bei sechs Kilometern pro Stunde.

Autonome Busse noch in den Anfängen

Das vergangene Jahr hat gezeigt, wie viel Potenzial in automatisierten Bussen steckt. Es zeigte aber auch, dass trotz ausgereifter Technologie der Fahrbetrieb mit automatisierten Bussen noch in den Anfängen steht. Aufbau und Betrieb sind aufwändig und müssen streng überwacht werden. Noch geht es nicht ohne manuelle Eingriffe der Begleiter: Wobei sie in 80 Prozent der Fälle falsch geparkte Autos umfahren mussten. Außerdem ist das System bei starkem Schneefall nicht einzusetzen. Auch einen Unfall gab es bereits: Im September 2016 touchierte eines der beiden Shuttles die offene Heckklappe eines geparkten Lieferwagens. Beide in den Vorfall verwickelten Fahrzeuge wurden leicht beschädigt. Aber aus genau derartigen Fehlern wird gelernt: Postauto und der Fahrzeugkonstrukteur Navya haben kleine technische und organisatorische Anpassungen vorgenommen. So wurde beispielsweise der Sicherheitsabstand für das Befahren von Kurven erhöht, sodass die Fahrzeuge sensibler auf Hindernisse reagieren und schneller anhalten können.

Blick in die Zukunft

Zurzeit wird geprüft, das Streckennetz der Shuttles in der Stadt Sitten zu vergrößern und so anzupassen, dass die Smartshuttles in die gesamte Mobilitätskette integriert werden können. Als Ergänzung und Verbesserung des Angebots auf der letzten Meile würden die Smartshuttles damit ein erklärtes Ziel von Postauto erfüllen. Zudem wird geprüft, ob die Testphase verlängert wird, so dass weitere Vorteile für die Fahrgäste wie etwa ein Rufbusangebot eingerichtet werden können.

(Bildnachweis: PostAuto Schweiz)

3D-Kameras für mehr Sicherheit

Mit heutigen 3D-Kameras lassen sich Hindernisse auf dem Weg autonomer Fahrzeuge sicher erkennen. Moderne Systeme liefern so präzise Informationen, dass sogar bestimmt werden kann, ob es sich um einen Gegenstand oder doch um einen Menschen handelt. Die Sicherheit beim autonomen Fahren wird so verbessert.

Die genaue Erfassung der Umgebungssituation ist eine entscheidende Grundlage für den erfolgreichen Einsatz autonomer Fahrzeuge. Neben Sensorsystemen wie Lidar, Radar und Ultraschall können auch 3D-Kameras dafür eingesetzt werden, dass ein autonomes Fahrzeug seine eigene Position und die der Objekte in seiner Umgebung jederzeit genau kennt, um Fahrmanöver präzise durchführen zu können. Dabei kommen unterschiedliche Technologien zum Einsatz.

Stereokameras simulieren Augenpaar

Bei Stereokameras arbeiten zwei digitale Kameras zusammen. Deren Bilder ermöglichen – vergleichbar mit dem räumlichen Sehen eines Augenpaars – die Tiefenwahrnehmung der Umgebung und geben unter anderem Aufschluss über Position, Distanz und Geschwindigkeit von Objekten. Die Kameras nehmen die gleiche Szene aus zwei verschiedenen Positionen auf. Eine Software vergleicht beide Bilder und errechnet auf Basis der versetzten Bildpunkte mithilfe der Triangulation die für ein 3D-Bild benötigte Tiefeninformation. Noch exakter wird das Ergebnis, wenn strukturiertes Licht zu der Stereolösung hinzugefügt wird. Durch eine Lichtquelle werden geometrische Helligkeitsmuster auf die Szene projiziert. Dreidimensionale Formen verzerren dieses Muster – auch daraus lassen sich dann Tiefeninformationen berechnen.

ToF-Kameras messen die Laufzeit des Lichtes

Ein anderes Verfahren ist Time-of-Flight (ToF), das die Entfernung aus der Laufzeit vieler einzelner Lichtpunkte ermittelt. Das erfordert sehr schnelle und präzise Elektronik um auf eine Genauigkeit im ±1cm-Bereich zu gelangen. Das Lichtlaufzeitverfahren ist eine sehr effiziente Technologie, um Tiefendaten zu gewinnen und Entfernungen zu messen. Eine Lichtlaufzeitkamera liefert zwei Arten von Informationen für jedes Pixel: den Intensitätswert, ausgegeben als Grauwert, und den Abstand des Objektes von der Kamera, nämlich den Tiefenwert. Aktuelle ToF-Kameras verfügen über einen Bildchip mit vielen Tausend Empfangselementen. So können sie mit einer hohen Detailgenauigkeit eine komplette Szene in nur einer Aufnahme vermessen.

Präzisere Information durch Kamerafusion

Während die grundlegenden Techniken inzwischen schon vielfach im Einsatz sind – bei Assistenzsystemen im Auto, Robotern in der Industrie, auf dem Feld wie auch bei Drohnen –, versucht die Forschung, die Systeme weiter zu optimieren. So haben 3D-Kameras, die bei unterschiedlichen Lichtverhältnissen arbeiten müssen, den Nachteil großer Pixel und somit einer geringen Auflösung. Um das auszugleichen, wird zum Beispiel daran gearbeitet, über eine Software die Bilder von 3D-Kameras mit denen von hochauflösenden 2D-Kameras zu „fusionieren“. So erhält man hochaufgelöste 3D-Daten, die dann mithilfe künstlicher Intelligenz weiterverarbeitet werden können: Dank der hohen Auflösung lassen sich die erfassten Objekte klassifizieren – und ein Mensch kann sicher von einer Mülltonne unterschieden werden. Andere Projekte nutzen zusätzlich Farbkameras, so dass die Klassifizierung nicht nur über die Form, sondern auch über die Farbe erfolgen kann.

Sehen wie ein Adler

Ein weiteres Entwicklungsziel ist es, die Zahl der benötigten Kameras zu reduzieren. Bisher brauchte man eine ganze Reihe von Kameras und Sensoren rund um das Fahrzeug oder eine rotierende Kamera auf dem Dach, um ein möglichst großes Sichtfeld zu generieren. An der Universität Stuttgart wurde ein Adlerauge zum Vorbild genommen, um das Sichtfeld einer einzelnen Kamera zu vergrößern. Das Adlerauge verfügt über extrem viele Sehzellen in der zentralen Fovea, dem Bereich des schärfsten Sehens. Zusätzlich haben Adler eine zweite Fovea am Augenrand, die für scharfe Sicht nach den Seiten sorgt. Die Wissenschaftler haben einen Sensor entwickelt, der quasi ein Adlerauge auf kleiner Fläche nachbildet. Die Forschung war unter dem Dach des Forschungszentrums SCoPE der Universität Stuttgart angesiedelt und konnte dank neuester 3D-Druck-Technologie der Karlsruher Firma Nanoscribe realisiert werden. Die Stuttgarter Forscher druckten direkt auf einen hochauflösenden CMOS-Chip einen ganzen Satz von Mikro-Objektivlinsen, die verschiedene Brennweiten und Sichtfelder haben. Die kleinste Linse hat eine Brennweite, die einem Weitwinkelobjektiv entspricht, dann folgen zwei Linsen mit eher mittlerem Sichtfeld, und die größte Linse hat eine sehr lange Brennweite und ein kleines Sichtfeld wie ein typisches Teleobjektiv. Alle vier Bilder, die die Linsen auf dem Chip erzeugen, werden gleichzeitig elektronisch ausgelesen und verarbeitet. Dabei setzt ein kleines Computerprogramm das Bild so zusammen, dass im Zentrum das hochauflösende Bild des Teleobjektivs dargestellt wird und ganz außen das Bild des Weitwinkelobjektivs. Da das gesamte Sensorsystem nur wenige Quadratmillimeter groß ist – die Linsen haben Durchmesser im Bereich von hundert bis wenigen hundert Mikrometern –, könnten neben der Automobilindustrie zum Beispiel auch neuartige Minidrohnen von der Technologie profitieren.

Autonomes Fahren – Ein Überblick

Autonomes Fahren / Autonome Fahrzeuge werden alle Bereiche der Mobilität verändern. Die Gründe für ­den Verzicht auf den Fahrer, Steuermann oder Piloten sind viel­fältig und reichen von mehr Sicher­heit über eine höhere Wirtschaftlichkeit bis hin zu geringeren ­Umweltbelastungen.

Selbstfahrende Autos, unbemannte Luftfahrzeuge oder fahrerlose Traktoren – autonomes Fahren existiert längst nicht mehr nur auf dem Papier. Zumindest als Prototypen „agieren“ sie zunehmend mitten unter uns: Maschinen, die unabhängig von menschlichen Befehlen selbstständig handeln und zumindest in Alltagssituationen die „richtigen“ Entscheidungen treffen. Neue Sensortechnologien, Vernetzungsmöglichkeiten und selbstlernende Algorithmen erlauben es den neuen Fahrzeugen, schnell, empfindlich und unter Berücksichtigung vielfältiger Daten auf ihre Umwelt zu reagieren.

Fahren ohne menschliche Kontrolle

Von einem autonomen Fahrzeug spricht man laut Definition des deutschen Fachforums Autonome Systeme, wenn ein System ein vorgegebenes Ziel selbstständig und von der jeweiligen Fahr- oder Umgebungssituation abhängig erreichen kann. Eine Lernfähigkeit ist nach dieser Definition keine Voraussetzung, aber eine mögliche Eigenschaft autonomer Fahrzeuge. In Bezug auf den automatisierten Straßenverkehr ist dies zum Beispiel erreicht, wenn das Fahrzeugsystem die Fahraufgabe „vollumfänglich, auf allen Straßentypen, Geschwindigkeitsbereichen und Umfeldbedingungen“ übernimmt. Fahrerlose Fahrzeuge treffen also Entscheidungen und übernehmen Aufgaben in unstrukturierten Umgebungen, ohne dass ein menschlicher Fahrer eine Kontrollfunktion ausübt.

46,8 % der Menschen ­weltweit würden ihre Kinder von ­einem autonomen Auto fahren lassen.
Quelle: Cisco Systems, 2013

Es eröffnen sich neue Geschäftsmodelle

Fahrzeuge mit diesen Fähigkeiten werden zurzeit nicht nur für den Straßenverkehr entwickelt, sondern genauso für Fahrten in der Tiefsee wie für Flüge in der oberen Atmosphäre. Sie ersetzen nicht nur einfach den Fahrer, Steuermann oder Piloten, sondern haben das Potenzial für völlig neue milliardenschwere Geschäftsmodelle: Autonome Drohnen, die monatelang in der Luft bleiben können und das Internet zu den 4,5 Milliarden Menschen bringen, die bisher offline sind, sind dafür nur ein Beispiel. Die größten Umwälzungen werden autonome Fahrzeuge wohl im Straßenverkehr verursachen. Autohersteller können rund um diese neue Technologie innovative Geschäftsmodelle aufbauen, beispielsweise durch Unterhaltungsangebote oder individuell zugeschnittene ­Wartungspakete, die das Fahrzeug in die herstellereigenen Werkstätten lotsen. Gleichzeitig müssen sich Unternehmen auf kürzere Entwicklungszyklen und neue Wettbewerber aus der IT- und Hightech-Branche einstellen. Vor allem aber zeichnen sich deutlich weniger Erlöse aus dem Autoverkauf ab: Analysten der Investmentbank Barclays gehen davon aus, dass dank Car-Sharing und autonomer Taxen die Pkw-Verkaufszahlen in den nächsten 25 Jahren um bis zu 50 Prozent fallen werden. Noch haben die Unternehmen Zeit, sich auf diese Umwälzungen vorzubereiten: Denn im komplexen Straßenverkehr wird erst um das Jahr 2030 herum mit vollständig autonomen Fahrzeugen gerechnet. Dagegen werden in kontrollierbaren Umgebungen – wie in der Landwirtschaft oder im Bergbau – selbstfahrende Fahrzeuge schon heute eingesetzt.

Autonome Fahrzeuge ersetzen nicht nur einfach den Fahrer, sondern haben das Potenzial für völlig neue milliardenschwere Geschäftsmodelle.

Vielfältige Benefits

Dabei sprechen die unterschiedlichsten Gründe für autonome Fahrzeuge: Im Straßenverkehr steht vor allem eine bessere Auslastung der Infrastruktur sowie eine Reduzierung der Unfälle im Fokus. Denn immerhin 90 Prozent aller Unfälle auf der Straße sind auf Fehler des Fahrers zurückzuführen. Gleiches gilt für die Luftfahrt – elektronische Systeme bleiben rund um die Uhr aufmerksam und aktuelle Mikroprozessoren können in einer Gefahrensituation rund 1.000 Mal schneller als der Mensch reagieren. Aber auch die Personalkosten für Piloten sind ein Grund, autonome Flugzeuge einzusetzen. Gleiches spricht im Bausektor für fahrerlose Fahrzeuge – immerhin lassen sich durch autonome Bagger und Lkw Arbeitskosten von bis zu 90 Prozent einsparen. Wobei die Maschinen gleichzeitig rund um die Uhr im Einsatz bleiben können – ohne die für den Menschen notwendigen Pausen. In der Logistik könnten so mittelfristig vollautomatisierte Lkw eine bessere Flottenauslastung ermöglichen und Lieferketten effizienter machen. Fehlende Arbeitskräfte sind ein weiterer Grund für vollautomatisierte Fahrzeuge: Das gilt für den Beruf des Truckers genauso wie für die Seefahrt. Gleichzeitig entlasten autonome Fahrzeuge auch die Umwelt: Bei Bau- und Landmaschinen soll eine CO2-Vermeidung von bis zu 60 Prozent möglich sein. In der Landwirtschaft können darüber hinaus völlig neue Methoden des Ackerbaus realisiert werden, mit denen der Einsatz von Spritzmitteln deutlich reduziert und der Boden geschont wird.

Wer trägt die Verantwortung

Doch bis diese Vorteile genutzt werden können, sind noch eine Reihe ethischer, rechtlicher und sozialer Fragen zu beantworten: Denn wer trägt die Verantwortung für die „Handlungen“ autonomer Fahrzeuge, wenn der Nutzer selbst an deren Entscheidungen nicht oder nur noch am Rande beteiligt ist? Und nach welchen Kriterien sollen Maschinen im Konfliktfall „entscheiden“, und wer legt diese fest? Dennoch sind sich die Experten sicher, dass diese Fragen geklärt und autonome Fahrzeuge schon in naher Zukunft eine Revolution der Mobilität anstoßen werden.
Autonome Fahrzeuge ersetzen nicht nur einfach den Fahrer, sondern haben das Potenzial für völlig neue milliardenschwere Geschäftsmodelle.

2 m ist die maximale Strecke, die ein aktueller NASA-Mars-­Rover­ an einem Stück zurücklegen kann, bevor er für neue Berechnungen stoppen muss. (Quelle: NASA)

57 % der Menschen weltweit würden in einem fahrerlosen Auto mitfahren. (Quelle: Cisco Systems)

1⁄3 der Fläche in großen US-Städten könnte durch autonomes Parken frei werden. (Quelle: www.2025ad.com)

50 % der Betriebskosten eines Schiffes werden durch die Crew verursacht. (Quelle: Moore Stephens LLP)

70 % beträgt der mögliche Anstieg der weltweiten Erträge in der Landwirtschaft durch den Einsatz von autonomen Fahrzeugen, Drohnen und anderen damit verbundenen Technologien. (Quelle: Goldman Sachs)

Dank schnell reagierender Elektronik kann der Sicherheitsabstand bei vernetzten Lkw-Kolonnen reduziert werden, von 50 auf 15 m (Quelle: www.2025ad.com)

Matthias Horx über Evolution und Zukunft der Mobilität

Der Blick in die Zukunft ist immer von Unsicherheit geprägt. „Die Zukunft als Ganzes und im Detail kann man natürlich nicht voraussagen“, meint Matthias Horx. „Aber man kann Scheinwerferkegel in die Zukunft werfen.“ Horx gilt als einflussreichster Trend- und Zukunftsforscher im deutschsprachigen Raum. Nach einer Laufbahn als Journalist gründete er zur Jahrtausendwende das „Zukunftsinstitut”, das zahlreiche Unternehmen und Institutionen berät. Heute sieht er sein Lebensprojekt darin, die Futurologie der 60er und 70er Jahre zu einer Consulting-Disziplin für Unternehmen, Gesellschaft und Politik weiterzuentwickeln. Gerade bei der Betrachtung zukünftiger Technologien setzt er auf einen „evolutionären“ Ansatz: Die Zukunft ist nicht das Ende einer geraden Linie, Altes wird nicht einfach durch Neues ersetzt. Vielmehr entwickeln sich menschliche Fähigkeiten und Bedürfnisse und die Angebote der Technik gemeinsam weiter. Die Zukunft entsteht so in immer neuen Kombinationen und Re-Kombinationen, von denen einige sich durchsetzen, andere aber -verworfen werden. Unter diesem Aspekt warf das Zukunftsinstitut für den ADAC auch einen „Schweinwerferkegel“ auf die Perspektiven der Mobilität. Die Studie „Die Evolution der Mobilität“ schaut bis zum Jahr 2040 – und prognostiziert einen tiefgreifenden Wandel für die Mobilität. Danach stehen wir am Beginn eines neuen multimobilen Zeitalters. Im Interview mit The Quintessence erzählt Matthias Horx, was darunter zu verstehen ist und welche Rolle autonome Fahrzeuge dabei spielen.

„Wenn man wirklich verstehen will, wie die Zukunft aussieht, muss man die Wechselwirkung von sozialen und technischen Prozessen verstehen.“

The Quintessence: Sie betrachten in Ihrem Zukunftsinstitut vielfältige Themen – erkennen Sie übergreifende Trends? 

Matthias Horx: Es gibt Modetrends, sozioökonomische Trends, Techniktrends und Megatrends, das sind die Langfristtreiber des Wandels wie etwa die Globalisierung oder die Urbanisierung. Und dann gibt es noch Metatrends, die langfristig die ganze Evolution antreiben. Herman Kahn, der berühmte Zukunftsforscher der 60er Jahre, hat einmal vom „Langfristig Komplexen Trend” gesprochen. Das ist vielleicht sogar das Evolutionsprinzip selbst, also eine Art Weltformel: Immer mehr Komplexität. Wobei man Komplexität nicht mit Kompliziertheit verwechseln darf!

Welche Rolle spielen technologische Ent­wicklungen bei Ihren Blicken in die Zukunft?

M.H.: Technologie ist ein wichtiger Veränderungsmotor, aber eben nicht der einzige. Wenn man wirklich verstehen will, wie die Zukunft aussieht, muss man die Wechselwirkung von sozialen und technischen Prozessen verstehen. Nicht alle Innovationen setzen sich am Markt durch. Momentan haben wir zum Beispiel einen Hype von Robotern, die immer menschenähnlicher aussehen. Ich prognostiziere: Das wird ein Flop. Wir sind zwar einerseits fasziniert von „Künstlichen Menschen”, aber andererseits gruselt es uns auch davor. Das ist ein natürlicher Anti-Reflex. Und wird die Blech- und Plastikkameraden irgendwann zurück in die Labore schicken. Dafür werden sie sich als Industrie­roboter in den Fabriken überall durchsetzen.

„Ich vermute, dass wir erst einmal 20, 30 Jahre pilotiert fahren und die volle Autonomie erst um 2040 oder 2050 einen echten Durchbruch erleben wird.“

Wie wird die Mobilität von morgen aussehen?

M. H.: Generell wird Mobilität sich entmaterialisieren und kulturisieren. Sie wird heute noch eher als funktionale Bewegung von A nach B wahrgenommen. Man fährt überwiegend, weil man „Strecken” zurücklegen muss. Aber das ändert sich. Man kann Distanzen auch immer mehr mit virtuellen Techniken überbrücken, mit Telepräsenz. Wir erleben andererseits auch ein neues Nomadentum, Menschen die immer unterwegs sind und daraus eine Lebensform gemacht haben. Mobilität ist ein Lifestyle.

Welche Rolle spielen dabei autonome Fahrzeuge insgesamt –­­ also auch Schiffe, Flugzeuge oder Bahnen?

M.H.: Wir können davon ausgehen, dass es in allen diesen Bereichen autonomes Fahren geben wird, die Frage ist nur wann. Es könnte sein, dass Schiffe sich sogar besser für die Vollautomatik eignen als Autos. Beim Straßenverkehr ist die Komplexität eben doch gigantisch. Ich vermute, dass wir erst einmal 20, 30 Jahre pilotiert fahren und die volle Autonomie erst um 2040 oder 2050 einen echten Durchbruch erleben wird. Aber dann muss es schnell gehen, denn eine Mischsituation mit teilweisen Selbstfahrern, teilweisen autonomen Fahrzeugen ist systemisch unwahrscheinlich. Bis 2040 werden aber wohl schon die meisten Schienenfahrzeuge automatisch fahren, das ist technisch viel leichter.

Gab es in der Studie „Evolution der Mobilität“­ Ergebnisse beziehungsweise Erkenntnisse, die Sie überrascht haben?

M.H.: Es war schon überraschend, wie deutlich die Bereitschaft der Menschen zu einer anderen Mobilität war. Die Menschen sind, was das Autofahren angeht, extrem gespalten. Einerseits gibt es immer noch 40 Prozent richtige Autofanatiker, für die das Autobesitzen eine undiskutierbare Identitätsfrage ist. Sozusagen die Taliban des Verbrennungsmotors. Andererseits sind die Vielautofahrer enorm durch die Staus genervt, und jetzt kommt auch noch die Dieseldebatte. Es gibt besonders in den Städten einen doch recht hohen Anteil von Leuten, die froh sind, kein Auto mehr zu besitzen – die das geradezu als Befreiung und Lebensqualität begreifen.

Haben Sie in der Studie nur den Straßenverkehr betrachtet?

M. H.: Das war natürlich ein Schwerpunkt, wobei es uns um ein ganzheitliches Verständnis von Mobilitätsprozessen geht. Straßenverkehr ist ja heute noch weitgehend Autoverkehr. Das wird nicht so bleiben. Wir stehen vor der „Kopenhagenisierung” der Städte. Da spielen Autos nur noch eine Rolle am Rande, die Straße gehört dann Fußgängern, Radlern und fliegenden Händlern …

In dem Zusammenhang sprechen sie auch von einer multimodalen Mobilität. Was verstehen Sie darunter?

M. H.: Schlichtweg die nahtlose Verbindung von verschiedenen Verkehrsmitteln­
bis zum Ziel, jederzeit einsetzbar und kombinierbar. Das Tolle am Auto ist ja, dass man von A nach B gelangen kann – mit Gepäck. Das geht in Zukunft auch ohne allzu großen Aufwand mit einer Kombination von, sagen wir – Elektroroller und Lastfahrrad und Zug und Drohne …

Viele Analysten sehen den Zenit der AutomobilBranche in zehn bis 15 Jahren erreicht. Welche Rolle spielt aus Ihrer Sicht das Auto in 2040?

M. H.: Mit solchen Formulierungen wäre ich vorsichtig. Denn einerseits ist die Autobranche schon jetzt an ihrem Zenit angelangt – so, wie sie heute ist, geht es nicht mehr weiter. Aber die Autobranche wird sich ja wandeln, sie wird mit der Energiebranche und der Computerbranche verschmelzen, und dann nennen wir sie vielleicht ganz anders …

Wie werden sich autonome Fahrzeuge auf unser Leben auswirken?

M. H.: Wir tun viele Dinge im Auto, die wir früher im Büro oder zu Hause getan haben. Schlafen, lieben, arbeiten … Allerdings ist das auch heikel, weil zum Beispiel unklar ist, ob das Autofahren nicht irgendwann zur Arbeitszeit dazugehört. Weshalb viele Menschen das Autofahren ja lieben, ist, dass es eine gewisse Entspannungsqualität hat, jedenfalls wenn der Verkehr fließt. Man kann sitzen und Musik hören, als Mitfahrer dösen, befindet sich also in einer sehr unterkomplexen Intensität der Handlung. Das wird von vielen Menschen als Erholung und Autonomie wahrgenommen. Das selbstfahrende Auto könnte das abschaffen, und deshalb sind viele Menschen instinktiv dagegen. Ein anderer Teil mag das Autonom-Auto nicht, weil es die Aggressivität des Autofahrens zerstört. Man kann nicht mehr steuern und rasen, und das Lichthupen auf der Autobahn ist vorbei. Wohin dann mit der ganzen inneren Wut?

Aber werden uns autonome Fahrzeuge nicht auch mehr Freiheiten ermöglichen?

M. H.: Die Freiheit, nicht mehr ganze Jahre seines Lebens mit dem Steuern und Bedienen eines Automobils zu verbringen, wäre eigentlich eine große Befreiung. Allerdings hätte man das auch mit dem Zug, und viele Menschen lieben ihren Sklavenstatus, so wie ja auch viele Menschen es sogar zu genießen scheinen, im Auftrag der Firma Ikea selbst Möbel zu bauen. Wir sind eigentlich ganz gern abhängig von Technologie, die Freiheit ist da wohl zweitrangig.­ Sonst würden die Menschen diese bizarren Stauerfahr­ungen­ wohl nicht hinnehmen.

Hand aufs Herz. Welche Entwicklungen haben Sie persönlich am meisten überrascht, weil Sie diese so gar nicht erwartet hatten?

M. H.: Trump.

Eines Ihrer Bücher heißt „Anleitung zum Zukunftsoptimismus“. Warum sollten wir optimistischer in die Zukunft blicken?

M. H.: Optimismus ist an sich ziemlich blöde, weil meistens blauäugig. Die Klügeren unserer Vorfahren waren keine Optimisten, sonst wären sie vor dem Alter tot gewesen, in dem sie sich fortpflanzen konnten. Ich bin Possibilist. Ich denke in Möglichkeiten und wähle die besseren als die Zukunftsperspektiven, die wir anstreben sollten.

Mobilität 2040: digital organisiert und individuell vernetzt

„Die Herausforderungen für die Mobilität der Zukunft liegen in der individuellen, intelligenten Vernetzung“, so ADAC-Präsident Dr. August Markl anlässlich der Vorstellung der vom Zukunftsinstitut erstellten Studie „Die Evolution der Mobilität“. „Unsere Mobilitätsmuster werden vielschichtiger und komplexer. Uns steht dabei keine disruptive Mobilitätswende bevor, sondern eine evolutionäre Entwicklung und Veränderung, die umso tiefgreifender und grundlegender sein wird.“

Das Bedürfnis nach Sicherheit, Gesundheit, intakter Umwelt und allgemeiner Lebensqualität wird in den kommenden Jahrzehnten weiter an Bedeutung gewinnen, so die Zukunftsstudie. Die Digitalisierung wird zur zentralen Grundlage der Mobilität von morgen. Bei steigendem Mobilitätsbedarf rechnen die Zukunftsforscher bis zum Jahr 2040 auch mit Veränderungen bei der bisherigen Autonutzung. Erwartet wird eine viel stärkere Vernetzung verschiedener Verkehrsträger bei der individuellen Fortbewegung. ÖPNV und Sharing-Angebote werden über digitale Plattformen integriert.

Auch die Entwicklung neuer Lebensstile, bedingt unter anderem durch eine veränderte Arbeitsweise oder die zunehmende Lebensdauer, wirken sich langfristig auf individuelle Mobilitätsmuster aus. Die Forscher rechnen bis 2040 mit vielfältigen Typen und Ausprägungen persönlicher Mobilität. Diese reichen von informationstechnisch versierten „Mobile Innovators“ bis hin zu „Silver Movern“, der anspruchsvollen Gruppe der Mobilen über 75-Jährigen.

Die komplette Studie „Die Evolution der Mobilität“ steht unter www.mobilitaet-2040.de zur Verfügung.

Kreativer Freiraum

Mit neuen Technologien und immer mehr Fähigkeiten werden Roboter in wenigen Jahren in alle Lebensbereiche vordringen. Das bietet nicht nur Unternehmen kreative Chancen für neue Geschäftsmodelle, wie die Teilnehmer des TQ-Round-tables sich sicher sind, sondern schafft auch für den arbeitenden Menschen Freiraum für mehr Kreativität.

Spätestens in zehn Jahren werden Roboter in jedem Bereich unseres Lebens existieren“, ist sich Roger Seeberger, Geschäftsführer bei Jinn-Bot, sicher. „In den vergangenen Jahren haben Roboter nur in statischen Umgebungen gearbeitet, jetzt erleben wir den Wechsel hin zu dynamischen Umgebungen“, so Seeberger weiter. „Das begann mit den kollaborativen Robotern von Universal Robots, aber heute geht das noch weiter – in der Schweiz wird zum Beispiel Pepper, der Assistenzroboter von Soft Banks, eingesetzt, um Kunden durch Supermärkte zu begleiten.“

Zusammenarbeit im Fokus

Lasse Kieffer, bis vor einem Jahr bei Universal Robots beschäftigt, verdeutlicht die Entwicklung durch eine schnell erstellte Zeichnung einer Pyramide: „Am Anfang, also an der Spitze der Pyramide, wurden Roboter vor allem in der Automotive Industrie genutzt. Nachdem sie sich dort bewährt hatten, wurden sie auch in anderen Industrien eingesetzt“, erklärt Kieffer weiter, während er mit dem Stift immer weiter in Richtung Pyramiden-Basis fährt. „Kollaborative Roboter haben dann eine noch breitere Anwendung ermöglicht, dort, wo traditionelle Roboter bis dato nicht sinnvoll eingesetzt werden konnten. Diese Entwicklung wird weitergehen und die Fähigkeiten kollaborativer Roboter werden sich erweitern.“ Für Kieffer, der zurzeit die Gründung einer eigenen Firma vorbereitet, eine natürlich Entwicklung, die einen immer größeren Markt für Robotik-Anwendungen schafft. Auch für Dr. Claus Lenz, Mitbegründer und Geschäftsführer von Blue Ocean Robotics Deutschland, ist die Zusammenarbeit das wesentliche Stichwort bei der weiteren Entwicklung von Robotern. Er sieht dabei drei Trends: „Zum einen kommen sich Roboter und Menschen in der industriellen Produktion immer näher. Zum anderen findet diese Annäherung auch in unserem täglichen Leben statt – mit Staubsauger-Robotern oder persönlichen Assistenz-Robotern. Und drittens werden auch Roboter untereinander verstärkt zusammenarbeiten – mehrere Roboter mit verschiedenen Fähigkeiten ergänzen einander, um gemeinsam eine Aufgabe zu lösen.“

„Heute steht für die Robotik Technologie zur Verfügung, die es vor wenigen Jahren noch nicht gab“
Jim Welander, System Field Applications Engineer, EBV Elektronik

Immer einfacher zu bedienen

Dabei profitieren die Entwickler neuer Robotik-Lösungen von den Fortschritten, die in Bereichen wie den Consumer Electronics oder im Automotive-Sektor gemacht wurden, meint Jim Welander, der als Field Application Engineer bei EBV in Dänemark besonders Robotik-Firmen betreut: „Damit stehen heute für die Robotik Technologien zur Verfügung, die es vor wenigen Jahren noch nicht gab.“ Zugleich sind Roboter immer einfacher zu bedienen, wie Welander ergänzt: „Früher brauchte man ein Ingenieurs-Diplom, um einen Roboter zu programmieren. Heute lernt das – zumindest in Dänemark – jedes Kind in der Schule.“ Grundsätzlich gilt, dass Menschen immer selbstverständlicher mit Hightech umgehen. „Junge Menschen haben damit heute kein Problem“, meint auch Roger Seeberger. „Doch bei den Senioren von heute sieht das anders aus – es wird eine Generation dauern, bis auch ältere Menschen mit Robotern umgehen können.“ Das sieht Claus Lenz nicht so – für ihn ist das nur eine Frage der Bedienbarkeit. „Wenn man in der Lage ist, einen Roboter mit einem natürlichen Interface zu bauen, das leicht zu verstehen ist, dann lassen sich Roboter auch in das Leben von Senioren integrieren.“ Dem stimmt Roger Seeberger durchaus zu – solange der Roboter einwandfrei funktioniert. „Aber derzeit sind wir noch nicht so weit, dass wenig technikerfahrene Menschen mit einem Roboter umgehen können, der eine Fehlfunktion hat.“ Dr. Lenz sieht darin aber keinen Hinderungsgrund: „Wenn eine Spülmaschine nicht funktioniert, rufen wir auch einen Servicetechniker. So könnte das in Zukunft auch bei Heim-Robotern sein – damit könnte sogar ein neues Geschäftsmodell entstehen …“

Preise für benötigte Elektronik werden fallen

Doch wie weit kann die Kollaboration zwischen Mensch und Maschine wirklich gehen? „Bis zum Sex-Roboter“, meint Lasse Kieffer. Wobei Claus Lenz hinterfragt, was denn genau Kollaboration bedeutet: „Reagiert der Roboter nur auf den Menschen? Dann sprechen wir eher von Interaktion. Eine echte Kollaboration bedeutet, dass Mensch und Roboter das gleiche Ziel verfolgen.“ Bis derartige Roboter allerdings tatsächlich auch den Konsumentenmarkt erobern, wird es noch dauern. „Die Technik für kollaborative, mobile Systeme ist zwar heute schon vorhanden, aber noch zu teuer für den privaten Einsatz“, meint Jim Welander. Besonders die benötigte Sensorik –, wie zum Beispiel Laserscanner oder LIDAR-Systeme – aber auch hochwertige Elektromotoren führen bei multifunktionellen mobilen Assistenzrobotern zu Kosten, die laut diverser Prognosen bei bis zu 25.000 Dollar liegen werden. Doch gerade die Fortschritte in den Consumer Electronics und der Einsatz von Elektronik in diesem Massenmarkt werden die Preise für elektronische Komponenten in den kommenden Jahren drastisch fallen lassen – da sind sich alle Teilnehmer der Diskussionsrunde einig. Auch der Automotive-Markt wird dafür sorgen, dass zum Beispiel Systeme zur Umgebungserkennung günstiger werden, meint Lasse Kieffer: „Mit dem Trend zu immer autonomeren Autos werden immer mehr Systeme wie LIDAR oder Radar verbaut. Das macht sie letztendlich günstiger für den Einsatz in Robotern.“

„Alleine die technische Spezifikation ISO/TS 150GG für kollaborierende Roboter benötigte sechs Jahre bis zu Veröffentlichung.“
Lasse Kieffer, ISO-Experte und Entrepreneur in spe

Roboter werden Teil des Internets der Dinge

„Es wird dennoch in naher Zukunft keinen Roboter geben, der alle Aufgaben erledigen kann“, meint Claus Lenz. „Wir werden vielmehr spezialisierte kleine Geräte zuhause haben, die interagieren können.“ Der Geschäftsführer von Blue Ocean Robotics stellt sich eine Kombination von physikalischen Geräten und smarten Geräten des Internets der Dinge (Internet of Things, IoT) vor, die miteinander kommunizieren und Aufgaben untereinander verteilen. „Roboter könnten dabei eine Möglichkeit sein, die digitale und die reale Welt miteinander zu vernetzen.“ Das sieht auch Roger Seeberger so: Die von seinem Unternehmen produzierten Roboter für Ausbildungszwecke können über eine Android-App zum Beispiel auf dem Smartphone gesteuert werden. „Die Grenzen zwischen IoT-Geräten und Robotern sind eher historisch zu sehen, heute existieren sie de facto nicht mehr.“
Doch damit sind nicht nur Vorteile verbunden, sondern Roboter sind über das Internet den gleichen Gefahren ausgesetzt wie jedes andere vernetzte Gerät. Cybersecurity ist damit auch für Roboter-Entwickler ein Thema – oder sollte es zumindest sein. „Auch wenn die eigentliche Datenverarbeitung bei den aktuellen Robotern lokal stattfindet und die Cloud nur genutzt wird, um Informationen zu verbreiten, sollten die gleichen Sicherheitsstandards für die Internetverbindung gelten wie beim PC oder einem mobilen Gerät. Dazu gehören auch regelmäßige Security-Updates – das sollte noch mehr in das Bewusstsein der Robotik-Branche rücken“, meint Claus Lenz.

Das menschliche Gehirn simulieren

Cybersecurity ist aber nur eine der Herausforderungen, denen sich moderne Roboter stellen müssen. Eine andere ist Intelligenz: Die benötigen Roboter, wenn sie sich in unbekannter Umgebung bewegen oder mit dem Menschen kommunizieren sollen. Von Seiten der Elektronik ist das kein Problem, meint Jim Welander: „Es kommen Chips mit immer mehr Prozessorkernen auf den Markt, die ausreichend Rechenpower für künstliche Intelligenz bieten. Das Problem werden eher die Software und entsprechende Algorithmen sein.“ Claus Lenz betont, dass derzeit erst noch Systeme entwickelt werden müssen, die die Verbindung zwischen verschiedenen Wissensquellen knüpfen können und die das Maschinenlernen mit diesen Daten verbinden. Auch für eine funktionierende Spracherkennung ist eine gewisse Intelligenz notwendig, wie der Blue-Ocean-Geschäftsführer weiter erklärt: „Man benötigt Wissen über den Kontext – denn im gesprochenen Wort können Begriffe je nach Zusammenhang unterschiedliche Bedeutungen haben.“ Doch bis ein Roboter tatsächlich über eine menschen­ähnliche Intelligenz verfügt, werden wohl noch Jahre vergehen. Roger Seeberger ist dabei überzeugt, dass Roboter, die ein eigenes Bewusstsein entwickeln, wahrscheinlich eher zufällig entstehen: „Wir wissen noch nicht viel über unser Denken, daher wird viel spekuliert und werden verschiedene Theorien und Methoden ausprobiert. Ich schätze, dass irgendwann irgendjemand sagt – upps, es ist passiert! Viel wichtiger in meinen Augen ist, ob wir wirklich Roboter mit eigenem Bewusstsein haben sollen – doch das ist eher eine politische Frage.“

„Die Standards für sichere Internetverbindungen sollten auch bei Robotern angewendet werden.“
Dr. Claus Lenz, Co-Founder und CEO, Blue Ocean Robotics

Maschinensicherheit wird auch für ­Roboter benötigt

Mit steigender Intelligenz, oder besser mit wachsender Autonomie, der Roboter ergeben sich auch neue Herausforderungen in puncto Sicherheit für den Menschen und die Umgebung, in der der Roboter operiert: „Künstliche Intelligenz trifft eigene Entscheidungen, die schwer vorauszusagen sind“, meint Welander. „Doch wenn man einen Roboter sicher gestalten will, muss man voraussagen können, wie er sich in bestimmten Situationen verhält.“ Natürlich gibt es unter dem Schirm der von der International Organization for Standardization (ISO) erstellten Richtlinien zur Maschinensicherheit und zur Funktionalen Sicherheit auch entsprechende Regularien für Roboter, wie Lasse Kieffer erklärt: „Es gibt Komitees für Industrieroboter genauso wie für nichtmedizinische persönliche Pflegeroboter oder Serviceroboter, zu denen zum Beispiel auch Staubsauger-Roboter zählen. Doch die hier entwickelten Standards werden sehr breit und allgemein sein.“ Kieffer hat sich während seiner Zeit bei Universal Robots intensiv mit dem Thema Funktionale Sicherheit für kollaborative Roboter auseinandergesetzt und an entsprechenden ISO-Treffen teilgenommen. Daher weiß er, dass es normalerweise ­mehrere Jahre braucht, bis ein ISO-Standard abgestimmt und beschlossen ist – und damit schon von neuer Technologie überholt sein kann. Das bedeutet nicht, dass Roboter ohne diese Standards unsicher sind, wie er betont: „Aber diese Standards helfen bei der Konzeptionierung neuer, sicherer Roboter.“ Seine Empfehlung, um einen wirklich sicheren Roboter mit künstlicher Intelligenz zu bauen: „Es wird einige einfache Sicherheits-Features geben, die sicherstellen, dass der Roboter ausgeschaltet werden kann.“

Ein besseres Verständnis zwischen Mensch und Roboter

So ein „Aus-Schalter“ ist das einfachste Beispiel für eine Schnittstelle zwischen Mensch und Roboter. Doch die zukünftigen mechatronischen Helfer werden über weitaus komplexere Lösungen verfügen, um mit dem Menschen zu kommunizieren und Anweisungen von ihm zu verstehen. „Für den Einsatz im privaten Bereich sind die heute bei Industrierobotern üblichen Programmierlösungen keine Option“, so Claus Lenz. „Wir benötigen Systeme, über die ein Roboter zum Beispiel durch Gesten, Vormachen oder Sprache angelernt werden kann.“ Gerade das kontextbezogene Verständnis der Sprache spielt dabei eine besondere Rolle. Blue Ocean Robotics hat in eigenen Studien darüber hinaus herausgefunden, dass es für ein reibungsloses Miteinander von Roboter und Mensch wichtig ist, dass die Bewegungen des Roboters vorhersehbar sind: „Wenn die Bewegungen eines Roboters denen eines Menschen nachempfunden und nicht technisch sind, weiß der Mensch eher, wo zum Beispiel ein Gegenstand übergeben wird“, so Lenz. Allerdings wird sich nicht nur der Roboter an die Kommunikation des Menschen anpassen, wie Roger Seeberger sich sicher ist: „Das Leben mit Robotern wird auch unsere Art zu kommunizieren verändern – man muss sich ja nur einmal anschauen, welche Auswirkungen das Smartphone auf unsere Kommunikation hat.“

„Roboter mit eigenem Bewusstsein wird es eines Tages geben.“
Roger Seeberger, Managing Director und Entwickler, Jinn-bot

Die Arbeitswelt wird sich ändern

Doch nicht nur unsere Kommunikation wird durch Roboter verändert werden, auch für die Arbeitswelt werden die Auswirkungen enorm sein. „Es gibt dazu zahlreiche Studien“, so Claus Lenz. „Aktuell veröffentlichte McKinsey eine Untersuchung – danach wird es natürlich eine Veränderung durch die zunehmende Automatisierung geben. Aber der Einsatz von Robotern muss nicht unbedingt zu einem Verlust von Arbeitsplätzen führen, sondern es können neue Jobs entstehen. Welche das sind, kann man noch nicht sagen – vielleicht ein Roboter-Sicherheits-Assistent?“ Ein Gedanke, der Lasse Kieffer gefällt: „Dann haben wir nicht Roboter, die uns begleiten, sondern Menschen, die Roboter begleiten!“ Auch Jim Welander ist optimistisch und erinnert an die Veränderungen, die das Smartphone mitbrachte: „Man muss nur mal schauen, wie viele Menschen heute in der App-Entwicklung arbeiten – vor wenigen Jahren hat da noch kein Mensch dran gedacht.“ Roger Seeberger erwartet allerdings durchaus tiefergehende Auswirkungen auf die Arbeitswelt. „Im Grunde ist das eine ethische und politische Frage, denn wir müssen unsere Gesellschaft neu ausrichten.“ Er nennt als Beispiel das bedingungslose Grundeinkommen, über das 2016 in der Schweiz abgestimmt wurde. „In Zukunft wird sich die Qualität der Arbeit nicht mehr in der Stundenzahl ausdrücken, sondern darin, dass der Mensch mehr Zeit für Kreativität hat.“ Natürlich sind mit neuen Technologien wie der Robotik Risiken verbunden – das sieht auch Claus Lenz so: „Menschen haben natürlich Angst, dass sich ihr Leben ändert. Aber wir können entweder Angst haben, dass die Technologie unser Leben zerstört – oder wir arbeiten daran, dass die Technologie unser Leben zu etwas Positiverem verändert.“

Haushalts-Roboter Zenbo

Mit dem Haushalts-Roboter Zenbo hat die Firma Asus einen Roboter für die ganze Familie auf den Markt gebracht: Er spielt mit den Kindern, erinnert an Termine, kümmert sich um Senioren und überwacht die Wohnung, wenn die Familie außer Haus ist.

Wie der kleine Kerl einen mit seinen großen Augen so ansieht, muss man ihn einfach gernhaben: Zenbo, den Haushaltsroboter von Asus. Seit Januar 2017 kann er in Taiwan vorbestellt werden, der Rest der Welt muss noch ein wenig warten. „Seit Jahrzehnten träumen Menschen davon, so einen Begleiter zu besitzen: einen der smart ist, der einem ans Herz wächst und der ständig zu unserer Verfügung steht“, schwärmt Jonney Shih, Vorsitzender von Asus. „Unser Ziel ist es, Robotik für jeden Haushalt zu ermöglichen.“ Mit einem Preis von – voraussichtlich – unter 600 Dollar sind die Voraussetzungen dafür gut.

Nimmermüder Altenpfleger

Für das Geld erhält man einen Roboter, der als Helfer, Unterhalter und Begleiter für Familien gedacht ist. Zenbo fährt auf einem kugelförmigen Körper autonom durch die Wohnung und interagiert mit den Menschen über Sprache und seinem runden „Kopf“ mit Display, das je nach „Stimmung“ verschiedene Gesichter zeigt – verlegen mit Schamesröte, begeistert mit funkelnden Augen oder auch herzhaft lachend. Obwohl für die ganze Familie gedacht, hat Asus mit dem Roboter vor allem ältere Familienmitglieder im Fokus: Zenbo soll sich um ihre Gesundheit kümmern und ihnen den Kontakt zur vernetzten digitalen Welt erleichtern. So überwacht der Roboter das Zuhause und alarmiert in einem Notfall, zum Beispiel wenn der Senior gestürzt ist, vorher ausgewählte Familienmitglieder auf ihrem Smartphone. Die können dann Zenbo aus der Ferne steuern und mit seiner integrierten Kamera nach dem Rechten sehen. Über seinen Touchscreen, der gleichzeitig das „Gesicht“ des Roboters darstellt, können die Senioren zudem leicht verschiedene Online-Aufgaben erledigen – zum Beispiel Videotelefonate führen, soziale Medien nutzen, einkaufen oder Filme und Fernsehshows streamen. Bedient wird der Roboter über Sprachbefehle.

Erzieherisch wertvoller Spielgefährte

Aber auch die Kinder der Familie sollen mit Zenbo einen Spielgefährten mit durchaus erzieherischem Anspruch erhalten: Sie können sich von ihm mit interaktiven Geschichten unterhalten lassen und Spiele lernen, die ihre Kreativität und logisches Denken fördern. Mit seinem Stereo-Sound-System spielt der elektronische Geselle die Lieblingslieder der Kinder vor – und tanzt sogar dazu. Damit die Kleinen gut einschlafen, liest Zenbo ihnen dann auch die Gute-Nacht-Geschichte vor, begleitet von passenden Bildern auf seinem Monitorgesicht. Dabei kontrolliert er auch gleich das Licht im Zimmer.

Schnittstelle zum Smart Home

Gleichzeitig ist Zenbo aber auch Haushaltshelfer, der mit einer ganzen Reihe von Fähigkeiten das Leben aller Familienmitglieder einfacher machen soll. So kann der Roboter sich mit vielen Smart-Home-Funktionen verbinden und zum Beispiel Licht, Fernseher oder Klimaanlage steuern. Über den Monitor können die Bewohner zudem nachsehen, wenn jemand an der Tür klingelt – und per Sprachbefehl an Zenbo die Tür entriegeln. In der Küche kann der Haushaltshelfer Rezepte vorlesen oder als stimmenaktivierter Timer dienen, sodass man nicht vom Kochen abgelenkt wird. Wenn die Familie außer Haus ist, überwacht der Roboter mit seiner Kamera die Wohnung, die Bilder können sich die Bewohner über ihr Smartphone ansehen.

Offen für Apps von Dritten

Um das Aufgabenspektrum von Zenbo kontinuierlich zu erweitern, setzt Asus auf Kooperationen mit Partnern und Entwicklern aus den unterschiedlichsten Branchen – von Erziehung über Nahverkehr bis hin zur Gebäudereinigung. Sie alle sollen mit Apps oder Diensten die Fähigkeiten und Einsatzmöglichkeiten des Haushaltsroboters erweitern. Das Unternehmen hat dafür ein eigenes Developer-Programm gestartet und bietet dazu Dritten entsprechende Entwicklungs-Tools. Für die in Taiwan verkaufte Version hat Asus zum Beispiel mit der Polizeibehörde des Landes zusammengearbeitet. Das Resultat ist eine App, über die Familienmitglieder in einem Notfall ihre lokale Polizeistation kontaktieren und über Zenbos Videotelefonie-System mit einem Polizisten sprechen können.

Roboter Pepper an Bord

Um die Passagiere zu unterhalten, holt das Kreuzfahrtunternehmen Costa Crociere fünf Roboter an Bord. Die Roboter namens Pepper können den Gästen nicht nur mit aktuellen Informationen dienen, sondern erkennen auch deren Stimmung.

Auf der Costa Diadema, dem Flaggschiff von Costa Crociere, werden die Gäste neuerdings von fünf Robotern des Modells Pepper begrüßt und unterstützt. Bei Pepper handelt es sich um den weltweit ersten Roboter, der menschliche Emotionen und Bedürfnisse lesen und mit Menschen proaktiv interagieren kann.

Ahoi auf Englisch, Französisch und Italienisch

Die von Softbanks Robotics entwickelten Roboter sind auf den 7-tägigen Kreuzfahrten der Costa Diadema im westlichen Mittelmeer im Einsatz. Ihr Auftrag: Die Gäste an Bord zu unterhalten und die Kreuzfahrt noch unvergesslicher zu gestalten. Der Roboter wurde 2014 in Tokio erstmals der Öffentlichkeit präsentiert, ist mit vielen innovativen Funktionen ausgestattet und besitzt ein hohes Level an Kommunikationsfähigkeiten. So kann er sich in tadellosem Englisch, Französisch und Italienisch unterhalten und sowohl Stimmen als auch Gesichter erkennen. „Mit dem Einsatz von emotional interagierenden Robotern an Bord unserer Kreuzfahrtschiffe beweisen wir erneut unsere große Innovationsfähigkeit. Für uns ist dies ein wichtiger Schritt in die digitale Zukunft unserer Kreuzfahrtmarken. Ich bin mir sicher, unsere Gäste werden Pepper lieben“, so Michael Thamm, CEO der Costa Gruppe.

Roboter Pepper erkennt menschliche Emotionen

Pepper gilt als der erste humanoide Roboter der Welt, der in der Lage ist, die wichtigsten menschlichen Emotionen zu erkennen: Freude, Traurigkeit, Wut oder Überraschung. Er kann zudem ein Lächeln, ein Stirnrunzeln oder auch den Ton einer Stimme interpretieren. Auch die Worte, die ein Mensch benutzt, oder die nonverbale Sprache wie die Neigung des Kopfes kann Pepper deuten. Durch die Kombination all dieser Informationen kann der Roboter feststellen, ob sein menschliches Gegenüber in guter oder schlechter Stimmung ist. Über seine 2D- und 3D-Kameras findet sich der Roboter in seiner Umwelt zurecht und kann über eine Objekterkennungs-Software Gesichter und Gegenstände erkennen. Viele weitere Sensoren ergänzen die Kamerasysteme, um zum Beispiel ­Distanzen zu Hindernissen zu messen: So verfügt der kleine Roboter über zwei Ultraschall- und sechs Laser-Sensoren sowie drei Hindernisdetektoren in seinen Beinen. Darüber hinaus besitzt Pepper taktile Sensoren in seinen Händen, die er einsetzt, wenn er Spiele spielt oder sozial interagiert.

Unterhalten und informieren

Die Gäste der Costa Diadema werden in verschiedenen Bereichen des Schiffes auf die Roboter treffen. Pepper ist nicht nur in der Lage, an ihn gerichtete Fragen zu beantworten, sondern kann auch proaktiv interagieren, sobald ein Passagier in seine Nähe kommt. Pepper wird mit Gästen ­tanzen, spielen und mit ihnen für Selfies posieren. Die Roboter sollen die Gäste aber nicht nur zum Lachen bringen, sondern auch mit nützlichen Informationen zu ihrer Reise und den Angeboten an Bord versorgen. So wissen die Roboter alles über die Restaurants, Bars und Shops auf dem Schiff, kennen das Landausflugsprogramm sowie die Aktivitäten an Bord. Die Roboter sind auch in der Lage, Informationen über die nächsten Destinationen und die Routenplanung zu geben. Schließlich wird Pepper die Passagiere der Costa Diadema auch nach ihrer Meinung zu Kreuzfahrt und dem Angebot an Bord befragen.

Wer auf Messen rund um die Optoelektronik den Stand von EBV Elektronik besucht, kann Pepper live erleben, wie er Präsentationen zeigt und Scherze mit den Besuchern macht. Sebastian Hülck, Director Segment Lighting bei EBV, erzählt von seinen Erfahrungen mit Pepper.

The Quintessence: Seit wann ist Pepper bei Ihnen im Einsatz?
Sebastian Hülck: Wir hatten ihn das erste Mal auf dem LED Professional Symposium 2016 in Bregenz im Einsatz. Ich glaube, wir waren die Ersten, die Pepper auf einer europäischen Messe eingesetzt haben.

Wie schwer ist es, Pepper für eigene Anwendungen anzupassen?
S. H.: Es ist schon sehr aufwändig. Für uns hat das die Firma NoDNA in Ismaning gemacht, einer der Vertragshändler für Softbank Robotics/Aldebaran. Es hat rund drei Monate gedauert, um Pepper auf den aktuellen Stand zu bringen – mit den diversen Gimmicks, die er heute beherrscht.

Pepper kann also nicht schnell per App programmiert werden?
S. H.: Nein. Es gibt spezielle Entwicklungsumgebungen für Pepper, wie die Choreographe Suite, in die man sich zuerst einarbeiten muss. Zudem ist der Roboter schon ein komplexes Gerät – mit seiner Intel-Atom-Plattform mit acht Kernen, seinen 20 Motoren und zahlreichen Sensorsystemen. Als Betriebssystem läuft das Linux Derivat Qi OS auf der Maschine.

Erkennt Pepper denn tatsächlich menschliche Emotionen?
S. H.: Wenn man sich alleine mit ihm beschäftigt, dann funktioniert das schon ganz gut. Er ist aber überfordert, wenn viele Leute um ihn herum sind. Dann erkennt er einzelne Menschen nicht und hört nicht mehr einer bestimmten Person zu. Zudem kann die Sprach-Engine noch optimiert werden – Amazon Echo oder die Spracherkennung bei Apple oder Google funktioniert schon deutlich besser.

Wie reagieren die Menschen auf Pepper?
S. H.: Der Roboter kommt bei den Besuchern hervorragend an. Auf der Messe in Bregenz ist Pepper mit unseren Gimmicks ein echter Publikumsmagnet geworden. Wer möchte, kann unseren Roboter gerne einmal selbst erleben: Entweder auf den Messen, die wir mit unserem Lighting Segment besuchen, oder in unserem „LightSpeed Experience Center“ in Poing. Hier zeigen wir Zukunftstechnologien rund um die Optoelektronik – dazu passt Pepper mit seinen sechs Lidar-Sensoren auch im Rahmen unseres diesjährigen Fokus auf Retail-Lösungen hervorragend.

HSR Roboter – Hilfe vom Roboter

Roboter sollen eine Antwort auf die alternde Gesellschaft sein. Sie sollen Pflegekräfte unterstützen und behinderten Menschen ein unabhängigeres Leben ermöglichen. US-Veteran Romy Carmago konnte Toyotas „Human Support Roboter“ (HSR) im Alltag testen. Doch noch ist viel Entwicklungsarbeit notwendig, bis die Technik fit für das reale Leben ist.

Seit seinem dritten Afghanistan-Einsatz ist Romy Carmago von den Schultern abwärts gelähmt. Doch der US-Veteran gab nicht auf: Obwohl die Ärzte ihm sagten, er würde nie wieder ohne Beatmungsgerät atmen können, benötigt er heute keines mehr. Die Ärzte sagten ihm auch, er würde nie wieder gehen oder seine Arme benutzen können, doch er ist sich sicher, dass er es irgendwann schafft.

Mit Technik wieder auf die Füße kommen

Wenn nötig, auch mit Technik: Carmago hat die „Stay in Step“-Rehaeinrichtung in der Nähe seiner Heimatstadt Tampa, Florida, ins Leben gerufen. Das Zentrum bietet Programme und technische Hilfsmittel, mit denen Querschnittsgelähmte wieder stehen und trainieren können. Die Einrichtung hilft Menschen im wahrsten Sinne des Wortes wieder auf die Füße.
Ende 2016 konnte Carmago dazu ein ganz neues Hilfsmittel testen – den „Human Support Roboter“ (HSR) von Toyota. Das Forschungsinstitut des japanischen Konzerns unterstützte von Anbeginn das Rehazentrum des US-Veterans. Da lag es nahe, auch den im Jahr 2015 der Öffentlichkeit vorgestellten Pflegeroboter als Unterstützung für querschnittsgelähmte Menschen zu testen.

Hilfe für die alternde Gesellschaft

Ursprünglich wurde der HSR Roboter konzipiert, um Senioren zu pflegen. Ein lukrativer Markt, geht die Weltgesundheitsorganisation WHO doch davon aus, dass bis zum Jahr 2050 22 Prozent der Weltbevölkerung über 60 Jahre alt sein wird. Noch dramatischer ist die Entwicklung in Japan: Hier sollen bis zum Jahr 2060 fast 40 Prozent der Bevölkerung
65 oder älter sein. Entsprechend groß ist der Bedarf an Langzeit-Pflegekräften. Und das ist auch der Grund, warum in Japan so viele Pflegeroboter entwickelt werden.
Auch der vielseitig einsetzbare HSR setzt hier an: Durch die Übernahme alltäglicher Aufgaben können pflegebedürftige oder auf Hilfe angewiesene Personen weiterhin allein zu Hause leben. Der 37 Kilogramm leichte und rund ein Meter hohe Roboter kann beispielsweise mit seinem flexiblen Greifarm Gegenstände vom Boden aufheben oder aus dem Regal nehmen und wieder zurückstellen und Vorhänge vor- bzw. zurückziehen.
Die Steuerung des HSR Roboter ist aus der Ferne möglich: Familienmitglieder oder Freunde können den Roboter auch lenken, wenn sie gar nicht vor Ort sind. Das Gesicht des Bedienenden wird dann im Display angezeigt, seine Stimme wird in Echtzeit wiedergegeben – so ist eine Interaktion mit Angehörigen und Freunden möglich.
Um die weitere Entwicklung des Roboters voranzutreiben, gründete Toyota gemeinsam mit einer Reihe von Forschungseinrichtungen die HSR Developers‘ Community. Ihr Ziel ist die praktische Erprobung, kontinuierliche Verbesserung und schnellstmögliche Einführung des HSR. Außerdem wird der Roboter verschiedenen Partnerorganisationen wie Universitäten, aber auch Pflegeeinrichtungen zur Verfügung gestellt, um die Software weiter zu verfeinern.

Test im Alltag

So fand der HSR auch den Weg zu Romy Carmago, der den Roboter zuhause testete. Der Assistenzroboter sollte zwei recht einfache Aufgaben übernehmen, um Carmago in seinem Alltag zu helfen: Der Roboter sollte die Haustür öffnen, sobald Carmago sich ihr näherte. Und er sollte dem Veteran­ zu trinken geben, wenn er es wünschte. Zwei Aufgaben, die viel Training für den kleinen Roboter bedeuteten. Das Fazit der Toyota-Forscher ist auch wenig euphorisch: Sie schreiben, dass noch ein weiter Weg zu gehen sei, bevor die Technologie fit für die reale Welt ist. Doch die Entwicklung geht weiter. Die Forscher sind zuversichtlich, dass der HSR eines Tages über die nötigen Fähigkeiten verfügt, um Menschen wie Romy Camargo ein unabhängigeres Leben zu ermöglichen.

Mit Valkyrie zum Mars

Die NASA entwickelt einen humanoiden Roboter, der einer zukünftigen bemannten Mars-Mission vorausgeschickt werden soll. Bis „Valkyrie“ allerdings autonom auf einem fremden Planeten arbeiten kann, ist noch einiges an Forschungsarbeit notwendig.

Ein großes Ziel der NASA ist eine Mission zum Mars. Bevor jedoch ein Mensch den Roten Planeten betreten wird, sollen zunächst Roboter die gefährliche Vorarbeit leisten. „Fortschritte in der Robotik, inklusive der Mensch-Roboter-Kollaboration, sind essentiell, um die Fähigkeiten zu schaffen, die für unsere Reise zum Mars erforderlich sind“, so Steve Jurczyk, Administrator des Space Technology Mission Direktorats im NASA-Hauptquartier in Washington. Seit einigen Jahren entwickelt die US-amerikanische Raumfahrtbehörde dazu den R5 weiter, einen vom Johnson Space Center konstruierten humanoiden Roboter. Seine Konstruktion mit zwei Beinen, zwei Armen und einem Kopf ermöglicht es dem Roboter, neben Menschen zu arbeiten oder hochriskante Aufgaben anstelle des Menschen zu übernehmen.

Gelenkige Valkyrie

Die NASA nennt ihr Modell „Valkyrie“, nach der Götterbotin der nordischen Sagenwelt. Der rund 180 Zentimeter große Roboter wiegt 136 Kilogramm und läuft nahezu wie ein Mensch. 28 drehmomentüberwachte Gelenke ermöglichen ihm eine Vielzahl von Bewegungen. Alleine jeder Oberarm ist mit vier hintereinandergeschalteten elastischen Drehantrieben ausgestattet und hat, zusammen mit dem Unterarm, sieben Gelenke. Ein weiterer Drehantrieb erlaubt die Rotation des Handgelenks, Linearantriebe kontrollieren die Neigung und den Gierwinkel. Eine vereinfachte humanoide Hand mit drei Fingern und einem Daumen ermöglicht das Greifen unterschiedlicher Objekte. So kann der R5 sogar einen Türgriff drehen. In dem Becken des Roboters sind drei weitere Drehantriebe untergebracht, die eine Bewegung in der Taille sowie im Hüftgelenk steuern.

Mehr als 200 Sensoren

Seine Umgebung nimmt er über einen multimodalen Sensor der Firma Carnegie Robotics wahr: Das System erfasst über einen Laserscanner sowie eine Stereokamera Entfernungsdaten, ergänzend liefert es auch ein Videobild der Umgebung. Weitere Kameras sind im Torso untergebracht. Mehr als 200 Sensoren produzieren zusätzliche Informationen; alleine jede Hand ist mit 38 Sensoren ausgestattet (sechs auf der Handfläche und jeweils acht entlang jedem seiner vier Finger). Valkyrie verarbeitet all diese Daten mit zwei Intel Core i7 COM Express-Prozessorkernen.

Roboter funktionieren nicht immer

Doch bis dieser Roboter tatsächlich zum Mars geschickt werden kann, ist noch einiges an weiterer Entwicklungsarbeit notwendig. Die NASA hat daher unter anderem drei Universitäten beauftragt, bestimmte Funktionen zu verbessern. So wird am MIT, der University of Edinburgh und an der Northeastern University in Boston an den autonomen Funktionen, an der Umgebungswahrnehmung und einer Optimierung der Bewegungen gearbeitet. Dass das nötig ist, weiß Sarah Hensley, die als MIT-Studentin an der Steuerung des Ellbogens arbeitet: „Oft erzittert Valkyrie und fällt hin, sobald er eingeschaltet wird und sich bewegt. Roboter funktionieren halt manchmal und manchmal nicht. Das ist unsere Herausforderung.“

Eine Million Dollar für den Sieger

Zusätzliche Impulse zur Verbesserung von Valkyrie will die NASA daher durch einen Wettbewerb setzen: Wer es schafft, dass ein virtuelles Modell des R5 in einer digitalen Umgebung die Schäden eines Sandsturms an einem Mars-Habitat repariert, erhält eine Million Dollar. Im Einzelnen soll er eine Satellitenschüssel ausrichten, eine Solaranlage reparieren und ein Leck im Habitat flicken. Die Gewinner werden Ende Juni 2017 bekannt gegeben. Die Software, die in diesem Wettbewerb entwickelt wird, soll auf andere Robotersysteme transferiert werden können. So soll die neue Technologie auch älteren Robotern zugutekommen wie auch zukünftigen Systemen. „Präzise und fingerfertige Roboter, die in der Lage sind, auch mit einer verzögerten Kommunikation zu arbeiten, könnten in Raumflug- und Bodenmissionen zum Mars und anderswo für riskante und komplizierte Aufgaben genutzt werden, die entscheidend für die Unterstützung unserer Astronauten sein werden“, so Monsi Roman, Programm-Manager der Centennial Challenges der NASA.

Hände vom Lenkrad

In Amsterdam ist der weltweit erste autonomer Bus im realen Verkehrsgeschehen unterwegs. Noch ist ein Fahrer an Bord.

Irgendwo zwischen Flughafen Amsterdam Schiphol und der Stadt Haarlem, auf der längsten Expressbus-Linie Europas: Ein Bus wartet vor einer Ampel auf das Signal loszufahren. Zwei rote Punkte nebeneinander bedeuten auf dieser Ampel Stopp, zwei weiße Punkte übereinander freie Fahrt. Die Ampel springt auf Weiß, sanft setzt sich der Bus in Bewegung und ordnet sich in seiner Spur ein. Rote Ampel voraus – sicher und sanft bremst der Omnibus ab und kommt zum Stehen. Gefahren wird der Bus dabei nicht von einem Menschen, sondern von der Elektronik. Denn es ist der erste autonom fahrende Stadtbus weltweit, der im realen Stadtverkehr unterwegs ist.

Erster autonomer Bus

Allerdings ist immer noch ein Fahrer an Bord. Der ist auf der weiteren Fahrt jedoch etwas unterbeschäftigt, denn der Omnibus hält sicher seine Spur. Er lässt sich auch von zwei Brücken und einer Unterführung nicht irritieren. Nach dem Ortsende beschleunigt er auf die erlaubten 70 km/h. Das Maximaltempo ist programmiert, auch bei dieser Geschwindigkeit lenkt nicht der Fahrer. Automatisiert kommt der Bus an die Haltestelle: anhalten, Türen öffnen und schließen, abfahren. An der nächsten Ampel erkennt der Bus die Stellung des Lichtsignals über sein aufwändiges Kamerasystem. Darüber hinaus kommuniziert das Fahrzeug über ein WLAN-System mit der Streckeninfrastruktur und erhält Informationen zum Ampelstatus. So kann gezielt eine grüne Welle „erfahren“ werden. Während die Ampel umspringt, laufen noch Fußgänger über die Straße. Der Bus verharrt, lässt sie vorüber, wartet mit dem Anfahren, bis die Fahrbahn frei ist. Zur Vermeidung einer Kollision verfügt der Bus über ein automatisches Bremssystem, das selbsttätig eine Zielbremsung einleitet.

Entwicklung speziell für Großstädte

Seit 2016 wird dieser Future Bus von Daimler in Amsterdam auf der Expressbus-Linie (Bus Rapid Transit, BRT) im realen Verkehrsgeschehen getestet. Daimler arbeitet seit einigen Jahren daran, die Technologie des autonomen Fahrens weiterzuentwickeln und zur Serienreife zu bringen. So ist die neue Mercedes-Benz E-Klasse das weltweit erste Serienfahrzeug, das eine Testlizenz für autonomes Fahren im US-Bundesstaat Nevada erhielt. Und der Lkw-Ableger Daimler Trucks hat mit dem in Erprobung befindlichen Highway Pilot ein System entwickelt, das teilautomatisiertes Fahren ermöglicht. Dr. Wolfgang Bernhard, Mitglied des Vorstands der Daimler AG und verantwortlich für Daimler Trucks & Buses: „Mit unserem Highway Pilot haben wir vor knapp zwei Jahren gezeigt: autonomes Fahren wird den Lkw-Fernverkehr effizienter und sicherer machen. Jetzt bringen wir diese Technologie in unsere Stadtbusse: den City Pilot. Das System ist eine Weiterentwicklung speziell für Großstädte. Damit fahren wir teilautonom auf speziell ausgewiesenen Busspuren.“ BRT-Linien wie die in Amsterdam bieten sich als erster Schritt zum vollautomatisierten Fahren mit Bussen im Stadtverkehr an: eine immer gleiche Strecke auf separater Trasse, ein klar definierter Fahrplan, eindeutige und identische Aktionen an Haltestellen.

Kameras und Sensoren intelligent miteinander vernetzt

Der autonom fahrende Bus erkennt, ob die Strecke vor ihm für automatisiertes Fahren geeignet ist und signalisiert dies dem Fahrer. Ein Tastendruck vom Busfahrer aktiviert den City Pilot. Voraussetzung: Der Fahrer nimmt den Fuß von Gas- oder Bremspedal und lenkt nicht, denn jede Fahreraktivität überlagert das Steuerungssystem – der Fahrer bleibt stets Herr des Verfahrens und kann die Kontrolle übernehmen. Die Lösung zum autonomen Fahren umfasst sowohl aktuelle Assistenzsysteme, die zum Beispiel für die Reisebusse von Mercedes-Benz verwendet werden, als auch zusätzliche Systeme, die teilweise von Daimler Trucks übernommen und für den Stadtverkehr weiterentwickelt wurden. Dazu gehören Fern- und Nahbereichsradar, eine Vielzahl von Kameras sowie das satellitengesteuerte Ortungssystem GPS. Kameras und Sensoren sind intelligent miteinander vernetzt, so dass ein präzises Bild der Umgebung und der exakten Position des Omnibusses entsteht.

Rechtlicher Rahmen fehlt noch

Der teilautonom fahrenden Stadtbus soll die Sicherheit im Stadtverkehr deutlich steigern. Experten rechnen damit, dass durch autonomes Fahren bis zum Jahr 2035 die Unfallzahlen um voraussichtlich 80 Prozent sinken. Zudem verbessert der Future Bus dank seiner vorausschauenden Fahrweise die Effizienz, schont Aggregate und senkt Kraftstoffverbrauch wie Emissionen. Und durch die fließende, gleichmäßige Fahrt erhöht er zudem den Komfort der Fahrgäste. Doch noch erlauben die Gesetze keinen autonomen Regelbetrieb auf den Straßen. „Wir müssen die Regelwerke des 20. Jahrhunderts zügig an das 21. Jahrhundert anpassen“, meint daher Dr. Bernhard. „Dabei dürfen wir uns allerdings nicht verzetteln. Bevor wir über alle möglichen Fragen des vollautonomen Fahrens diskutieren, müssen wir erst mal teilautonomes Fahren ermöglichen. Wir müssen dem Fahrer erlauben, die Hände vom Lenkrad zu nehmen.“

Roboter im Nebel: Fog Computing

Auch autonome Roboter müssen in ein übergeordnetes Steuerungssystem eingebunden werden, gleich ob in der Produktion oder im ServiceBereich. Das erfordert zuverlässige, schnelle Kommunikationsstandards und die Ressourcen der Cloud. Neuestes Schlagwort ist dabei das Fog-Computing, das die Ressourcen wieder näher an den Roboter bringt.

Sollen sich Roboter autonom durch eine Umgebung bewegen und Aufgaben erfüllen, muss eine immense Menge an Daten erfasst und berechnet werden. Das muss aber nicht zwangsläufig „onboard“ stattfinden. Gerade bei kleinen Robotern wären die dafür benötigten Ressourcen zu teuer. Eine Alternative besteht darin, die Roboter von externen Systemen überwachen zu lassen und auch die Steuerungsbefehle von außen, beispielsweise per Funk, auf den Roboter zu übertragen.
So werden zum Beispiel die von Festo entwickelten autonomen bionischen Schmetterlinge eMotionButterflies über ein externes und in Echtzeit kommunizierendes Leit- und Monitoring-System im dreidimensionalen Raum koordiniert. Die Kommunikations- und Sensortechnologie bildet ein Indoor-GPS-System, das die Schmetterlinge kollisionsfrei und im Kollektiv steuert. Zehn im Raum installierte Kameras erfassen die Kugeln über deren aktive Infrarotmarker (Infrarot-LEDs) und leiten die Positionsdaten an einen zentralen Leitrechner weiter. Die berechneten Aktionen werden an die Objekte zurückgesandt und dort dezentral umgesetzt.

Kommunikation in Echtzeit

Gerade im industriellen Einsatz sind Roboter keine „Insellösungen“, sondern müssen mit den anderen Systemen der Produktion interagieren. Das erfordert Kommunikationslösungen, die die Signale nicht nur in Echtzeit, sondern auch zeitsynchron übertragen. Nur so können etwa ein mobiler Roboter und eine festinstallierte Maschine gemeinsam ein Bauteil bearbeiten. Bisher wurde ein Großteil der echtzeitfähigen Steuer- und Regelanwendungen über nichtstandardisierte Netzwerkinfrastrukturen oder voneinander getrennte Netzwerke bereitgestellt, was den Zugriff auf Geräte und Daten deutlich erschwerte beziehungsweise teilweise unmöglich machte.
Zurzeit arbeitet daher eine Task-Group des IEEE (Institute of Electrical and Electronics Engineers) an der Standardisierung von Echtzeit-Funktionalität in Ethernet. Das Ergebnis ist Ethernet TSN (Time-Sensitive-Networking), eine Kommunikationstechnologie, in der viele Unternehmen die Zukunft der Kommunikation in Zeiten der Industrie 4.0 sehen. TSN ermöglicht eine herkömmliche, offene Netzwerkinfrastruktur mit herstellerunabhängiger Interoperabilität und bietet eine garantierte Zustellung und Performance. Die Technologie unterstützt die Steuerung, Regelung und Synchronisierung in Echtzeit – beispielsweise zwischen Motorsteuerungsanwendungen und Robotern – über ein einzelnes Ethernet-Netzwerk. Gleichzeitig eignet sich TSN aber auch für anderen gängigen Produktionsdatenverkehr, sodass IT- und Betriebstechnik gemeinsam ein Netzwerk nutzen können. Der größte Vorteil von TSN liegt daher in der Zusammenführung und besseren Anbindung von Technologien, um die für Big-Data-Analysen benötigten kritischen Daten zur Verfügung zu stellen.

Fog statt Cloud

So lassen sich alle für die Roboterfunktion relevanten Daten in Echtzeit in einem digitalen Modell vereinen. Und dies erfolgt im Sinne der Industrie 4.0 in der Cloud. Allerdings wächst aufgrund der zunehmenden Dienste im Bereich des Cloud Computing und der großen Zahl an Geräten mit Zugang zu Cloud-Ressourcen die Besorgnis, dass das Netzwerk überlastet wird und es zu Engpässen sowie Verzögerungen bei der Datenverarbeitung kommt. Abhilfe soll die Technologielösung Fog Computing schaffen: Dabei wird eine Zwischenebene der Datenverarbeitung geschaffen. So werden die Informationen nicht wie bislang unbearbeitet komplett in die Cloud beziehungsweise ein entferntes Data Center geladen, sondern bereits in Server-Systemen, Storage- und Netzwerkkomponenten am Rand einer IT-Infrastruktur verarbeitet. Diese sogenannten Edge Devices übernehmen also Dienste und Aufgaben, die bislang aus der Cloud kamen, und reduzieren so die zu übertragende Datenmenge. Während also die Cloud ein eher nebulöser, weit entfernter Ort ist, befindet sich der „Fog“ geradezu in Bodennähe. Dort, wo die Arbeit erledigt wird. „Fog Computing bringt Analyse-, Verarbeitungs- und Speicherfunktionen an den Rand des Netzwerks“, erklärt Kay Wintrich, Technical Director von Cisco Deutschland. „Im Internet of Everything, in einer komplett vernetzten Welt, ist das die einzige Möglichkeit, mit der großen Menge an anfallenden Daten umgehen zu können.“

Franka Emika – Roboter Out of the box

Der neue feinfühlige und lernfähige Roboter Franka Emika für Jedermann soll die Robotik demokratisieren. Das System ist in wenigen Minuten installiert und programmiert.

Ein kostengünstiger feinfühliger Roboter, der als allgemein zugängliches Multifunktionswerkzeug eingesetzt werden kann – das ist das Ziel des Start-ups Franka Emika. Im Jahr 2017 bringt das in München ansässige Unternehmen dazu den ersten Roboter „Out-of-the-box“ auf den Markt: Franka Emika – der Roboter heißt genauso wie die Firma – lässt sich in kürzester Zeit installieren und programmieren. Inklusive Steuereinheit und Cloud-Software für Verwaltung und Programmierung wird Franka Emika weniger als 10.000 Euro kosten. Damit wird das Modell für kleinere Unternehmen interessant. Doch nicht nur Preis und Hardware sind ungewöhnlich.

Feinfühliges Arbeiten

Der siebenachsige drehmomentbasierte Arm erkennt selbst leichte Berührungen sofort und schaltet sich beispielsweise ab, wenn ihm ein Mitarbeiter zu nahe kommt. Für Szenarien, in denen Mensch und Maschine eng zusammenarbeiten müssen, ein entscheidendes Kriterium. Die modulare Ultra­leichtbauweise, das hochintegrierte mechatronische Design und die Fähigkeit zur geschickten feinfühligen Manipulation ermöglichen es dem Roboter, Tätigkeiten auszuführen, die einen direkten physischen Kontakt mit der Umwelt erfordern. Dies bedeutet, dass häufig anfallende, aber meist monotone Aufgaben wie feinfühliges Stecken, Schrauben, Fügen sowie Test-, Inspektions- und Montageaufgaben erstmals überhaupt automatisiert werden können.

Franka Emika: Programmieren per Drag & Drop

Statt Franka direkt Algorithmen einzuprogrammieren, lassen sich Workflows in einer grafischen Benutzeroberfläche innerhalb weniger Minuten zusammenstellen. Dazu können Anwender aus vorprogrammierten Bewegungsabfolgen wählen, beispielsweise das Drücken eines Knopfes oder das Greifen eines Gegenstands. Eine Reihe dieser sogenannten Skills kann Franka ab Werk, andere lassen sich über einen Online Store hinzukaufen. Im Store soll es bald auch Apps geben, also bereits komplette vorkonfigurierte Workflows.

Demokratisierung der Robotik

Für das Start-up bedeutet der Roboter die Chance, Automation vollkommen neu zu denken. Firmengründer Sami Haddadin sieht darin die Demokratisierung der Robotik: Die Schlüsseltechnologie ist nicht nur leistungsfähig, sondern auch für jeden erschwinglich, flexibel einsetzbar und global verfügbar.

Wunderroboter LBR Iiwa: Eine echte Hilfe

Ford hat im Werk Köln kollaborierende LBR Iiwa Roboter in die Montagelinie des Fiesta eingebunden. Sie arbeiten mit den Menschen Hand in Hand und entlasten sie bei der schwierigen Überkopfmontage von Stoßdämpfern.

Im Kölner Ford-Werk werden seit einiger Zeit kollaborierende Leichtbauroboter von Kuka eingesetzt. Die LBR Iiwa Roboter helfen beim Einbau von Hochleistungsstoßdämpfern in den Ford Fiesta – eine Aufgabe, die mit herkömmlichen Automatisierungslösungen nur sehr schwer umsetzbar war. Daher mussten die Arbeiter an der Fertigungslinie bis dato die ergonomisch schwierigen und technisch anspruchsvollen Tätigkeiten in einer schnellgetakteten Arbeitsumgebung rein manuell ausführen.
„Die Kölner Ford Fiesta-Produktion ist weltweit das erste Ford-Werk, das auf diese innovative Technologie setzt“, so Karl Anton, Director Vehicle Operations bei Ford Europa. Bisher mussten die Mitarbeiter in der Stoßdämpfer-Montage Handgriffe über Kopf ausführen. „Schwierig dabei war nicht nur das Arbeiten über Kopf. Gleichzeitig hatten die Mitarbeiter auch ein luftbetriebenes Schraubwerkzeug und den Stoßdämpfer in der Hand, die durch ihr Gewicht noch zusätzlich belastet haben. Beides fällt durch das neue System nun weg und ist damit aus ergonomischer Sicht ein deutlicher Fortschritt für die Mitarbeiter“, erklärte René Zimmermann, Leiter Fabrikations- und Werktechnik der Ford-Werke in der Kölner Endmontage.

Sensibler Roboterarm

Der kollaborierende Leichtbauroboter verfügt über modernste Sensorik und keinerlei Kanten. Durch seine Gelenkmoment-Sensoren erkennt der LBR Iiwa Kontakte sofort und reduziert Kraft wie Geschwindigkeit seiner Bewegung. Daher ist im Gegensatz zu bisherigen automatisierten Systemen weder ein Schutzgitter noch zusätzliche Sicherheitsbekleidung notwendig. Heute platziert der Mitarbeiter an der Station die Schrauben und den Stoßdämpfer nur noch im System – er gibt sie dem Roboter quasi in die „Hand“. Mittels einer leichten Berührung erhält der Roboter das Signal, seine Arbeit zu beginnen. Bei einem Roboter ohne kollaborative Fähigkeiten hätte der Mitarbeiter erst die Sicherheitszone um den Roboter verlassen und an einem Bedienpult das Startsignal geben müssen – was erheblich zeitintensiver wäre. Bei LBR Iiwa dagegen reagiert der Roboterarm direkt, weicht zunächst ein wenig zurück und überprüft dann mithilfe einer eingebauten Kamera die Richtigkeit der Position des Stoßdämpfers. Der Mitarbeiter kann dabei die ganze Zeit im Aktionsraum des Armes bleiben. Befindet sich alles an der richtigen Stelle, fährt der Roboter automatisch in Richtung des Radhauses. Dort kontrolliert der Mitarbeiter noch einmal die Position und gibt das Signal zum Schrauben.
Spätestens hier zeigt sich, dass ein herkömmlicher Industrieroboter für diese Aufgabe nicht einzusetzen ist: Denn der Mitarbeiter muss seinen Kopf direkt neben dem Arm des Roboters platzieren, um die Position zu kontrollieren. Bei einem nichtkollaborierenden Roboter wäre die Gefahr, dass der Mitarbeiter durch eine Bewegung des Roboters verletzt würde, viel zu groß – daher würden die Sicherheitssysteme den Roboter komplett zum Halten bringen. Damit könnte die Aufgabe am laufenden Fertigungsband nicht mehr erfüllt werden.

„Der LBR iiwa ist sensitiv, nachgiebig, sicher, präzise, flexibel und mit einer Mechanik und Antriebstechnik für den industriellen Einsatz ausgestattet.“
Jakob Berghofer,Produktmanager LBR Iiwa & Sunrise.OS, KUKA Roboter

Körperliche Belastung reduziert

In beiden Produktionssystemen der Kölner Fahrzeugfertigung kommen die neuen kollaborierenden Roboter zum Einsatz. „Insgesamt verfügt die Ford-Endmontage damit aktuell über vier dieser Leichtbauroboter, die im Bereich der Stoßdämpfermontage genutzt werden. Die bisherigen Rückmeldungen der Mitarbeiter an den Arbeitsstationen sind sehr positiv. Danach hat sich ihre körperliche Belastung merklich reduziert“, sagt Zimmermann. „An diesen Anlagen ist uns die erfolgreiche Integration der Leichtbauroboter in unsere bestehende Fahrzeugproduktion gelungen. Aktuell prüfen wir weitere Möglichkeiten für einen Einsatz von kollaborierenden Systemen. Ausschlaggebend ist jedoch, dass nicht nur die Effizienz, sondern auch Ergonomie und Arbeitsabläufe verbessert werden“, ergänzt Anton.

Künstliche Intelligenz – der lernende Roboter

Mit künstlicher Intelligenz sollen ­Roboter Aufgaben selbstständig lösen und sich in unbekannten Umgebungen ­zurechtfinden. Immer bessere Algorithmen und extrem leistungsfähige Mikro­prozessoren sorgen dafür, dass Maschinen immer schneller lernen können.

Der Begriff Künstliche Intelligenz (KI) existiert bereits seit mehr als 60 Jahren. Seitdem wird an Systemen und Methoden geforscht, mit denen die Mechanismen des intelligenten menschlichen Verhaltens simuliert werden können. Was sich zunächst einfach anhört, stellte die Wissenschaft bislang jedoch vor große Herausforderungen. Denn viele Aufgaben, die die meisten Menschen mit Intelligenz nicht einmal assoziieren würden, bereiteten Computern schwere Probleme: das Verständnis der menschlichen Sprache, die Fähigkeit, Objekte in Bildern zu erkennen oder ein Roboterfahrzeug durch unbekanntes Gelände zu manövrieren. In jüngster Zeit hat die Künstliche Intelligenz jedoch gewaltige Fortschritte gemacht und wird zunehmend zu einem Wirtschaftsmotor. Alle großen Technologieunternehmen, alle wichtigen Akteure im Silicon Valley, verfügen über KI-Abteilungen. „Fortschritte in Künstlicher Intelligenz werden es Robotern erlauben, zu beobachten, zu lernen und ihre Fähigkeiten zu verbessern“, so Kiyonori Inaba, Vorstandsmitglied und Hauptgeschäftsführer beim Roboterhersteller Fanuc.

Künstliche Intelligenz: Das menschliche Gehirn simulieren

Besonders Erkenntnisse der Hirnforschung haben die Entwicklung künstlicher Intelligenz ermöglicht. Wie beim menschlichen Gehirn wird über Software-Algorithmen und Mikroelektronik ein neuronales Netz geschaffen. Je nachdem, welche Informationen es aufnimmt und wie diese bewertet werden, bildet sich eine ganz spezifische „Informationsarchitektur“ heraus, das „Gedächtnis“. Das neuronale Netz ist permanenter Änderung unterworfen, indem es durch neue Informationen erweitert oder umgebaut wird. Die technologischen Grundlagen für die modernen neuro­nalen Netze wurden in den 1980er Jahren gelegt, doch erst heute ermöglichen leistungsfähige Computer die Simulation von Netzwerken mit vielen „verborgenen Schichten“.

Durch lernen immer besser werden

Deep Learning“ ist heute der Begriff, der für diese Informationsarchitektur genutzt wird. Dahinter stecken Software-Systeme, deren Programmierung sich selbst durch Experimentieren verändert, bei dem jenes Verhalten schließlich „gewinnt“, das am verlässlichsten zu einem gewünschten Ergebnis führt. Viele bekannte Anwendungen wie die Spracherkennungslösungen Siri oder Cortana basieren letztlich auf Deep-Learning-Software. Auch Watson, das Computersystem von IBM, nutzt Deep-Learning-Technologien, um die natürliche menschliche Sprache zu verstehen, deren Wörter und Kontext zu analysieren, diese Informationen schnell zu verarbeiten und so präzise Antworten auf Fragen in natürlicher Sprache auszugeben. Damit nähert sich dieses Computersystem den kognitiven Fähigkeiten des Menschen und birgt damit enormes Potenzial für zukünftige Anwendungen in Wirtschaft und Gesellschaft. „Deep Learning wird das zeitaufwändige Programmieren von Roboterverhalten deutlich reduzieren“, so Fanuc-Manager Kiyonori Inaba. Sein Unternehmen hat Künstliche Intelligenz in sein „Intelligent Edge Link and Drive“ integriert, Fanucs Plattform für das Fog Computing, auch Edge Computing genannt. Mit der integrierten KI können sich die darüber verbundenen Roboter gegenseitig „unterrichten“, um ihre Aufgaben schneller und effizienter zu erledigen: Wo ein Roboter sonst acht Stunden brauchte, um das notwendige „Wissen“ zu erlernen, benötigen acht Roboter nur eine Stunde.

Neue Algorithmen für schnelleren Lernerfolg

Immer weiter verbesserte Algorithmen steigern die Lernfähigkeit immer weiter. So hat die Mitsubishi Electric Corporation vor kurzem einen Schnelltraining-Algorithmus für Deep Learning präsentiert, der sogenannte Inferenzfunktionen beinhaltet, die zur Identifikation, Erkennung und Vorhersage unbekannter Fakten aufgrund von bekannten Fakten erforderlich sind. Der neue Algorithmus soll die Implementierung von Deep Learning in Fahrzeugen, Industrierobotern und anderen Maschinen vereinfachen, indem der Speicherverbrauch und die Rechenzeit für das Training drastisch reduziert werden. Der Algorithmus verringert Trainingszeit, Rechenkosten und Speicheranforderungen auf ungefähr ein Dreißigstel der Werte herkömmlicher KI-Systeme.

Spezielle Chips für Deep Learning

Um die für die Realisierung eines Deep-Learning-Systems erforderliche extrem hohe Rechenleistung zu erhalten, wird heute zumeist auf das sogenannte GPU-Computing zurückgegriffen. Dabei werden die Rechenleistung eines Grafikprozessors (GPU) und der CPU kombiniert. CPUs sind speziell auf serielle Verarbeitung ausgelegt. Grafikprozessoren verfügen dagegen über Tausende kleinerer effizienterer Recheneinheiten für die parallele Datenverarbeitung. Beim GPU-Computing können serielle Code-Teile daher auf der CPU laufen, während parallele Teile – wie das Trainieren von tiefen neuronalen Netzen – auf dem Grafikprozessor verarbeitet werden. Das Ergebnis sind dramatische Leistungssteigerungen. Doch die Entwicklung der Deep-Learning-Prozessoren ist längst noch nicht am Ende: So überbietet der Prozessor „Eyriss“, der am Massachusetts Institute of Technology (MIT) entwickelt wurde, die Leistungsfähigkeit von Grafikprozessoren um den Faktor Zehn. Während sich viele Kerne in einem GPU eine einzelne große Speicherbank teilen, hat bei Eyriss jeder Kern seinen eigenen Speicher. Jeder Kern ist in der Lage, mit seinem unmittelbaren Nachbarn zu kommunizieren. So müssen Daten also nicht immer durch den Hauptspeicher geführt werden, das System wird deutlich schneller. ­Vivienne Sze, eine der Forscherinnen am Projekt „Eyriss“: „Deep Learning ist für viele Anwendungen nützlich, wie zum Beispiel für die Objekterkennung, Sprache oder Gesichtserkennung.“

Mehr sehen: 3D Kamerasysteme

Das Sehen ist eines der entscheidenden Kriterien, damit Roboter den Menschen im Alltag unterstützen können. Mit unterschiedlichen Sensorsystemen erkennen sie nicht nur Objekte, sondern erfassen auch exakt Ausrichtung und Position. Die 3D Kamerasysteme gehen heute so weit, dass Roboter sogar bis auf die molekulare Ebene eines Gegenstandes blicken – und so deutlich mehr ­sehen können als ihr mensch­liches Vorbild, das Auge.

Um den Menschen möglichst flexibel und autonom zu unterstützen, muss ein Roboter Gegenstände erkennen und ihre genaue Lage erfassen. Nur so sind Befehle denkbar wie „Bring das Glas“ oder „Halte das Bauteil“. Roboterhersteller greifen dazu auf die gesamte Palette der aus der industriellen Bildverarbeitung bekannten Sensoren zurück – vom Ultraschallsensor bis hin zum Laserscanner. Vor allem aber werden verschiedene Formen von Kamerasystemen eingesetzt. Schon mit „einfachen“ 2D-Lösungen lassen sich Konturen erkennen und Objekte identifizieren. Allerdings stoßen sie an Grenzen, wenn Teile unbestimmt übereinanderliegen. Mit nur „einem Auge“ lassen sich zudem keine Höheninformationen gewinnen – die aber sind wichtig, soll der Roboter einen Gegenstand aufnehmen und die Position seines eigenen Greifers in Relation zum Objekt einschätzen.

Sehen in dritter Dimension

Daher gewinnen mit zunehmender Flexibilität und Mobilität der Roboter Systeme zum räumlichen Sehen an Bedeutung. Eine heute häufig eingesetzte Möglichkeit, dem Roboter ein räumliches Sehen zu ermöglichen, orientiert sich an der Natur: Wie der Mensch erhält die Maschine zwei Augen in Form von zwei versetzt angeordneten Kameras. Beide nehmen das gleiche Bild auf, aufgrund der versetzten Anordnung allerdings mit einem perspektivischen Unterschied. Eine Auswerteelektronik in der Stereokamera berechnet über diese Parallaxenverschiebung die Distanz zu dem betrachteten Objekt. Zurzeit nutzen Kamerasysteme entweder CCD- oder CMOS-Sensoren zur Erfassung der Lichtsignale. Der Trend geht aber eindeutig zur CMOS-Sensortechnologie: Sie bietet bei vergleichbarer Bildqualität weitgehende Blendfreiheit, hohe Temperaturfestigkeit, geringen Stromverbrauch und ist zudem kostengünstiger zu fertigen.

Messen und abbilden in einem

Die dreidimensionale Bilderfassung mit Stereokamera ist allerdings aufwändig und kostspielig. So setzt sich zunehmend die ToF-Technologie für räumliches Sehen bei Robotern durch. Hierbei erfasst ein Sensorchip nicht nur das Bild eines Objektes, sondern bestimmt auch gleichzeitig dessen Entfernung. Kern dieser Time-of-Flight-(ToF-)Technologie ist die Messung der Zeit, die das Licht von der Lichtquelle zum Objekt und zurück zur Kamera braucht. Die eingesetzten Sensoren liefern also zwei Datentypen pro Pixel: einen Intensitätswert (Graustufe) und einen Dis­tanzwert (Tiefenwert). So entsteht in der Summe eine Punktwolke aus – je nach Chip – mehreren tausend Bildpunkten, aus denen die entsprechende Software sehr genau Art und Entfernung eines Objektes berechnen kann. Die Kameras verfügen über eine eigene aktive Beleuchtungseinheit, die Laser- oder Infrarotlicht ausstrahlt. So sind ToF-Systeme unabhängig vom Umgebungslicht. Anders als bei 3D-Stereo-Aufnahmen wird die Entfernung nicht errechnet, sondern Pixel für Pixel exakt gemessen, sodass ToF-Kameras mit sehr hoher Geschwindigkeit arbeiten. Allerdings ist die Auflösung des resultierenden Bildes niedriger als bei Stereokameras. Daher werden ToF-Systeme häufig mit Stereosystemen gekoppelt, um die Vorteile beider Systeme zu nutzen und ein möglichst dichtes und zugleich genaues Tiefenbild zu erhalten. Bei modernen Kamerasystemen ist es zudem möglich, auch Bewegungsvektoren zu erfassen. Dazu wird die Lage einer Struktur auf zwei nacheinander erfassten Bildern per Software verglichen und so eine Bewegungsinformation ermittelt.

Schneller mit Mikrospiegeln

Ein anderes Verfahren nutzt die Errungenschaften der MEMS-Technologie: Sogenannte DLP-Systeme (Digital Light Processing) bestehen aus einem Chip mit mehreren Millionen mikroskopisch kleinen Spiegeln. Jeder dieser Mikrospiegel misst weniger als ein Fünftel der Breite eines menschlichen Haars. Jeder Spiegel kann einzeln angesteuert werden und mehrere tausend Mal pro Sekunde schalten. So lässt sich aus dem Licht einer Lichtquelle ein exakt strukturiertes Lichtmuster auf ein zu erfassendes Objekt reflektieren. Indem eine ganze Serie derartiger Lichtmuster auf einen Gegenstand projiziert und die Verzerrung des Lichts durch das Objekt von Sensoren oder Kameras erfasst wird, kann eine sehr detaillierte 3D-Punktwolke erstellt werden. Dank der hohen Schaltgeschwindigkeit, der großen Zahl an Graustufen sowie der Fähigkeit, Licht im sichtbaren Bereich ebenso zu erfassen wie im UV- und Infrarotbereich, sind 3D-Lösungen zur optischen Messung mit DLP-Technologie schneller und genauer als die herkömmlichen Lösungen.

Chemische Eigenschaften sehen

Relativ neu sind auch 3D-Systeme mit einer hyperspektralen Bildverarbeitung. Dabei werden zur Analyse eines Gegenstandes mehr als 100 verschiedene Wellenlängen verwendet. Zerlegt in ihr Spektrum, werden sie von jedem Material mit seinen spezifischen chemischen und molekularen Eigenschaften anders reflektiert. So hat jedes Objekt eine spezifische spektrale Signatur, einen einzigartigen Fingerabdruck, anhand derer es identifiziert werden kann. Dadurch sind wahrhaft tiefe Einblicke bis hinunter zur Molekularebene eines Objektes möglich. Damit übertreffen Roboter dann ihr Vorbild – denn der Röntgenblick ist für Menschen immer noch Science-Fiction.

Flugroboter im Mikroformat

An der Harvard University arbeiten Forscher aus den unterschiedlichsten Fachgebieten an einem winzig kleinen Flugroboter. Groß wie eine Biene, soll er zukünftig zum Beispiel im Schwarm unzugängliche Gegenden erkunden oder als künstlicher Bestäuber arbeiten.

Immer mehr Roboter kommen auf den Markt, deren Funktion und Form unsere Vorstellungen von einer Maschine sprengen. Eine dieser eher ungewöhnlichen Roboterapplikationen wird an der Harvard University entwickelt: Die Roboterbiene, oder „RoboBee“. Mit ihrem Projekt wollen die Wissenschaftler ein autonomes robotisches Insekt kreieren, das kontinuierlich und unabhängig fliegen kann. Derartige Roboter sollen eines Tages Erkundungsmissionen ausführen, bei der Telekommunikation helfen oder sogar als künstliche Bestäuber arbeiten.

Kontrollierter Flug

Die Forscher von der Harvard University arbeiten zusammen mit Kollegen von der Northeastern University schon seit einigen Jahren an dem Projekt. Bereits im Jahr 2012 konnten die Wissenschaftler der Öffentlichkeit den ersten kontrollierten Flug eines insektengroßen Roboters demonstrieren. Seitdem haben sie immer anspruchsvollere und kleinere Roboter entwickelt. Eines Tages sollen sie völlig autonom fliegen können.
Um dieses Ziel zu erreichen, mussten die Wissenschaftler Grundlagenforschungen in den verschiedensten Feldern vorantreiben: Dazu gehören Methoden der Mikrofertigung genauso wie Materialien für mikroskopisch kleine Antriebe, Energiespeicher im kleinstmöglichen Maßstab genauso wie Algorithmen zur effektiven Steuerung einzelner RoboBees oder auch ganzer Schwärme.
Zu den Highlights zählen unter anderem neue Methoden zur Herstellung von nur wenige Millimeter großen Geräten – zum Einsatz kamen dabei Schicht- und Falttechniken. Auch neue Sensoren wurden entwickelt, die im Low-Power-­Bereich oder bei mobilen Computern eingesetzt werden können. Ein weiterer Output der Entwicklungsarbeit sind spezielle Architekturen für Ultra-Low-Power-Rechensysteme. Und schließlich schrieben die Wissenschaftler Algorithmen zur Koordination von hunderten oder gar tausenden Robotern, so dass sie effektiv zusammenarbeiten konnten.

Vorbild Natur

Dabei ließ sich das Projektteam von der Natur inspirieren – insbesondere von den Fähigkeiten, die es Insekten ermöglichen, trotz ihrer winzigen Körper ohne fremde Hilfe abzuheben, zu navigieren und wendige Flugbewegungen durchzuführen.
„Bienen und andere soziale Insekten liefern ein faszinierendes Modell für technische Systeme, die sich in unstrukturierten Umgebungen bewegen, ihr Umfeld erfassen, kommunizieren und komplexe Aufgaben als ein Kollektiv relativ einfacher Individuen erfüllen können“, meint Robert Wood, der Leiter des Projektes. „Das RoboBee-Projekt entstand aus dieser Inspiration und hat Lösungen für eine ganze Anzahl fundamentaler Herausforderungen entwickelt – Herausforderungen, die durch die geringen Abmessungen der Individuen und durch die Größe des Kollektivs gegeben sind.“ Die aktuellen RoboBees wiegen gerade einmal 84 Milligramm – und sind damit sogar leichter als reale Bienen, bei ungefähr gleicher Größe. Aktuell arbeitet das Team daran, dass die Miniroboter ihr Umfeld mit einem Laser erfassen können.

Zwischenlandung spart Energie

Zudem können die RoboBees jetzt auch auf einem Ast oder Ähnlichem zwischenlanden, um Energie zu sparen – genauso wie Fledermäuse, Vögel oder Schmetterlinge. „Die Verwendung eines Haftmittels, das ohne komplexe physikalische Mechanismen kontrollierbar ist, das einen geringen Energiebedarf hat und das auf einem breiten Spektrum von Oberflächen haftet, ist perfekt für Roboter, die agil sind, aber nur eine geringe Nutzlast haben – wie unsere RoboBee“, so Wood. „Wenn man Roboter von der Größe eines Insekts baut, sind Einfachheit und niedriger Energieverbrauch immer die größten Herausforderungen.“ Woods Team verwendete ein Elektroden-Patch, das die elektrostatische Adhäsion nutzt. Damit kann die RoboBee an nahezu jeder Oberfläche haften, von Glas über Holz bis zu einem Blatt. Das Patch benötigt für eine Zwischenlandung rund ein Tausendstel der Energie, die für den Start erforderlich ist.

In fünf bis zehn Jahren in der realen Welt

„Mikro-Flugroboter haben ein enormes Potenzial für die groß angelegte Sensorerfassung von unzugänglichen, weiträumigen und gefährlichen Gegenden. Aber Fliegen ist energieintensiv, und die Grenzen heutiger Energiespeicher-Technologien schränken Luftoperationen erheblich ein“, so Jordan Berg, der als Programmdirektor der National Science Foundation (NSF) das Projekt kennt. Die NSF finanziert das Projekt schon seit Jahren mit. Aber das Projektteam lässt sich nicht beirren und entwickelt die ­RoboBee kontinuierlich weiter. Der Landemechanismus soll richtungsunabhängig werden, sodass der Miniroboter überall landen kann. Zudem wird an Energiequellen gearbeitet, die sich an Bord des Roboters befinden. Damit könnte der Roboter seine Energie selber erzeugen und ohne den bisher benötigten Draht fliegen. Wood schätzt, dass es noch einmal fünf bis zehn Jahre dauern wird, bevor die RoboBee tatsächlich in der realen Welt eingesetzt werden kann.

(Bildnachweis: Unsplash: Kelsey Krajewski)

Mensch & Roboter: Vom harten Kerl zum Softie

In Zukunft werden Roboter immer enger mit Menschen interagieren. Voraussetzung dafür ist, dass der Roboter den Menschen wahrnimmt, auf seine Handlungen reagiert und ihn nicht gefährdet.

Einer der wichtigsten Trends in der Robotik ist die direkte Zusammenarbeit von Mensch & Roboter. Während noch vor wenigen Jahren Industrieanwendungen die Robotik beherrschten, unterstützen Roboter den Menschen heutzutage auch in Bereichen wie dem Katastrophenschutz, im Haushalt oder bei medizinischen Operationen. Dabei verlassen sie zunehmend ihren bisher geschützten und abgekapselten Arbeitsraum und treten in direkte Interaktion mit dem Menschen. Das erfordert ganz besonders hohe Standards im Bereich sicherheitstechnische Anforderungen und funktionaler Sicherheit. Zahlreiche Normen und Standards sorgen bereits heute in der Industrie dafür, dass Roboter auch bei einer Fehlfunktion den Menschen und seine Umgebung nicht gefährden. Die ­EN ISO 10218 beschreibt zum Beispiel bereits die Anforderungen für kollaborierende Roboter und kann auch außerhalb des industriellen Bereichs angewendet werden.
Basis für eine hohe Sicherheit auch ohne Schutzzäune sind die immensen Fortschritte in Elektronik und Software-­Entwicklung. Denn um den Menschen nicht zu gefährden, müssen derartige „interaktive“ Roboter über besondere Fähigkeiten verfügen: Mit komplexen sensorischen Fähigkeiten können sie die Umwelt und den menschlichen Partner zuverlässig erkennen. In Zukunft werden kognitive Fähigkeiten es ihnen zusätzlich ermöglichen, die Handlungen des menschlichen Partners vorherzusehen und zu interpretieren, um daraus sichere und hilfreiche eigene Handlungen ableiten zu können.

Den Arbeitsraum im Blick

Dazu überwachen die Roboter ihre Umgebung beziehungsweise den Arbeitsraum gleich mit mehreren unterschiedlichen Sensoren, zum Beispiel mit Kamerasystemen, Ultraschallsensoren oder drucksensitiven Sensoren – und vielen
anderen Technologien. Mithilfe dieser Multisensor-Systeme lässt sich die Umgebung des Roboters genau erfassen und Bewegungen in diesem Raum werden erkannt. Durch die Fusion der Messwerte verschiedener Sensoren können dynamische Hindernisse verfolgt und ihre Position und Geschwindigkeit geschätzt werden. So kann der Roboter errechnen, wie sich ein Hindernis, zum Beispiel ein Mensch, bewegt und ob es zu einer Kollision kommen kann. Während der Roboterbewegung wird der Abstand des Roboters zu den Hindernissen fortlaufend überwacht. Falls der Roboter ein unerwartetes Hindernis registriert, verlangsamt er seine Bewegung oder passt seine geplante Bahn entsprechend an, so dass eine Kollision vermieden wird.

Befehle werden über Gesten übermittelt

Damit eine echte Interaktion stattfinden kann, ist darüber hinaus auch eine effektive Kommunikation zwischen Mensch und Maschine Voraussetzung. Dank erheblicher technischer Fortschritte gibt es dafür heute neue Möglichkeiten, die weit über die Tasteneingabe oder Wischgesten hinausgehen. Roboter, die mit dem Menschen zusammenarbeiten, brauchen eine Stimme und insbesondere ein intelligentes Sprachverstehen, um ein wirklich vollwertiger Assistent im Alltag zu sein. Eine zuverlässige Spracherkennung in möglichst vielen Sprachen, eine komplexe semantische Verarbeitung unter Einbeziehung des Kontexts (seien es Zeit und Ort oder Informationen aus Apps und Datenbanken) und eine natürlich wirkende Sprachausgabe sind dafür Voraussetzungen. Auch dank der Entwicklungen von Systemen wie IBM Watson, Google Home, Apple Siri oder Amazon Alexa hat die Genauigkeit der Worterkennung laut des Branchenverbandes CTA (Consumer Technology Association) heute einen Grad von 95 Prozent erreicht – 1990 lag er noch bei nahe null, 2013 bei circa 75 Prozent. Damit dürften Computer in 2017 zum ersten Mal das gesprochene Wort genauso gut verstehen wie Menschen. Doch der Mensch nimmt etwa 80 Prozent der Informationen visuell auf – da liegt es nahe, auch die Kommunikation mit dem Roboter visuell zu gestalten. Mit neuen 3D-Sensortechnologien sowie schnellen Datenverarbeitungs- und Interpretationsmethoden können auch Maschinen Gesten und Kommandos erfassen und verstehen. So wird der Mensch zukünftig zum Beispiel nur noch auf ein Objekt zeigen müssen, damit der Roboter es ihm bringt.

Mensch & Roboter: Die Natur nachahmen

Ganz neue Impulse liefert ein noch recht junges, aber verheißungsvolles Forschungsgebiet: Soft Robotics. Hierbei sollen mit biologisch inspirierten Technologien weiche organische Strukturen geschaffen und die Bewegungsabläufe aus der belebten Natur nachgeahmt werden. Nach diesem Prinzip entwickelte Roboter bestehen also nicht mehr aus starren Materialien, die unnachgiebige Bewegungen ausführen und so ein hohes Gefährdungspotenzial für den Menschen haben. Dafür arbeiten zahlreiche Wissenschaftsdisziplinen zusammen: Elektronik, Materialwissenschaft, Software-Entwicklung, Sensorik und Antriebstechnik werden miteinander verwoben. Das Ziel: eine intuitive, sichere und empfindsame Interaktion zwischen Mensch und Roboter.

Ganz ohne harte Bauteile

Forscher der Harvard Universität haben einen kleinen, im 3D-Druck produzierten Soft Robot entwickelt, der ganz ohne Elektronik auskommt. Das Octobot – nach seiner krakenähnlichen Form – genannte Gerät benötigt keine Batterie, sondern bezieht seine Energie aus einem Treibstoff. Angetrieben wird er durch eine chemische Reaktion, die über Mikrofluide gesteuert wird. Ein derartig vollständig „weicher“ Roboter hat keine für den Menschen gefährlichen Ecken und Kanten mehr. Gleichzeitig eröffnet er völlig neue Einsatzmöglichkeiten, kann ein „Soft Robot“ sich doch mit seinen weichen Formen auch durch schmale Spalten quetschen, an denen klassische Roboter scheitern würden. Ein spannender Ansatz zum Beispiel für Roboter, die in der Katastrophenhilfe eingesetzt werden.

Digitalisierung: Jobkiller oder Jobmotor

Digitalisierung in der Arbeitswelt – Werden Roboter den Menschen arbeitslos machen oder werden sie im Gegenteil für neue Jobs sorgen? Das Thema ist unter ­Experten umstritten – wir haben die verschiedenen Meinungen ­einmal gegenübergestellt.

„Der Einzug von Robotern wird große Teile unserer Arbeitswelt auf den Kopf stellen“, betont Dr. Martin Sonnenschein, Partner und Europachef bei A.T. Kearney. „In 20 Jahren wird fast die Hälfte der heutigen Arbeitsplätze in Deutschland durch Roboter ersetzt werden, die die Jobs effizienter erledigen können.“ Das sagte Dr. Sonnenschein bereits Ende 2015 bei der Präsentation einer Studie, die die Unternehmensberatung im Rahmen ihrer Gesellschaftsinitiative „Deutschland 2064 – die Welt unserer Kinder“ erstellt hat. Nach A.T. Kearneys Analysen weisen in Deutschland über 300 und damit ein Viertel aller Jobprofile ein hohes Automatisierungsrisiko in den nächsten beiden Jahrzehnten auf. Der mögliche Effekt für den Arbeitsmarkt ist drastisch, weil in diesen Bereichen 17,2 Millionen Männer und Frauen beschäftigt sind – das sind 45 Prozent aller Beschäftigten. Allerdings entfällt auch ein Beruf mit hoher Automatisierungswahrscheinlichkeit nicht zwangsläufig vollständig.
Eine im gleichen Zeitraum erschienene Studie der Bank Ing-Diba wird konkret: Demnach sind 18,3 Millionen Arbeitsplätze alleine in Deutschland durch die fortschreitende Technologisierung bedroht. Beide Studien transferieren die Methode, die Ökonom Carl Benedikt Frey und der Ingenieur Michael Osborne 2013 für den US-amerikanischen Markt genutzt haben, auf Deutschland. Nach Frey und Osborne werden demnach 47 Prozent der Arbeitsplätze in den USA mit hoher Wahrscheinlichkeit „robotisiert“. Die Weltbank berechnete mit dieser Methode auch die Aussichten für Indien und China: Danach wären in Indien 69 Prozent aller Jobs bedroht, in China sogar 77 Prozent.
Besonders Niedriglohn-Jobs sind betroffen: Laut dem „Economic Report 2016“, der vom Council of Economic Advisers (CEA) herausgegeben wurde, laufen sie zu 83 Prozent Gefahr, langfristig von Robotern mit Künstlicher Intelligenz ersetzt zu werden. Doch nicht nur der einfache Arbeiter muss sich sorgen machen: Laut den Marktanalysten von Gartner werden schon in 2018 mehr als 3 Millionen Arbeiter weltweit von „Robo-Bossen“ beaufsichtigt. Das sind nicht Roboter im herkömmlichen Sinne, sondern Software-Systeme, die die Leistungsdaten der Mitarbeiter messen und überwachen – besser und genauer, als es ein menschlicher Manager könnte.
Eines steht fest: Die Automatisierung wird einen großen Einfluss auf die Arbeitswelt haben. „Das fordert uns viel Veränderungsbereitschaft und Flexibilität ab“, so A.T. Kearney-Europachef Dr. Martin Sonnenschein. „Wer sie aufbringt, kann von diesem drastischen Wandel aber auch profitieren – als Arbeitnehmer und als Arbeitgeber. Wir können abwarten und uns von der Automatisierung überrollen lassen. Oder wir können uns mit Mut zu Wandel und Veränderung darauf einlassen – und flexibel und neugierig nach den neuen Möglichkeiten suchen, die sich daraus ergeben.“

Der Verband Deutscher Maschinen- und Anlagenbau sieht in den von der Ing-Diba prognostizierten Jobverlusten eine klare Fehleinschätzung: Die Studie überschätze das Potenzial von zum Beispiel Kochrobotern, humanoiden Hotelrobotern und Paketauslieferungs-Drohnen. Auch eine Studie im Auftrag des Bundesarbeitsministeriums widerspricht den Aussagen der Ing-Diba: Nach Überprüfung des Automatisierungspotenzials von Tätigkeiten – anstatt von Berufen – weisen nicht mehr als zwölf Prozent der Arbeitsplätze ein Profil mit hoher Automatisierungswahrscheinlichkeit auf. Dass die Sorgen, Roboter würden Menschen die Arbeitsplätze wegnehmen, unbegründet sind, zeigt sich zum Beispiel in der deutschen Automobilindustrie: Hier wurde der Bestand an Industrierobotern in Deutschland von 2010 bis 2014 um 15 Prozent auf 92.000 Einheiten ausgeweitet. Im selben Zeitraum erhöhte sich die Zahl der Beschäftigten um zehn Prozent auf 775.000. Mit den jetzt auf den Markt kommenden kollaborativen Robotern würden sich zusätzlich viele neue Einsatzmöglichkeiten erschließen. Auch die Boston Consulting Group sieht die Automatisierung positiv. Denn es verschwinden zwar einige Tätigkeitsprofile, doch dafür entstehen auch wieder völlig neue. Einem Jobverlust von rund 610.000 Jobs stehen nach Berechnungen der Marktexperten rund eine Million Jobs gegenüber, die bis 2025 entstehen könnten. „Neue Technologien wie Augmented Reality oder robotergestützte Arbeitsplätze können sogar dazu beitragen, dass gering qualifizierte Arbeitnehmer wieder in den Arbeitsmarkt integriert werden können“, so Markus Lorenz, BCG-Partner und Experte für Industrie 4.0.

610.000 Arbeitsplätze fallen in Deutschland durch Digitalisierung weg

1 Million neue Arbeitsplätze entstehen dank Automatisierung

Den Arbeitnehmern, zumindest in Deutschland, sind die Veränderungen der Arbeitswelt bewusst. Statt darin jedoch eine Bedrohung für ihren Job zu sehen, haben die Beschäftigten vor allem die Vorteile solcher Technologien im Arbeitsalltag im Blick. Das zeigt eine zum Weltwirtschaftsforum in Davos Anfang 2017 veröffentlichte Studie von Accenture Strategy. Dennoch mahnt Frank Riemensperger, Vorsitzender der Geschäftsführung von Accenture in Deutschland, Österreich und der Schweiz: „Der digitale Wandel kann nur gelingen, wenn Unternehmen stärker als bisher in den Aufbau neuer Kompetenzen und zusätzlicher Qualifikationen in der Belegschaft investieren. Dabei geht es weniger darum, die Beschäftigten auf neue Berufe umzuschulen, sondern ihnen kontinuierlich die nötigen Kompetenzen für den Umgang mit neuen Technologien zu vermitteln. Die Digitalisierung führt unterm Strich nicht zu einem Verlust von Arbeitsplätzen, sie stellt aber neue Anforderungen an die Arbeitnehmer. Die Bedeutung der ständigen Weiterqualifizierung am Arbeitsplatz wird stark zunehmen, nicht zuletzt, da die Halbwertszeit unseres Wissens angesichts der rasanten technologischen Entwicklungen immer kürzer wird.“

Der Vordenker der Robotergesetze

Mit den drei Robotergesetzen hat Isaac Asimov im Jahr 1942 Regeln für das Zusammenleben von Mensch und Roboter definiert, die heute aktueller sind denn je. Der 1992 verstorbene Autor und Wissenschaftler inspirierte mit seinen Geschichten nicht nur die Science-Fiction-Gemeinde, sondern auch Robotikentwickler.

Speedy weiß nicht mehr, was er tun soll. Der flinke Roboter soll den dringend benötigten Rohstoff Selen auf dem Planeten Merkur beschaffen. Doch das ist mit großen Risiken für seine Existenz verbunden. Andererseits will er den Befehlen der Menschen gehorchen. Der Konflikt mit den für sein Verhalten grundlegenden Gesetzen ist zu viel – Speedy dreht durch. Er rezitiert Operetten-Verse und fährt nur noch im Kreis. Erst, als sein menschlicher Besitzer sich vor seinen Augen in Lebensgefahr bringt, kann sein Elektronengehirn wieder klar denken – denn jetzt muss Speedy ganz klar dem ersten Gesetz folgen.

 

  • Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
  • Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
  • Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

 

Ethische Fragen werden heute aktuell

Mit dieser Szene aus seiner im Jahr 1942 veröffentlichten Kurzgeschichte „Runaround“ hat sich Isaac Asimov unsterblich gemacht. In den folgenden Jahren nahmen zahlreiche Autoren und Filmschaffende die in der Kurzgeschichte erstmals definierten Robotergesetze auf und entwickelten um sie herum eigene Geschichten. Aber Asimovs Ideen sind nicht nur reine Fiktion, sondern fanden und finden viel Beachtung bei Forschern aus den Bereichen der Robotik und der Künstlichen Intelligenz. Die drei Gesetze dienen gerade heute Entwicklern als grundlegender Leitfaden bei der Programmierung ihrer Roboter. „Mit der baldigen Ankunft der ersten autonomen Roboter mitten in unserer Gesellschaft werden einige ethische Fragen aktuell werden, die der Science-­Fiction-Autor Isaac Asimov bereits 1942 als seine berühmten Robotergesetze formuliert hatte – beispielsweise darf ein Roboter Menschen töten oder verletzen“, so Philipp Schaumann von Sicherheitskultur.at. Er referierte auf der Fachtagung IT-­Security Community Xchange Ende 2016 über „Ethik für autonome Fahrzeuge“.

Vom Biochemiker zum Autor

Doch nicht nur die Beziehung zwischen Mensch und Roboter beschäftigte den am 2. Januar 1920 im russischen Petrowitschi geborenen Asimov. Zu seinen über 500 Büchern gehören zahlreiche wissenschaftliche Werke zu Physik, Chemie und anderen Naturwissenschaften, aber auch Bücher über die Bibel, William Shakespeare oder über die griechische und römische Geschichte. Denn Asimov war ausgebildeter Naturwissenschaftler: Nachdem er im Alter von drei Jahren mit seiner Familie in die USA auswanderte und in Brooklyn aufwuchs, studierte er Chemie an der Columbia University und machte 1949 seinen Doktor in Biochemie. Schon während seines Studiums kam der Wissenschaftler mit der noch jungen amerikanischen Science-Fiction-Szene in Kontakt. Seine erste Kurzgeschichte veröffentlichte er 1939. Doch Fulltime-Autor wurde er erst 1958 – er gab seine Dozentenstelle an der Boston University auf und widmete sich ganz dem Schreiben.

Konflikt zwischen Technik und Ethik im Fokus

Eines seiner erfolgreichsten Werke war die „Foundation“-­Trilogie: In der galaktischen, wissenschaftsbegeisterten Science-Fiction-Serie erzählt Asimov, wie es einem Wissenschaftler mittels der sogenannten Psychohistorik gelingt, die Entwicklung der Menschheit für Jahrtausende vorauszuberechnen und zu steuern. Diese Trilogie verband Asimov mit seinen zahlreichen Roboter- und Imperiumsromanen zu einem umfangreichen Zyklus über den Aufbau einer neuen Zivilisation im Weltall. All seinen Romanen und Kurzgeschichten gemein ist der Konflikt zwischen Technik und Ethik. So steht für Asimov bei seinen Robotergeschichten nicht allein die Faszination für die futuristische Technik im Vordergrund, sondern vielmehr die Auswirkungen dieser Technik auf die menschliche Gesellschaft – und welche Dilemmas dadurch ausgelöst werden können.

EU-Parlament fordert Robotergesetze

Wie weit Asimov damit seiner Zeit voraus war, zeigt eine Pressemeldung des Europäischen Parlaments, die Anfang 2017 veröffentlicht wurde: Darin fordern die Parlamentarier die EU-Kommission auf, Regeln für Robotik und künstliche Intelligenz vorzulegen. „Eine Option könnte sein, Robotern einen Status als „elektronische Persönlichkeit“ zuzuweisen, zumindest dann, wenn es um den Schadenersatz geht“, so Mady Delvaux, Luxemburg, die den entsprechenden Bericht formuliert und an die Kommission gegeben hat. Die EU-Parlamentarier schlagen einen freiwilligen ethischen Verhaltenskodex für Robotik für Forscher und Designer vor, um sicherzustellen, dass ihr Vorgehen in Einklang mit rechtlichen und ethischen Standards steht und dass Design und Nutzung von Robotern die Menschenwürde respektieren.
Asimov hat diese Ambivalenz zwischen Ethik und Robotik vorhergesehen: In seiner fiktiven Welt von 2015 sind die Roboter zwar unverzichtbare Helfer bei der Eroberung ferner Planeten. Auf der Erde aber sind sie verboten, weil die Menschen Angst vor ihnen haben.

(Bildnachweis: United States Library of Congress; Unsplash: NASA)

Aus Ideen Realität werden lassen

Für die Entwicklung autonomer Roboter, die eng mit dem Menschen agieren können, ­liefert EBV Elektronik als Europas größter Halbleiter-Distributor alle erforderlichen Elektronik­komponenten. Aber nicht nur, wie Bernard Vicens, Director ­Segment Smart Consumer & Building bei EBV, betont. Wenn nötig, bietet das Unternehmen seinen Kunden ein komplettes Ökosystem an Lösungen und identifiziert mit ihnen gemeinsam neue mögliche Geschäftsfelder.

Haben Sie schon einen Roboter zuhause?
Bernard Vicens: Noch nicht. Aber ich überlege, mir in Zukunft einen Roboter-Rasenmäher zuzulegen.

Was macht die Robotik für Sie als ElektronikDistributor so spannend?
B. V.: Zunächst erinnern Roboter mich – und wahrscheinlich jeden von uns – an Science-Fiction-Filme und Romane, die ich als Kind gesehen beziehungsweise gelesen habe … was mitunter furchteinflößend sein kann! Im Rahmen unseres Geschäfts sind wir noch in einer sehr frühen Phase, aber Anwendungen gibt es über alle Marktsegmente hinweg. Auch sind die Herausforderungen gewaltig – in punkto Rechen-Power, Energie-Management, Sicherheit, Sensoren, Mensch-Maschine-Schnittstellen und Kommunikation – so dass dieser Markt bald ein strategischer sein wird.

Welche Komponenten für Roboter bietet EBV?
B. V.: Wir haben Lösungen für alle gerade genannten Technologien. Darüber hinaus erweitert sich unser Portfolio speziell mit neuen Sensortechnologien.

Wo sehen Sie den aktuell spannendsten Markt für Roboter?
B. V.: Ich denke, dass der Heim-Assistenz-Roboter das nächste große Ding sein wird, mit einer Spracherkennung vergleichbar mit der von Amazon Echo oder Google Home. Wir werden bald einen ähnlichen Ansatz bei mobilen Robotern für verschiedene Heimapplikationen wie die Beaufsichtigung von Kindern, Unterhaltung, Sicherheit oder Komfort sehen …

Gibt es Lieblingsprojekte, die Sie in letzter Zeit betreut haben? Können Sie uns Ihre Favoriten kurz vorstellen?
B. V.:
Nun, da gibt es gleich mehrere interessante Projekte. Zum Beispiel den NemH2O. Der Pool-Roboter kann ewig im Wasser bleiben, dank seiner Aufladung über Hochleistungsinduktion. Ein anderer meiner Favoriten ist Wiigo – ein autonomer und selbstfahrender Einkaufswagen, der entwickelt wurde, um Menschen mit oder ohne eingeschränkter Mobilität im Supermarkt zu folgen. Dann gibt es Keecker, einen smarten Multimediaroboter, der sich durch das Zuhause bewegt und Unterhaltung, Kommunikation und Sicherheit in jeden einzelnen Raum bringt. Ein anderes spannendes Projekt ist Buddy, ein Open-Source-Robotergefährte, der für jedes Familienmitglied Vernetzung, Schutz und Interaktion bietet.

Die Robotik macht zurzeit einen gewaltigen Entwicklungssprung. Welche Technologien beziehungsweise Trends sind in Ihren Augen dafür maßgeblich verantwortlich?
B. V.:
Die aktuellen Fortschritte in der Spracherkennung erleichtern die Interaktion zwischen Menschen und Robotern enorm. Zum Beispiel ist es möglich, einen Stimmenaktivator in eine Anwendung zu integrieren – man muss nur ein Schlüsselwort aussprechen, um ein System aufzuwecken. Außerdem bietet die Cloud nahezu grenzenlose Kapazitäten für anspruchsvollste Spracherkennung – es gibt praktisch kein Limit mehr für die Fähigkeiten einer Stimmerkennung.

Welche Aspekte in der Robotik finden Sie ­gerade besonders spannend?
B. V.:
Die Mensch-Maschine-Schnittstellen werden wirklich immer besser. Noch einmal, die Spracherkennung wird definitiv unsere Interaktion mit Robotern vereinfachen; allerdings bedeutet die Tatsache, dass Roboter immer enger mit uns Menschen agieren – zum Beispiel als Pflegeroboter – dass sehr strikte Sicherheitsprozesse implementiert werden müssen. Was mich an die drei Robotergesetze von Isaac Asimov erinnern lässt …

Ein Tesla baut einen Unfall, weil er einen querstehenden Lkw nicht von einer Brücke unterscheiden kann. Ein Security-Roboter fährt in einem Einkaufszentrum ein Kind um. Sind die Robotiksysteme wirklich schon so weit, dass man sie im Alltag einsetzen kann?
B. V.:
Offensichtlich zeigen diese Beispiele, dass die Sicherheitsregeln für Roboter immer noch verbessert werden müssen. Wie auch immer, wenn wir in einem größeren Rahmen vergleichen, könnten wir prüfen, wie viele Unfälle durch einen autonom fahrenden Tesla vermieden wurden im Vergleich zu einem menschlichen Fahrer. Man darf nicht vergessen, dass die Reaktionszeit eines Roboters nur ein Tausendstel der Zeit beträgt, die ein Mensch benötigt.

Viele der im Heft vorgestellten Roboter sind von Start-ups entwickelt worden. Ist der Markt der Roboterapplikationen ein Start-up-Markt?
B. V.:
Vielleicht sind etablierte Unternehmen im Magazin unterrepräsentiert? Nein, im Ernst, tatsächlich kommen Innovationen gewöhnlich von Start-ups. Wie auch immer, ich erwarte, dass große Player aus dem Bereich der Consumer-Electronics wie Samsung oder LG bald ähnliche Produkte auf den Markt bringen werden.

Was auffällt ist, dass darunter auch viele Unternehmensgründer sind, die aus dem Zielmarkt kommen – Landwirtschaft oder Security –, aber noch nie etwas mit Elektronik, Sensorik oder Künstlicher Intelligenz zu tun hatten. Wie kann EBV Elektronik dabei helfen, dass sie ihre Roboteridee erfolgreich ­realisieren?
B. V.:
Die Situation ist beim Internet der Dinge ähnlich. Unser wichtigstes Ziel ist, die Ideen unserer Kunden Realität werden zu lassen. Natürlich haben wir dazu die passenden Elektronikkomponenten im Programm, dank unserer Best-in-Class-Vertriebsorganisation, der auch entsprechend spezialisierte Ingenieure angehören. Aber wir bieten auch ein komplettes Ökosystem mit Partnern, die Hardware, Software, Design-Support, Produktion und vieles mehr anbieten …

Kann EBV Elektronik auch etwas für erfahrene Robotikhersteller bieten – über die Komponenten hinaus?
B. V.:
Wie ich schon sagte, wir bieten ein komplettes Ökosystem. Tatsächlich können wir in einigen Fällen für unsere Kunden ein Bewusstsein schaffen und ihnen Ideen für potenzielle zusätzliche Geschäftsfelder vermitteln.

Gerade im Bereich der Navigation und Umfeld­erkennung existiert eine Vielzahl unterschiedlicher Technologien. Wie findet man da die passende Lösung?
B. V.:
Es hängt wirklich von der Applikation ab. Als Erstes müssen wir Outdoor-Anwendungen differenzieren, bei denen ein GPS-Signal genutzt werden kann. Dann erlauben einige Technologien eine Umfelderkennung über längere Distanz wie zum Beispiel Radar. In einigen Fällen sind auch Time-of-Flight Infrarot-Kameras passend. In anderen Fällen können Bewegungssensoren und Magnetometer-MEMS helfen, eine Position oder Ausrichtung zu bestimmen. Ganz sicher werden Kunden häufig verschiedene Technologien kombinieren, um die beste Lösung für ihr System zu erhalten. Man sollte sich zum Beispiel bewusst sein, dass autonome Autos in naher Zukunft mindestens drei verschiedene Technologien kombinieren, um ihre Position zu bestimmen.

Aus Ihrer Sicht – welche Regionen beziehungsweise Länder sind momentan führend bei der Entwicklung neuer Roboter?
B. V.:
Die Vereinigten Staaten, Korea, Frankreich, Dänemark, Deutschland und Italien sind Länder mit vielen Aktivitäten und Unternehmen. Zudem treiben in diesen Ländern auch Universitäten und öffentliche Institutionen den Markt mit Investitionen in spezifische Programme und Events.

Welche Märkte beziehungsweise Branchen sind gerade besonders spannend für die Robotik, wie wird sich das in Zukunft entwickeln?
B. V.:
Serviceroboter für das Zuhause können wirklich unseren Alltag erleichtern. Mit den verschiedensten Anwendungen wie Kinder beaufsichtigen, Senioren pflegen oder Unterhaltung für die ganze Familie. Wenn wir entsprechende Sensoren ergänzen, können Roboter sogar die Luftqualität prüfen und die Behaglichkeit steuern und – warum nicht – Stromverbraucher ausschalten, wenn wir es vergessen, um Energie zu sparen.

Was glauben Sie, werden wir in Zukunft alle einen Roboter zuhause haben?
B. V.:
Auf jeden Fall!

Robotic-Start-ups

2016 war laut „The Robot Report“ das beste Jahr für Robotic-start-ups: Fast zwei Milliarden Dollar, rund doppelt so viel wie im Vorjahr, wurden investiert und 128 Unternehmen neu gegründet. Wir stellen einige Start-ups der Robotic Szene vor.

Kollege Roboter

Die auf die Software-Plattform Intera gestützten Roboter der Bostoner Firma Rethink Robotics namens Baxter und Sawyer können sich auf die Variabilität des Arbeitsalltags einstellen, schnell die Anwendung wechseln und Aufgaben genau wie Menschen ausführen. Das Ergebnis: Hersteller aller Art, Größen und Branchen erhalten eine schnell einsetzbare, bedienerfreundliche und vielseitige Automatisierungslösung.
www.rethinkrobotics.com

Überall dabei ohne zu reisen

Das australische Unternehmen Aubot hat einen Telepräsenzroboter entwickelt, über den Menschen an Reisen oder Treffen teilnehmen können, ohne selbst vor Ort zu sein. Der mobile Roboter wird über Gedanken (dem MindWave-Interface) und den Webbrowser gesteuert; der Nutzer kann sich so durch ein Büro bewegen, Leute treffen oder eine Stadt besichtigen, ohne tatsächlich seine Wohnung zu verlassen.
www.aubot.com

Robotics_Innovators_Start-ups

Autonomer Koffer

Die US-amerikanische Firma Travelmate Robotics hat einen Koffer entwickelt, der seinem Besitzer auf Schritt und Tritt folgt. Der Koffer kann aufrecht oder flach liegend hinter dem Besitzer herfahren und passt seine Geschwindigkeit laufend an. Integrierte Sensoren erkennen Hindernisse und erfassen den Fahrweg, eine Smartphone-App und ein GPS-Modul im Koffer geben jederzeit Auskunft über seinen Standort.
www.travelmaterobotics.com

Robotics_Innovators_Start-ups2

Früh übt sich

Das deutsche Unternehmen Kinematics entwickelt und produziert Robotik-Baukästen namens Tinkerbots, mit denen Kinder ab sechs Jahren erste Schritte in die Welt der Technik machen. Die Tinkerbots-Kreationen sind lernfähig und lassen sich durch Aufnehmen und wieder Abspielen vorgemachter Bewegungen zum Leben erwecken oder sie sind über eine App per Smartphone oder Tablet steuerbar.
www.tinkerbots.de

Sozialer Kopf

Maschinen mit sozialer Intelligenz – die will die schwedische Firma Furhat Robotics bauen. Vorreiter dazu ist der Roboterkopf Furhat. Er ist mit einer 3D-Maske ausgestattet, auf die von hinten Augen, Nase und Mund projiziert werden. Damit kann der Kopf sehr authentisch die Mimik eines Menschen nachahmen. Gesteuert wird er von einer AI-Plattform, die einen anspruchsvollen Dialog zwischen Mensch und Furhat ermöglicht.
www.furhatrobotics.com

Intelligenter massieren

Das kalifornische Unternehmen Dreambots hat einen handtellergroßen Massageroboter entwickelt, der dank seiner Sensortechnologie autonom auf dem Körper herumfahren kann. Seine spezielle Sensorik sorgt dafür, dass er nicht herunterfällt. Mit seinen Spezialrädern und sanften Vibrationen sorgt der WheeMe für eine entspannende Massage.
www.dreambots.com

Robotics_Innovators_Start-ups3

Materialtransporter für Kleinunternehmen

Das LeanAGV der portugiesischen Firma Talus Robotics wurde speziell für kleinere und mittelständische Unternehmen entwickelt. Das fahrerlose Transportsystem setzt sich aus verschiedenen Kernkomponenten zusammen: einem Antriebsmodul, einem Steuerungssystem und einem Set an Sicherheitssensoren. Daraus kann sich der Kunde ein maßgeschneidertes System aufbauen, das einfach in der Anwendung und flexibel ist.
www.talusrobotics.eu

Ein echter Kumpel

Blue Frog Robotics präsentiert mit Buddy einen sozialen Roboter, der verbindet, beschützt und mit jedem Mitglied der Familie interagiert. Der 60 Zentimeter kleine Roboter der französischen Firma passt auf das Zuhause auf, unterhält die Kinder und hält den Kontakt zu Freunden und Familienmitgliedern aufrecht. Der kleine Roboter wurde als Open-Source-­Projekt entwickelt und ist kinderleicht zu handhaben.
www.bluefrogrobotics.com

(Bildnachweis: Aubot; Blue Frog Robotics; Dreambots; Furhat Robotics; Kinematics; Rethink Robotics; Talus Robotics; Travelmate)

Lieferroboter: Paket liefert 6D9

Lieferroboter sind die Antwort auf das stetig wachsende und steigende Paketaufkommen durch den Online-Handel. Sie sollen schnell, sicher und autonom Pakete bis zur Haustür bringen und so die Straßen entlasten. Der Logistikdienstleister Hermes testete in Hamburg mehrere Monate den Roboter 6D9 von Starship Technologies.

Gerade vor Weihnachten erlebt man in den Städten die Folgen des stetig steigenden Online-Handels: Gefühlt steht alle paar Meter ein Lieferwagen eines Paketdienstleisters auf der Fahrbahn, meist in zweiter Reihe – das kostet nicht nur Nerven, sondern verstopft die Straßen und führt zu steigenden Emissionen. Experten arbeiten daher fieberhaft und mit viel Kreativität an neuen Konzepten, um die Situation nachhaltig zu lösen.
Mit etwas Glück konnte man im Hamburger Stadtteil Ottensen eine dieser Lösungen live erleben: Der Logistikdienstleister Hermes Germany testete bis März 2017 Zustellroboter des Start-up-Unternehmens Starship Technologies. „Der Einsatz von Robotern kann die Zustellung von Päckchen und Paketen speziell im städtischen Raum nachhaltig revolutionieren“, so Frank Rausch, CEO bei Hermes Germany.

Unterwegs auf dem Gehweg

Der Lieferroboter 6D9 ist ein Fahrzeug mit sechs Rädern, ist 50 Zentimeter hoch und 70 Zentimeter lang. In seinem Inneren bietet er ein gesichertes Fach, in dem Sendungen mit einem Gesamtgewicht von maximal 15 Kilogramm transportiert werden. Der Zustellroboter wird ausnahmslos auf Fußwegen eingesetzt und fährt maximal mit Schrittgeschwindigkeit, also 6 km/h. Radwege und Straßen werden nur nach vorheriger Prüfung gekreuzt. Die eingebauten Kameras und Sensoren sorgen obendrein dafür, dass nahende Hindernisse automatisch erkannt werden – und der Roboter sofort stoppt. Dank hell leuchtender LEDs ist jeder Roboter auch von weitem gut erkennbar.

Ein neuer Servicekanal

Die Roboter können in einem Umkreis von bis zu fünf Kilometern eingesetzt werden. Auf diese Weise sind automatisierte Zustellungen innerhalb von 30 Minuten ab Beauftragung durch den Kunden möglich. Während des Pilottests pendeln die Zustellroboter zwischen den teilnehmenden Paket-Shops und ausgewählten Testkunden. Transportiert werden reguläre Sendungen, die auf Wunsch des Kunden nicht nach Hause, sondern in einen Paket-Shop von Hermes geliefert werden. Anstatt eine Sendung nach Anlieferung im Shop persönlich dort abzuholen, können die Tester per Smartphone einen Roboter damit beauftragen, ihnen die Sendung nach Hause zu bringen. Konventionelle Zustelltouren oder gar Zusteller ersetzen die Roboter somit nicht. Vielmehr installiert Hermes mit dem Starship-Roboter testweise einen neuen Servicekanal, der die persönliche Abholung von Sendungen im Shop ablöst.

Gut geschützt vor Diebstahl

Die Sendungen sind im Transportfach per Sicherheitsschloss, Überwachungskamera und PIN-Code-Abfrage vor unbefugtem Zugriff gesichert. Hat das Fahrzeug sein Ziel erreicht, erhält der Empfänger eine SMS-Benachrichtigung und kann seine Sendung an der Haustür entgegennehmen. Das Öffnen des Transportfachs erfolgt über einen individuellen verschlüsselten Öffnungslink. Sollte jemand versuchen, das Fach mit Gewalt zu öffnen, löst der Roboter umgehend Alarm aus und verständigt den Operator. Dank konstantem GPS-Signal lässt sich die Position des Fahrzeugs jederzeit zurückverfolgen.

Noch mit menschlicher Begleitung

6D9 navigiert über eine Mischung aus Ortungssignalen (zum Beispiel GPS) und visueller Erkennung der Umgebung über mehrere Kameras. Zebrasteifen und Ampelsysteme erkennt das System automatisch. Dafür sorgen Sensoren und neun Kameralinsen, die die empfangenen Bilddaten in Echtzeit vollautomatisch in entsprechende Handlungsanweisungen umrechnen. An heiklen Stellen und bei Unsicherheiten wird über das Internet ein menschlicher Remote-Operator hinzugeschaltet, der in der Leitzentrale von Starship in Tallinn sitzt. Er kann sich die Kamerabilder des Roboters zeigen lassen und erhält die entsprechenden Navigationsdaten, sodass er dem Lieferroboter per Fernbedienung aus schwierigen Situationen helfen kann. Mit jeder Fahrt „lernt“ der Paketroboter dazu und steigert dadurch seinen Grad an Autonomie. Auf den Testfahrten werden die Lieferroboter dennoch durchgehend von einer Person begleitet und überwacht, damit möglichst viele Informationen zum Betrieb gesammelt werden können.

(Bildnachweis: Istockphoto: Altayb)

Mit über-chirur­gischer Präzision

Präziser als ein menschlicher Chirurg hat der OP-Roboter STAR eine Operation an weichem Gewebe durchgeführt – vollständig autonom. Durch ein innovatives Tracking-System kann er Bewegungen zum Beispiel im Muskel während der OP ausgleichen.

Der Einsatz von Robotersystemen bei Operationen ist nicht mehr neu – schon seit mehreren Jahren wird zum Beispiel das Da-Vinci-Operationssystem in Kliniken weltweit eingesetzt. Doch bisher kontrollierten immer noch Ärzte die Maschine, im Grunde genommen waren die eingesetzten Systeme nichts anderes als ferngesteuerte Hilfsmittel. Doch jetzt gibt es einen Roboter, der Operationen autonom, das heißt ohne Steuerung durch den Arzt, durchführt. Der von Forschern des US-amerikanischen Children‘s National Health Systems entwickelte OP-Roboter „Smart Tissue Autonomous Robot“ (STAR) ist sogar präziser als ein menschlicher Chirurg. Obwohl der Roboter mehr Zeit benötigt hat als sein menschlicher Gegenspieler, konnten die Resultate letztlich überzeugen. Chirurgen und Wissenschaftler des Sheikh Zayed Instituts in Washington demonstrierten die Fähigkeiten des Roboters anhand einer Operation an leblosem Gewebe eines Schweins, aber auch an lebenden Tieren. STAR plante und führte die Wundnaht autonom durch, ein Arzt überwachte den Roboter nur.

Qualität der Operation verbessern

STAR wurde speziell entwickelt, um weiches Gewebe wie Muskeln, Sehnen, Bänder, Nerven, Adern und Bindegewebe zu operieren. Aktuell werden in den USA rund 44,5 Millionen chirurgische Eingriffe an Weichgewebe pro Jahr vorgenommen. „Unsere Ergebnisse zeigen das Potenzial autonomer Roboter, um Wirksamkeit, Beständigkeit, Funktionsniveau und den Zugang zu chirurgischen Techniken zu verbessern“, so Dr. Peter C. Kim, Vizepräsident und Chefchirurg am Sheikh Zayed Institut. „Das Ziel dieser Demonstration ist nicht, den Chirurgen zu ersetzen, sondern wir wollen die menschliche Leistung und Fähigkeit durch Sehvermögen, Geschick und komplementäre Maschinenintelligenz für bessere chirurgische Ergebnisse erweitern.“
Bisher waren Operationen an weichem Gewebe rein manuelle Tätigkeiten und konnten nicht von Robotern unterstützt werden. Der Grund liegt vor allem darin, dass bei einer Operation von weichem Gewebe immer wieder unvorhersehbare elastische und plastische Änderungen auftreten, die vom Chirurgen kontinuierlich Anpassungen erfordern.

Das Ziel ist nicht, den Chirurgen zu ersetzen, sondernde menschliche Leistung und Fähigkeit zu erweitern.

System passt sich in Echtzeit an

STAR löst diese Aufgabe mit einem Tracking-System, das Nah-Infrarot-Fluoreszenzmarker und 3D-Lichtfeldkameras kombiniert. Plenoptische Kameras erfassen neben den üblichen zwei Bilddimensionen auch die Richtung einfallender Lichtstrahlen. Durch die zusätzliche Dimension enthalten plenoptische Aufnahmen Informationen über die Bildtiefe. Mit diesem System ist es möglich, Bewegungen und Veränderungen des Gewebes während des chirurgischen Eingriffs exakt zu erkennen. Das Tracking-System ist mit einem intelligenten Algorithmus kombiniert, der den Eingriff steuert und Anpassungen an Gewebeveränderungen in Echtzeit vornimmt. STAR ist zudem mit druckempfindlichen Sensoren, einer Submillimeter-Positionierung und angetriebenen chirurgischen Werkzeugen ausgestattet. Sein Leichtbau-Roboterarm ermöglicht Bewegungen mit acht Freiheitsgraden.
Nachdem der Roboter seine Effektivität bewiesen hat, besteht laut Dr. Kim der nächste Schritt darin, die chirurgischen Werkzeuge weiter zu minimieren und die Sensoren zu verbessern, um einen breiteren Einsatz für das STAR-System zu ermöglichen. Er geht davon aus, dass das System – oder Teile der Technologie – innerhalb von zwei Jahren in Kliniken eingesetzt werden könnte.

Security-Roboter auf Patrouille

Der beste Kollege des Wachpersonals soll der Security-Roboter SAM3 sein. Mit seinen Sensorsystemen entdeckt er Eindringlinge, Defekte in elektrischen Anlagen oder gefährliche Gase. Dabei kennt er keine Schwäche und kann die menschliche Wachmannschaft rund um die Uhr wirksam unterstützen.

Runde um Runde dreht der kleine kastenförmige Roboter in dem Parkhaus und wacht über die abgestellten Autos – ohne müde zu werden, ohne in der Aufmerksamkeit nachzulassen. Zwar sieht er recht unscheinbar aus, aber die fünf Antennen auf seinem „Dach“ lassen erahnen, wie viel Technik in ihm steckt: Denn der SAM3 genannte Roboter verbirgt in seinem gerade einmal einen halben Meter großen Gehäuse unter anderem eine 360-Grad-­Kamera, eine Thermalkamera, einen Laserscanner, verschiedene Sensoren und einen ID-Reader. Damit kann der smarte Wächter während der Fahrt Objekte und Menschen erkennen. Da SAM3 genau weiß, wie der Grundriss des bewachten Hauses aussieht, kann er auf seiner Patrouille problemlos Hindernissen ausweichen, den Fahrstuhl nehmen und sogar automatische Türen öffnen.

Hilfreicher Kollege

Entwickelt hat den Roboter die in Den Haag ansässige Robot Security Systems. Gemeinsam mit dem Facility-Management-Unternehmen Sodexo testet das Unternehmen seit August 2016 den Einsatz des SAM3 als mobilen Parkhaus-Wächter. „Technologie kann unsere Arbeit leichter, sicherer und effizienter machen”, meint Sepp Rickli, der als General Services Manager von Sodexo das gemeinsame Projekt betreut. „Der Roboter wird unsere Sicherheitsmitarbeiter nicht ersetzen, aber er wird ein hilfreicher Kollege sein.“
Die Gründer von Robot Security Systems haben selbst jahrelang in der Sicherheitsbranche gearbeitet und sind immer wieder auf eine Schwachstelle gestoßen: den Menschen. Denn menschliches Sicherheitspersonal kann abgelenkt werden beziehungsweise ermüden und die Aufmerksamkeit kann auf Routinerunden nachlassen – außerdem können Menschen bestochen werden. Die Lösung soll nun SAM3 sein. Der Roboter wurde speziell für Security-Aufgaben konzipiert. Mit seinen Sensoren und Kameras ist er Augen und Ohren des menschlichen Wachpersonals. So kann er in existierende Sicherheitssysteme integriert werden. Sollte er zum Beispiel einen Eindringling entdecken, alarmiert er sofort die Leitstelle. Dort entscheidet dann ein Mensch, welche Maßnahme eingeleitet wird.

SAM3 kann mehr als ein Wächter sein

„Der Roboter ist mit verschiedenen Features vorprogrammiert wie einem Lageplan, den Standorten der Detektoren und dem Maßnahmenkatalog für das Security-Personal”, erläutert Edwin Lustig, CEO von Robot Security Systems. SAM3 kann zudem mit verschiedenen zusätzlichen Sensoren ausgestattet werden und so auch Hitze beziehungsweise Feuer, Strahlung, Fehler in elektrischen Anlagen, CO2 oder andere giftige Gase entdecken.
Sodexo-Manager Rickli kann sich aber noch andere Aufgaben für seinen metallenen Parkhaus-Wächter vorstellen: „Der Roboter kann auch zur Gastfreundlichkeit beitragen, indem er zum Beispiel Besucher zu ihrem Ziel im Gebäude begleitet, freie Parkplätze identifiziert oder einen menschlichen Kollegen herbeiruft.”

(Bildnachweis: Istockphoto: AndreyPopov, Creative Images; Robot Security Systems)

Optimale Orientierung: Innovative Navigation

Wo bin ich? Wohin soll es gehen? Und auf welchem Weg? Das sind die drei entscheidenden Fragen, die ein Roboter beantworten muss, wenn er sich autonom in einer Umgebung fortbewegen soll. Hierfür kommen die unterschiedlichsten Navigationslösungen zum Einsatz, die häufig auch miteinander kombiniert werden, um eine optimale Orientierung im Raum zu gewährleisten.

Grundlage für alle Anwendungen mobiler Roboter ist eine robuste autonome Navigation. Damit ein mobiler Roboter Aufgaben wie „Fahre zu Zielort A“ in unterschiedlichen Einsatzumgebungen ausführen kann, muss er in der Lage sein, sich korrekt zu lokalisieren und zu navigieren. Ein grundlegendes System hierfür ist die Navigation mithilfe von globalen Satellitennavigationssystemen, wie sie auch das „Navi“ im Auto nutzt. Das bekannteste ist sicherlich das US-amerikanische GPS. Daneben existieren aber auch noch Systeme anderer Länder wie das russische Glonass, das noch im Aufbau befindliche chinesische Beidou sowie das europäische Galileo, für das auch bereits die ersten Satelliten im All sind. Die Satellitennavigationssysteme bieten eine Positioniergenauigkeit von einigen Metern, je nach System und Anzahl der empfangbaren Satelliten. Damit können Roboter durchaus schon durch ein Gelände navigieren, sofern sie eine Karte der Umgebung abgespeichert haben.

Mit dem Satelliten zentimetergenau ­navigieren

Für eine noch genauere Navigation können die Signale der Satelliten per Software aufbereitet werden. So bietet zum Beispiel die US-amerikanische Firma Swift Navigation ein software-basiertes System, das mit den Standardinformationen der Navigationssatelliten eine Genauigkeit von nur noch wenigen Zentimetern erreicht. Als Hardware werden dabei preiswerte Smartphone-Komponenten eingesetzt. „Das ist nicht das GPS des Mobiltelefons mit einer Genauigkeit von rund drei Metern – was gut genug für die Suche nach einem Restaurant ist, aber bei weitem nicht ausreicht, um ein autonomes Fahrzeug durch die Welt zu navigieren“, ­erklärt Tim Harris, CEO von Swift Navigation. „Mit unserem zentimetergenauen GPS weiß ein Auto, in welcher Fahrspur es sich befindet und eine Drohne kann ein Paket auf deiner Türschwelle absetzen – und nicht im Pool des Nachbarn.“ Allerdings bietet die Satellitennavigation einen grundsätzlichen Nachteil: Sobald die Signale der Satelliten verdeckt sind, zum Beispiel in den Häuserschluchten einer Großstadt oder im Inneren eines Gebäudes, funktioniert die Navigation nicht mehr. Daher haben verschiedene Anbieter Systeme entwickelt, bei denen die Satelliten durch andere Signalquellen ersetzt werden.

Funksignale ersetzen den Satelliten

Gerade im Indoor-Bereich bietet sich Wi-Fi an: Mithilfe von Wi-Fi-Routern, deren Position und Signalstärke dem System bekannt ist, kann die Position ermittelt werden. In besonders dicht besiedelten Gebieten kann so ein Standort mit einer Genauigkeit von zehn bis 20 Metern innerhalb von ein paar Sekunden bestimmt werden. WPS (Wi-Fi Positioning System) wird meist nicht allein verwendet, sondern zum Beispiel zusammen mit GPS. Durch die Kombination dieser Techniken entsteht eine Hybridnavigation, die die Leistung des Gesamtnavigationssystems deutlich verbessert. Ähnliche Systeme werden auch mit der Bluetooth-Technologie realisiert.
Hier ist vor allem die von Apple entwickelte iBeacon-Technologie zu nennen: Dazu werden in einem Gebäude kleine Sender auf vorher festgelegten Punkten platziert und auf einer digitalen Karte markiert. Sie verschicken in festen Zeitintervallen Signale mit einer zum Sender gehörigen eindeutigen Kennung. Die Datenübertragung geschieht hierbei über die extrem stromsparende Bluetooth-Low-Energy-Technologie, so können die Sender auch über eine Batterie betrieben werden. Der Roboter als Empfänger identifiziert die Kennung des Senders, misst seine Signalstärke und vergleicht die Informationen mit der digitalen Karte. Empfängt er vier Sender, kann er sogar seinen Standort im dreidimensionalen Raum bestimmen.
Eine noch relativ neue Technik ist das Ultra Wideband (UWB): Hier werden Sender installiert, die Breitbandsignale von mehr als 500 MHz im Frequenzbereich zwischen 3,1 GHz und 10,6 GHz ausstrahlen. Sind dem Roboter die Positionen der Sender bekannt, kann er über Triangulation seine Position bestimmen. Das von der irischen Firma Decawave entwickelte System ermöglicht beispielsweise auf Basis der UWB-Technologie eine garantierte Genauigkeit von zehn Zentimetern. „Der Markt für Indoor-Ortsbestimmung der nächsten Generation mit hoher Genauigkeit wächst mit soliden Use-Cases und konkreten Einsätzen. UWB erobert sich dabei seinen Raum, ABI Research erwartet ein starkes Wachstum in verschiedenen Branchen“, so Patrick Connolly, Chefanalyst bei ABI Research. „Die Marktchancen sind recht groß und Unternehmen wie Decawave, die eine Vorreiterrolle in UWB innehaben, sind für ein kontinuierliches Wachstum gut positioniert.“

Navigation anhand der räumlichen Gegebenheiten

Eine Alternative – oder auch Ergänzung – zur Navigation über Funksignale sind Onboard-Systeme, die die Umgebung erfassen. Zum Einsatz kommen dabei etwa Radar- oder Lidar-Systeme: Lidar (Light Detection and Ranging) bezeichnet ein Verfahren, bei dem ein Lichtpuls ausgesendet wird und über die Laufzeit und Lichtgeschwindigkeit eine Entfernung berechnet werden kann. Lidar ist eine dem Radar sehr verwandte Methode zur optischen Abstands- und Geschwindigkeitsmessung; statt der Radiowellen beim Radar werden Laserpulse verwendet.
Nach dem gleichen Prinzip arbeiten Ultraschallsysteme: Hier existieren spezielle Chips, die Schallwellen im Ultraschallbereich aussenden. Treffen sie auf Objekte, werden sie reflektiert und vom Chip wieder empfangen. Aus der Laufzeit der Schallwelle lässt sich dann die Entfernung zum Objekt errechnen.
Eine andere Möglichkeit ist die 3D-Umgebungserfassung mit Stereokameras: Farb- und Tiefenkameras erzeugen eine Punktewolke mit exakt zugeordneten Abstandswerten. Auf deren Basis und durch einen Vergleich mit einer zuvor erstellten Karte kann der Roboter seine Position sehr genau bestimmen. Eine Navigationslösung, die unter anderem typischerweise in großräumigen Lagerhäusern oder in Automotive-Anwendungen zum Einsatz kommt, bieten Laserscanner. Mit einem rotierenden Laserstrahl können sie reflektierende Ziele in einem 360-Grad-Winkel identifizieren. Durch Berechnung der Entfernung und des Winkels zum Ziel kann ein Roboter seine Position bestimmen – vorausgesetzt, dass er die Referenzpunkte mit einer zuvor erstellten Karte der Umgebung abgleichen kann. „Bei diesem Ansatz spricht man heute von „Natural Feature Navigation, also der Navigation anhand räumlicher Gegebenheiten“, so Nicola Tomatis, CEO bei Bluebotics. Das von der Schweizer Firma entwickelte System ANT (Autonomous Navigation Technology), das herkömmliche Sicherheits-Laserscanner zur Navigation nutzt, erreicht eine Genauigkeit von einem Zentimeter. Dazu kombiniert das System allerdings die Daten des Laserscanners mit Messwerten zusätzlicher Sensoren, die die Bewegung des Roboters erfassen. Das können Sensoren sein, die die Drehbewegung der Antriebsräder und damit die zurückgelegte Strecke messen, oder Gyrometer, die die rotatorische Ausrichtung des Roboters erfassen.

Navigieren mit Licht

Der Roboterhersteller Adept ergänzt seine Indoor-Navigation zudem durch die sogenannte „Overhead Static ­Cues“-Technologie: Sollte sich die Umgebung – etwa durch herumstehende Paletten oder Kartons in einem Lager – so sehr verändert haben, dass die Messergebnisse unter eine bestimmte Wiedererkennungswahrscheinlichkeit fallen, so kann optional eine nach oben schauende Kamera als zusätzliche Sensorinformation verwendet werden. Die Kamera orientiert sich beispielsweise an der Deckenbeleuchtung. Anhand von mindestens drei sichtbaren Deckenleuchten lässt sich zusätzlich die Position im Raum ermitteln und damit die anderen sensorischen Informationen korrigieren.
Auf Licht setzen auch Forscher der Schwedischen Lund University. Sie haben auf Basis des Ausweichverhaltens von Bienen ein Konzept für ein neues Drohnen-Orientierungs-System entwickelt: Die Insekten schätzen die Lichtintensität ein, um Objekten gezielt auszuweichen. Es handelt sich genauer gesagt um das Licht, das Löcher im dichten Gestrüpp durchdringt. Das System könne ideal auf kleine, leichtgewichtige Roboter zugeschnitten werden. „Ich schätze, dass unser Vision-System für Drohnen in fünf bis zehn Jahren Realität wird“, prognostiziert Emily Baird von der Lund University. Die Nutzung von Licht, um sich durch komplizierte Umgebungsverhältnisse zu manövrieren, sei eine universelle Strategie, die sowohl von Tieren als auch Maschinen eingesetzt werden könne. Damit wird das Erkennen und sichere Durchdringen von Öffnungen möglich. „Es ist faszinierend, dass Insekten solche simplen Strategien haben, um mit schwierigen Problemen umzugehen, für die Wissenschaftler noch keine Lösung gefunden haben“, resümiert die Forscherin.

(Bildnachweis: Unsplash: NASA, SpaceX)

Smarter Reinigen

Die Reinigungsbranche leidet unter ständigem Personalmangel und hoher Personalfluktuation. Roboter versprechen hier Hilfe. Der dänische Hersteller Nilfisk bringt in 2017 eine Maschine heraus, die Räume autonom nass reinigen kann.

In der Reinigungsbranche hat das Interesse an Automatisierungslösungen in den letzten Jahren stark zugenommen. Denn mit Reinigungsrobotern kann die Branche besser dem steigenden Kostendruck sowie dem Personalmangel und der üblichen hohen Personalfluktuation begegnen. Außerdem ermöglichen Reinigungsroboter eine praktisch fehlerlose und verbesserte Produktivität für die zunehmend geforderte ergebnisorientierte Reinigung. In 2017 wird Nilfisk, einer der führenden Hersteller von professionellen Reinigungsgeräten, hierfür die Advance Liberty A 50, einen Scheuersaug-Roboter zur autonomen Nassreinigung von Böden auf den Markt bringen.

Neue Perspektive für Reinigungsbranche

Der Reinigungsroboter ist das erste Ergebnis des Horizon-Programms, einem Gemeinschaftsprojekt zwischen dem dänischen Unternehmen Nilfisk und Carnegie Robotics, einem US-amerikanischen Hersteller von modernen Robotiksensoren und Software. Bei dem Horizon-Programm geht es darum, autonome Reinigungslösungen auf den Markt zu bringen und Kunden eine präzise und zuverlässige bedienungsfreie Bodenreinigung zu ermöglichen. „Mit dem Programm bereiten wir den Weg für eine langfristige strategische Entwicklung von autonomen und vernetzten Reinigungslösungen. Dank modernster Technik müssen Produktivität und Gesamtbetriebskosten aus einer ganz neuen Perspektive betrachtet werden“, so Jonas Persson, CEO von Nilfisk.

Mit Militär- und RaumfahrtTechnologie

Der Reinigungsroboter verfügt über ein System von Sensoren, Kameras und Software, mit dem er einen Raum mit nur einer Durchfahrt erfassen kann. Hindernisse selbst in der Größe eines Tennisballs erkennt der ­Roboter und umfährt sie selbstständig. So kann er auch auf belebten Flächen oder während der Öffnungszeiten von zum Beispiel Supermärkten eingesetzt werden. Die Kombination von Sensoren, Kameras und Laser erlaubt es dem Scheuer­saug-Roboter auch nahe an Hindernissen und Wänden zu reinigen. Die Sensorsysteme arbeiten auch bei niedrigem Umgebungslicht, sodass für die Reinigung die zu reinigenden Räume nicht hell erleuchtet werden müssen. Das spart Energiekosten. „Wir haben Militär- und Raumfahrttechnologie eingesetzt, um den Advance Liberty A 50 mit einer State-of-the-Art-Wahrnehmung und einer intelligenten Navigation auszustatten, die eine sichere und verlässliche Bodenreinigung ermöglicht“, so Steve DiAntonio, CEO von Carnegie Robotics. „Gleichzeitig haben wir eine einfach zu benutzende Bedienung entwickelt, die einen flexiblen und effizienten Betrieb erlaubt.“

Denkbar einfache Bedienung

So verfügt der Roboter über nur drei Knöpfe, über die der Reinigungsmodus eingestellt wird: In einem noch unbekannten Gebäude schaltet der Bediener zunächst einmal in den manuellen Modus. Während er auf der Maschine steht, steuert er den Roboter einmal durch den gesamten Raum. Dabei reicht es im Fill-in-Modus, nur die Umrisse der Fläche abzufahren. Der Roboter wird anschließend die gesamte Fläche reinigen und jedes Hindernis, auch nachträglich hinzugekommen, umfahren. Alternativ kann der Bediener auch im sogenannten CopyCat-Modus einen bestimmten Weg abfahren und dem Roboter so zeigen, auf welchem Kurs er den Raum säubern soll. „Der Advance Liberty A 50 ist unsere bisher wichtigste Produktinnovation“, betont Nilfisk-CEO Jonas Perrson. „Er wird Maßstäbe setzen und eine Vorreiterrolle einnehmen, intelligente Ausrüstung in der gewerblichen Reinigung zu etablieren.“

Kampfroboter: Eine Frage der Ethik

Auch beim Militär sind zunehmend Roboter im Einsatz. Bislang sind sie meist ferngesteuert, doch auch auf dem Schlachtfeld werden Roboter immer autonomer. Der Bau von vollständig autonomen Kampfrobotern, die Entscheidungen zum Schuss selbst treffen, ist schon heute keine technische, sondern nur noch eine ethische Frage.

Roboter sind auf den Schlachtfeldern der Welt längst schon keine Utopie mehr. Bereits heute erkunden sie gefährliche Gegenden, entschärfen Minen oder bergen Verwundete, wie der Sanitätsroboter Bear. Der von Vecna Technologies entwickelte Battlefield Extraction-Assist Robot soll verletzte Soldaten aus der Kampfzone retten, ohne das Leben eines menschlichen Sanitäters zu riskieren. Aktuell wird daran gearbeitet, mehr autonome Fähigkeiten in den Roboter zu integrieren. „Die aktuelle Robotergeneration ist für spezifische Missionen bestimmt, und die meisten Roboter werden immer noch ferngesteuert“, so Thierry Dupoux, Entwicklungschef beim französischen Hersteller Safran Electronics & Defense. Das Unternehmen hat mit dem eRider eine Transportplattform für das Militär entwickelt, die an ein großes Quad erinnert. Das Fahrzeug kann von einem Soldaten gesteuert werden – oder sich autonom durch das Gelände bewegen. „Wir verfolgen einen komplementären Ansatz, inspiriert von der Autoindustrie, der eine vernünftige und stufenweise Einführung autonomer Funktionen mit sich bringt. Dieser Ansatz kann auf jede moderne Transport-, Aufklärungs- oder Kampfplattform angewendet werden.“

Noch benötigen Roboter einen Schießbefehl

Der Trend hin zu immer autonomeren Kampfrobotern wird allerdings selbst vom Militär kritisch gesehen. Bisher setzt keine Armee der Welt Roboter ein, die selbstständig eine Entscheidung zum Schuss treffen. Das gilt auch für die aktuell im Mittelpunkt des öffentlichen Interesses stehenden Drohnen. Roboter wie der von einem Samsung-Tochterunternehmen hergestellte und mit einem Maschinengewehr ausgerüstete SGR-1, den Südkorea zur Kontrolle der Grenze nach Nord-Korea einsetzt, benötigt das explizite Kommando eines Menschen, um zu schießen. Auch bei dem von Qinetiq entwickelte Militärroboter Maars werden die Waffen per Fernsteuerung ausgelöst. Doch von der Technologie her wäre es durchaus möglich, dass Kampfroboter in Zukunft völlig selbstständig ihre Waffen einsetzen – die Entscheidung, ob Roboter diese Macht erhalten, ist längst keine technische Frage mehr, sondern nur noch eine ethische.

Thema für UN-Waffenkonvention

So hat die jährliche Konferenz zur Überprüfung der UN-Waffenkonvention Ende 2016 in Genf beschlossen, sich dem Thema der vollständig autonomen Waffen, die ihre Ziele ohne nennenswerte menschliche Kontrolle auswählen und angreifen, anzunehmen. „Die Regierungen, die sich in Genf getroffen haben, haben einen wichtigen Schritt gemacht, um die Entwicklung von Killerrobotern aufzuhalten“, so Steve Goose, für Waffen zuständiger Direktor bei Human Rights Watch und Mitbegründer der Kampagne zum Verbot von Killerrobotern. „Wenn diese Waffen erst einmal existieren, wird es keine Möglichkeit geben, sie noch zu stoppen. Die Zeit, um ein präventives Verbot auszusprechen, ist jetzt.“

(Bildnachweis: Vecna Technologies)

Zart zugepackt: Roboter Greifer

Vielseitig einsetzbare Roboter ­benötigen Greifer, die sowohl ­kräftig zupacken als auch empfindliche Objekte zärtlich aufnehmen können. Forscher entwickeln dazu Greifer, die der menschlichen Hand nicht nur in der Form, sondern auch in den Empfindungen immer näher ­kommen.

Die Hand ist ein wahres Wunderwerk der Natur: 27 Knochen, 28 Gelenke, 33 Muskeln und Tausende von Sinneszellen ermöglichen es ihr, schwere Lasten genauso sicher zu heben wie rohe Eier. Seit Jahren ist es Ziel von Forschern und Ingenieuren, die Flexibilität und Vielseitigkeit der menschlichen Hand auf die Greifwerkzeuge von Robotern zu übertragen. Mit dem Trend zur flexiblen Produktion der Industrie 4.0 und dem Einzug in das alltägliche Leben mit seinen vielfältigen Greifaufgaben wird die Notwendigkeit für ein derartig vielseitiges Greifinstrument noch drückender.
Und tatsächlich werden immer mehr Lösungen entwickelt, die zumindest grundsätzliche Fähigkeiten der menschlichen Hand kopieren können. Wesentliche Faktoren dabei sind eine wohl dosierte Greifkraft und der Tastsinn. Die Firma Schunk hat zum Beispiel bereits einen Greifer auf den Markt gebracht, der mithilfe speziell entwickelter Greifstrategien und Kraftmessbacken in den Fingern sein Verhalten in Echtzeit darauf abstimmt, ob ein Werkstück oder womöglich eine menschliche Hand gegriffen wird. Doch der Schunk-Greifer besteht nur aus zwei Fingern – komplexe Bewegungen wie das Drehen oder Rollen eines gegriffenen Gegenstandes sind damit nicht möglich.

Die Roboterhand lernt, richtig zu greifen

„Die Handmanipulation ist eines der schwierigsten Probleme, das die Robotik zu lösen hat“, sagt Vikash Kumar, Doktorand an der University of Washington. „Viele Roboter haben schon ziemlich leistungsfähige Arme, aber die Hand wird über so einfache Dinge wie einen Saugnapf oder vielleicht eine Zange oder einen Greifer realisiert.“ Kumar ist Mitglied eines Teams von Computerwissenschaftlern und Ingenieuren, die diese Aufgabe lösen wollen. Sie haben eine Roboterhand entwickelt, die mit fünf Fingern, 40 Sehnen, 24 Gelenken und mehr als 130 Sensoren menschenähnliche Greifbewegungen durchführen kann. Diese leistungsfähige Hand haben die Wissenschaftler mit Algorithmen zum maschinellen Lernen kombiniert. „Es wird ziemlich chaotisch und Kollisionen geschehen, wenn man ein Objekt mit verschiedenen Fingern anfasst. Damit können herkömmliche Steuerungsalgorithmen nur schwer umgehen“, so Sergey Levine, Assistenz-Professor an der University of Washington. Die Wissenschaftler entwickelten daher einen Algorithmus, der das hochkomplexe Verhalten der fünf Finger modelliert und Bewegungen plant, um verschiedene Resultate zu erzielen. Während jeder Manipulationsaufgabe sammelt das System über Sensoren und Motion-Capture-Kameras Daten zur ausgeführten Bewegung, die dann schließlich über Algorithmen zum maschinellen Lernen kontinuierlich verbessert werden.

„Die Handmanipulation ist eines der schwierigsten Probleme, das die Robotik zu lösen hat“
Vikash Kumar, Doktorand, University of Washington

Auch unbekannte Objekte sicher handhaben

So lassen sich auch komplexe Greifaufgaben realisieren. Doch was passiert, wenn die Hand empfindliche Gegenstände wie zum Beispiel ein rohes Ei greifen soll? Diese Aufgabe stand im Fokus eines vom Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT konstruierten Greifers: Er besteht aus drei weichen Silikonfingern. Sie umgreifen empfindliche Objekte komplett und fassen sie so sehr sicher und schonend. Harte oder außergewöhnlich geformte Gegenstände werden dagegen nur mit den Fingerspitzen gegriffen, was ein präziseres Fassen mit höherem punktuellen Druck ermöglicht. Um zu entscheiden, wie ein Gegenstand gegriffen wird, misst der Greifer dessen Form über Sensoren. Anhand von gerade einmal drei Datenpunkten identifiziert die Recheneinheit des Roboters den Gegenstand. Dazu vergleicht das System die Daten mit vergangenen Greifaufgaben. „Wenn wir Roboter in menschenzentrierten Umgebungen einsetzen wollen, müssen sie adaptiver sein und mit Objekten umgehen können, deren Form und Position nicht exakt bekannt sind“, erklärt Daniela Rus, Leiterin des Distributed Robotics Lab am CSAIL. „Unser Traum ist es, einen Roboter zu entwickeln, der wie ein Mensch in einer einzigen nahtlosen Bewegung sich einem Objekt nähert, die Größe und Form abschätzt und herausfindet, wie er es greifen kann.“

Haarige Sensoren

Dazu sind auch neue Sensoren erforderlich, die nicht nur die Form eines Objektes erfassen, sondern auch erkennen, ob es weich ist oder ob es ins Rutschen kommt, weil der Griff nicht fest genug ist. So entwickelt die Firma Tacterion taktile Sensoren in Form einer dünnen künstlichen Haut auf Polymer-Basis. Ähnlich den Nervenzellen der menschlichen Haut kann sie über tastempfindliche Sensoren auch den kleinsten Druck „spüren“ und die entsprechenden Daten verarbeiten. Die chinesischen Forscher Rongguo Wang und Lifeng Hao vom Harbin Institute of Technology arbeiten daran, eine elektronische Haut mit feinsten Härchen-Sensoren auszustatten. Sie bestehen aus Mikrodrähten auf Kobaltbasis, die von einer dünnen Glasschicht überzogen und in einen robusten, gummiartigen Hautsensor eingebettet sind. Die haarige Roboterhaut kann das Landen einer Fliege, einen leichten Windstoß oder ein fünf Kilogramm schweres Gewicht erspüren. Zudem kann der neuartige Sensor auch fühlen, wenn ein gegriffenes Objekt ins Rutschen gerät. „Der Sensor zeigt einige außergewöhnliche Fähigkeiten sowie das Aufspüren von Luftzügen, die Charakterisierung von Materialeigenschaften und eine exzellente Robustheit gegenüber Schäden“, so die Forscher.

(Bildnachweis: Istockphoto: CSA Images)

Kommissionierroboter im Schuhlager

Im Schuhlager des Logistikdienstleisters Fiege kommissionieren autonome Roboter online bestellte Schuhe.

Seit September 2016 setzt der Logistikdienstleister Fiege Kommissionierroboter in seinem Schuhlager in Ibbenbüren ein. Drei mobile Roboter vom Typ Toru Cube kommissionieren dort online bestellte Schuhe. Der wahrnehmungsgesteuerte und vernetzte Roboter des Münchener Start-ups Magazino kann mit seinem Laser- und Kamerasystem autonom einzelne Objekte in Regalen lokalisieren, identifizieren und anschließend stückgenau greifen sowie zum Bestimmungsort transportieren.

Flexibles Arbeiten ohne starres Programm

Jens Fiege, Vorstand des Familienunternehmens: „Wir verfolgen mit dem Einsatz neuer Technologien immer das Ziel, unsere logistischen Abläufe schneller und effizienter zu machen.“ Dazu verfügt der Roboter über ein hohes Maß an Autonomie: Wenn er für einen Auftrag losfährt, weiß er noch nicht genau bis ins letzte Detail, was er tun wird, sondern trifft die Entscheidung auf dem Weg zum Ziel. Erst wenn er so nah am Lagerort ist, dass er die angeforderten Schuhe sehen kann, trifft er die letzten Anpassungen: Er bestimmt die Position des Kartons und leitet daraus die folgenden Aktionen ab. Letztendlich hat der Roboter kein starres Programm, sondern er greift auf eine Sammlung von Verhaltensregeln zurück, die unter bestimmten Bedingungen sagen, welche Aktionen erforderlich sind.

Roboter erkennt einzelne Objekte

Eine Besonderheit des Kommissionierroboters ist es, dass er sowohl ganze Ladungsträger, zum Beispiel Paletten, aus dem Regal entnehmen kann, als auch einzelne Produkte. Er erkennt über seine Lasersensoren und 3D-Kameratechnik selbstständig einzelne Objekte im Fachbodenregal. Magazino hat dazu ein eigenes Objekterkennungs-Verfahren entwickelt: Bei dem Sheet-of-Light genannten System projiziert ein Kreuzlaser zwei zueinander senkrecht stehende Laserlinien auf das zu vermessende Objekt. Eine 2D-Kamera nimmt die reflektierten Laserstrahlen auf und vermisst das Objekt anhand der Position der Linien im Kamerabild. Das Verfahren ist für quaderförmige Objekte entwickelt. Gekrümmte Oberflächen wie zum Beispiel Buchrücken lassen sich ebenfalls detektieren. Im Vergleich zur 3D-Kamera werden weniger 3D-Punkte erzeugt und damit eine deutlich geringere Rechenleistung benötigt, sodass der Algorithmus zum Beispiel auf einem Mini-Computer ausgeführt werden kann.

„Wir verfolgen mit dem Einsatz neuer Technologien immer das Ziel, unsere logistischen Abläufe schneller und effizienter zu machen.“
Jens Fliege, Vorstand, Fliege Logistik

Mensch und Roboter arbeiten parallel

Frederik Brantner, Mitgründer und kaufmännischer Geschäftsführer bei Magazino, betont: „Wichtig war von Anfang an, dass die Roboter parallel zum Menschen arbeiten können. Dadurch kann ein Teil des Kommissioniervorgangs flexibel und schrittweise automatisiert werden.“ Dank Sicherheitslaser nimmt der Roboter nicht nur Hindernisse im Weg wahr, sondern auch Mitarbeiter in seiner Umgebung – gleichzeitig kann sich der Roboter damit im Lager orientieren. Reflektoren oder Markierungslinien am Hallenboden sind überflüssig. Einmal angelernt, kann der vernetzte Roboter über seine WLAN-Verbindung außerdem selbst erstellte Karten seiner Umgebung sowie Erfahrungen mit bestimmten Objekten oder Herausforderungen mit neuen Roboterkollegen teilen. Der intelligente Roboter ist zudem in der Lage, nicht nur mit bestehenden Regalen umzugehen, sondern er kann sich auch an neue Situationen und Veränderungen im Lager anpassen.

(Bildnachweis: Istockphoto: Martinina)

Radartechnik in autonomen Fahrzeugen

Radar ist eigentlich eine alte Technologie. Doch mit aktuellen Entwicklungen wird die Radartechnik in autonomen Fahrzeugen immer präziser und leistungsfähiger.

Radare sind ein wesentlicher Bestandteil automatisierter Fahrsysteme“, erklärt Peter Austen, Global Portfolio Director im Bereich Fahrerassistenzsysteme der ZF-Division Aktive & Passive Sicherheitstechnik, kurz ZF TRW. „Im Zusammenspiel mit Kameras, intelligenter Steuerung und Aktuatorik ermöglichen sie teilautomatisierte Fahrfunktionen.“ Seit 1999 konstruiert und entwickelt ZF TRW in Brest Radarsysteme.

Anfangs noch Luxus

Bereits zu Beginn des 2. Weltkrieges wurde die Radartechnik in Flugzeugen und Schiffen eingesetzt. Im Auto fand es sich allerdings erst 1998, als Mercedes-Benz ein Abstandsradar in der S-Klasse einführte. Doch damals waren die Kosten für die Technologie noch sehr hoch, denn bis 2009 konnten die benötigten Halbleiter nur auf Basis des Materials Galliumarsenid (GaAs) gefertigt werden – ein Material, das teuer und schwer zu verarbeiten ist. Ein weiterer Nachteil ist der niedrige Integrationsgrad, also die Fähigkeit, immer mehr Funktionen auf einer gleichbleibenden Chipfläche zu bündeln. Erst mit der Fertigung der Sensoren in der Silizium-Germanium-Technologie (SiGe) – den für die Halbleiterfertigung am häufigsten verwendeten Materialien – wurden die Systeme bezahlbar. Denn jetzt konnten erprobte Standardverfahren für die Massenfertigung verwendet werden. Zudem ließ sich jetzt eine Vielzahl von Funktionen, für die vorher bis zu acht GaAs-Chips benötigt wurden, auf nur noch maximal zwei SiGe-Bauteilen zusammenfassen.

Über 100 Jahre alt

Der deutsche Ingenieur Christian Hülsmeyer entwickelte schon 1904 in Düsseldorf die erste praktische Anwendung der Reflexion von elektromagnetischen Wellen an Objekten: Das sogenannte Telemobiloskop. Wie moderne Radarsensoren sendete es eine gebündelte elektromagnetische Strahlung – Radiowellen – aus. Die Analyse der reflektierten Strahlung ermöglicht bei modernen Radarsystemen das Erkennen von Objekten mit ihrem jeweiligen Abstand und ihrer Geschwindigkeit.

Erfassung wird immer leistungsfähiger

Die Radartechnik in autonomen Fahrzeugen arbeitet im Millimeter-Band – heute entweder im 24/26-GHz- oder im 77/79-GHz-Bereich. Damit sind hohe Auflösungen bei Detektion, Positions- und Bewegungsbestimmung von Objekten bis in den Zentimeterbereich möglich. Im Vergleich zu anderen – zum Beispiel kamerabasierten – Techniken arbeitet das Radar auch bei schwierigen Sichtverhältnissen wie Schnee, Nebel, Starkregen und blendendem Gegenlicht zuverlässig. Dabei sind die kompletten Systeme nicht viel größer als eine Streichholzschachtel.

Grundsätzlich lässt sich zwischen zwei Arten von Radar unterscheiden: dem „Frequency Modulated Continuous Wave“ (FMCW) und dem Impulsradar. Im Gegensatz zu einem Impulsradar, das nur einen Puls aussendet, senden FMC-Radare kontinuierlich. Beim FMCW-Verfahren wird das Signal während des Sendens über die gesamte Bandbreite moduliert, so dass sich die Frequenz zeitlich verändert – das nennt man Chirp. Dieser Chirp wird zyklisch wiederholt. Damit können FMC-Radare neben der Differenzgeschwindigkeit zwischen Sender und Objekt auch gleichzeitig deren absolute Entfernung messen. Allerdings haben die Geräte – bisher – eine Schwäche: Nähern sich Objekte mit unterschiedlichen Geschwindigkeiten, kann es passieren, dass das Radar eines davon „übersieht“. Bisherige Geräte konnten daher nur Objekte bis zu einer relativen Geschwindigkeit von 50 km/h sicher detektieren. Eine Lösung besteht darin, die Modulationsgeschwindigkeit zu erhöhen. Mit dieser sogenannten Fast-Chirp-Modulation (FCM) steigt die Genauigkeit der Entfernungsmessung und es kann eine größere Bandbreite an Geschwindigkeiten der Zielobjekte abgedeckt werden. Doch mit steigender Außentemperatur verlangsamen sich bei Standard-CMOS-Signalgeneratoren die Pulse, so dass es zu Fehlern kommt. Fujitsu präsentierte dagegen Ende 2016 einen CMOS-basierenden Millimeter-Wellen-Signalgenerator, der auch bei Temperaturen von 150° Celsius die Modulationsgeschwindigkeit sicher und genau aufrechterhalten kann. Damit werden Erfassungsfehler reduziert und selbst Objekte, die sich dem Fahrzeug mit einer relativen Geschwindigkeit von 200 km/h nähern, werden sicher erkannt.

Navigieren mit Radar

Radargeräte werden in autonomen Fahrzeugen allerdings nicht nur eingesetzt, um Objekte zu erkennen und zu orten. Zumindest in Zukunft soll mithilfe des Radars auch navigiert werden. Dafür haben Bosch und der niederländische Karten- und Verkehrsinformationsanbieter TomTom jetzt erstmalig eine hochauflösende Karte mit einer Lokalisierungsschicht aus Radar-Reflexpunkten erstellt – allerdings nur für Straßenfahrzeuge. Bislang werden dafür Videodaten genutzt. Die Bosch „Radar Road Signature“ setzt sich aus Milliarden von einzelnen Reflexpunkten zusammen. Diese entstehen überall dort, wo Radarsignale zum Beispiel auf Leitplanken oder Verkehrsschilder treffen, und bilden so den Verlauf einer Straße nach. Damit können sich automatisiert fahrende Autos bis auf wenige Zentimeter genau in der Fahrspur lokalisieren. Der große Vorteil der Radarkarte ist ihre Robustheit: Die Lokalisierung mit der Radar-Straßensignatur funktioniert auch nachts sowie bei schlechter Sicht zuverlässig. Zudem werden pro Kilometer nur fünf Kilobyte Daten an eine Cloud übertragen. Bei einer Videokarte ist die Datenmenge mindestens doppelt so groß. Spätestens 2020 sollen in Europa und den USA erste Fahrzeuge Daten für die „Radar Road Signature“ liefern. „Autos, die in den kommenden Jahren mit den Assistenzfunktionen von morgen auf den Markt kommen, fahren die Karte für die automatisierten Fahrzeuge von übermorgen ein“, sagt Bosch-Geschäftsführer Dr. Dirk Hoheisel.

Cybersecurity – Schutz für autonome Fahrzeuge

Mit fortschreitender Vernetzung wird der Schutz des­ autonomen Fahrzeugs vor Attacken aus dem ­Cyberspace immer wichtiger. Dabei hilft nur ein umfassendes Sicherheitskonzept für Cybersecurity, das ­von ­Anfang an in die Entwicklung ­integriert ist.

Autonome Fahrzeuge sind nichts anderes als mobile Computer mit zahlreichen Kommunikationsschnittstellen – für den Austausch von Informationen mit der Infrastruktur oder anderen Fahrzeugen, für Updates der eigenen Betriebssoftware oder für den Zugriff auf Echtzeit-Navigationskarten. Doch mit einer steigenden Zahl von Schnittstellen im Fahrzeug wachsen auch die möglichen Einfallstore für Cyberangriffe. „Jeden Tag erscheinen hunderte von Artikeln über das autonome Fahren in den Medien, aber fast keiner erwähnt das offensichtliche Problem: Autohersteller haben noch keine verlässliche Verteidigung gegen Cyberbedrohungen. Punkt. Ein schwerwiegender Hack könnte sofort den Prozess Richtung automatisiertes Fahren zum Stoppen bringen“, so David Uze, CEO von Trillium. Das 2014 gegründete japanische Unternehmen will daher 2018 eine software-basierte mehrschichtige Sicherheitslösung auf den Markt bringen – zu einem Zehntel der Kosten bisheriger Lösungen. „Da die Verteidigung sich kontinuierlich weiterentwickeln muss, wird unsere Infrastruktur Security as a Service via einer Echtzeit–Update-Plattform liefern, die Autohersteller oder Versicherer zusätzlich an Autobesitzer verkaufen können.“

Es gibt keine Wunderwaffe

Ob eine rein software-basierte, nachträglich verkaufte Cybersecurity-Lösung allein allerdings ausreicht, um ein Fahrzeug vor den ausgefeilten Attacken der heutigen Hacker zu schützen, ist fraglich. „In Sachen Cybersicherheit gibt es keine Wunderwaffe, mit der man Autos gegen ausgefeilte dynamische Cyberangriffe schützen könnte“, betont Ofer Ben-Noon, Mitgründer und CEO des israelischen Fahrzeug-Cybersicherheits-Unternehmens Argus. „Unsere Kunden benötigen einen Schutz auf mehreren Ebenen, damit sie auf wirklich jedes denkbare Szenario vorbereitet sein können.“ Das Unternehmen bietet eine mehrschichtige Security-Lösung für vernetzte Fahrzeuge an: Das beginnt bei den Infotainment- und Telematik-Geräten, reicht über die interne Netzwerkkommunikation und umfasst auch ausgewählte elektronische Steuereinheiten (ECU). Mit der ECU-Security sind lebenswichtige Systeme wie Bremsen, Assistenzsysteme und andere maßgebliche Einheiten vor Angriffen geschützt.

Cybersecurity als Teil des Entwicklungsprozesses

Grundsätzlich sollte Cybersecurity von Beginn an in den Entwicklungsprozess eines autonomen Fahrzeugs integriert sein. Das betont auch eine von FASTR herausgegebene Grundsatzerklärung: Danach soll Cybersecurity bereits an der absoluten Basis der Fahrzeug-Architektur ansetzen und über die gesamte Lieferkette koordiniert werden. So würde ein vernetztes Fahrzeug „organisch sicher“. FASTR – die Kurzform für Future of Automotive Security Technology Research – ist ein neutrales Non-Profit-Konsortium, das im Jahr 2016 von den Firmen Aeris, Intel Security und Uber gegründet wurde.

Für einen derartigen Rundumschutz sollte nach der Bottom-up-Vorgehensweise vorgegangen werden: Das Security-Konzept beginnt mit einem besonders geschützten Sicherheitskern (root of trust), der zum Beispiel durch einen physikalisch gesicherten, kryptografischen Hardware-Baustein, wie einem Hardware-Security-Modul (HSM), realisiert wird. In ihm werden kryptografische Schlüssel und Algorithmen sicher gespeichert – sie sind damit vor Auslesen, Verändern oder Löschen geschützt. Mit diesen Schlüsseln wiederum lässt sich eine Manipulation an der Steuergeräte-Firmware erkennen und verhindern. Damit ist dann auch sichergestellt, dass die in der Firmware enthaltenen software-basierten Security-Funktionen zur On-Board-Kommunikation sicher verwendet werden können. Gleichzeitig sind so die On-Board-Netzwerke unterschiedlicher Sicherheitsstufen zuverlässig voneinander getrennt – damit wird verhindert, dass zum Beispiel über eine Entertainment-Schnittstelle auf die Motorsteuerung zugegriffen werden kann. Das damit realisierte sichere Bordnetz wiederum erlaubt dann auch die sichere Kommunikation mit anderen Fahrzeugen oder der Infrastruktur.

Mit mehrschichtigen Sicherheitskonzepten werden autonome Fahrzeuge vor den vielfältigen Cyber-Attakcen geschützt.

Hardware-Sicherheitsmodul

Sicherere E/E-Architektur

Sichere On-Board-Kommunikation

Sichere Fahrzeug-IT-Infrastruktur

Sicheres Steuergerät

Sichere V2X-Kommunkation

Security-Systeme müssen Update-fähig sein

Die Herausforderungen ändern sich in der Cybersecurity allerdings kontinuierlich – Sicherheitsexperten sehen sich ständig neuen Rahmenbedingungen und Angriffsarten ausgesetzt. Das heißt, die Security-Systeme eines Fahrzeugs müssen über die Lebensdauer immer wieder angepasst und upgedatet werden können. Daher sollte eine Security-Lösung für autonome Fahrzeuge von Anfang an so ausgelegt sein, dass zentrale Security-Parameter und Funktionen in änderbaren Speichern abgelegt werden (das können zum Beispiel HSM mit Firmware-Update-Möglichkeit sein). Zudem sollten die verfügbaren IT-Ressourcen nicht von Beginn an zu 100 Prozent ausgelastet und es sollte zum Beispiel noch ausreichend Speicherplatz vorhanden sein. Mit entsprechenden Update-Mechanismen lassen sich dann neue Sicherheits-Patches „over-the-air“ aufspielen – und das Fahrzeug kann auch in zehn Jahren noch vor Angriffen aus der Cyberwelt geschützt werden.

„Car Hacking ist eine sehr reale Bedrohung, die weiter zunehmen wird, je mehr wir uns in Richtung größerer Vernetzung und autonomen Fahrzeugen bewegen“, so Saar Dickmann, Vizepräsident für Automotive Cyber Security bei Harman, einem Anbieter von Vernetzungstechnologien auch für den Automotive-Sektor. „Automotive Cybersecurity ist ein zunehmend entscheidender Baustein auf dem Weg zum vernetzten und autonomen Fahrzeug.“

(Bildnachweis: istockphoto: Kodochigov)

Logistik-Revolution: Transport­roboter

Dank autonomer Navigation werden Fahrzeuge für den Transport innerhalb von Fabriken jetzt vielseitig und flexibel wie der Mensch. Die ersten Transportroboter sind bereits im Einsatz.

Die Fähigkeit, autonom zu navigieren, wird die Welt der innerbetrieblichen Logistik revolutionieren. Das- meinen zumindest die Marktanalysten von IDTechEx. „Die Inflexibilität der Navigation begrenzte das Marktvolumen bisheriger automatisierter Industriefahrzeuge“, so Dr. Khasha Ghaffarzadeh, Research Director bei IDTechEx. „Autonome mobile Roboter sind dagegen radikal anders, da sie es der Automation ultimativ ermöglichen, im weiten Umfang die Flexibilität und Vielseitigkeit von Menschen gesteuerter Fahrzeuge beizubehalten.“ Er geht davon aus, dass mobile Roboter in Materialfluss und Logistik bis zum Jahr 2027 ein 75-Milliarden-Dollar-Markt werden – der sich bis zum Jahr 2038 noch einmal mehr als verdoppeln wird.

Produktivität durch Transportroboter sofort gestiegen

Noch befindet man sich allerdings in der Anfangsphase, mobile Roboter sind noch relativ teuer. Doch gibt es auch heute schon erste Einsätze. So arbeitet in der spanischen Firma Hero España, Hersteller von Kindernahrung und Konfitüren, schon seit dem Jahr 2011 ein Auto Pallet Mover (APM) der Firma Jungheinrich. Dabei handelt es sich um einen regulären Vertikalkommissionierer beziehungsweise Gabelhubwagen, der durch ein Automationspaket, eine Transportsteuerungs-Software und ein Personenschutzsystem modifiziert worden ist. Das Fahrzeug transportiert bereitgestellte Paletten vom Automatiklager zu den Kommissionierplätzen und von dort zum Versandbereich. Während der Fahrt tastet ein rotierender Laser die Umgebung ab und ermittelt mithilfe von Reflektoren, die längs der Fahrwege angebracht sind, die genaue Position des Auto Pallet Mover. Das Lagerlayout und die Fahrwege lassen sich binnen weniger Minuten ändern, ohne die Reflektoren versetzen zu müssen. Sensoren an den Gabeln ermöglichen auch die Aufnahme beziehungsweise das Absetzen der Paletten bis in einer Höhe von zwei Metern im autonomen Modus. Juan Francisco García Gambín, Lagerleiter bei Hero España: „Mit dem Einsatz des Auto Pallet Movers ist unsere Produktivität aufgrund der Autonomie, mit der das Flurförderzeug seine Aufgaben erfüllt, sofort spürbar gestiegen.“ Schon kurz nach der Inbetriebnahme haben sich Effizienzsteigerungen in den intralogistischen Prozessen sowie eine wesentlich niedrigere Fehlerquote im Warenein- und -ausgang und bei den Transporten ergeben.

Transportroboter als Meilenstein der Digitalisierung

Auch im BMW-Werk Wackersdorf sind bereits selbstfahrende Transportroboter im Einsatz. Zehn dieser Smart Transport Robots transportieren Bauteile in Lager und Produktion. Durch die Abstandsmessung zu Funksendern und ausgerüstet mit einer exakten digitalen Karte der Produktionshalle berechnet der Roboter seine genaue Position und den Fahrweg zu seinem Ziel. Die batteriebetriebenen Sender sind an den Hallenwänden montiert und können ohne großen Mehraufwand flexibel und kostengünstig auf weitere Logistikbereiche erweitert werden. Zusätzlich erkennt und reagiert das Fahrzeug mithilfe seiner Sensoren auf kritische Situationen und kann den Fahrweg gemeinsam mit Menschen und anderen Fahrzeugen nutzen. In einem nächsten Entwicklungsschritt sorgt ein 3D-Kamerasystem für eine noch präzisere Navigation. „Die Entwicklung des sogenannten Smart Transport Robots ist für die BMW Group ein wesentlicher Meilenstein für die Digitalisierung und Autonomisierung in der Produktionslogistik. Dieses Innovationsprojekt leistet einen wichtigen Beitrag für agile Lieferketten, die sich in der Logistik und Produktion schnell und flexibel an veränderte Rahmenbedingungen anpassen“, so Dr. Dirk Dreher, Leiter Auslandsversorgung bei der BMW Group.

Trotz Transportrobotern sind anspruchsvolle Aufgaben dem Menschen vorbehalten

Tobias Zierhut, Head of Product Management Warehouse Trucks bei Linde Material Handling, sieht auch Vorteile für die Lagerarbeiter selbst: „Simple Arbeitstätigkeiten, die sich ständig wiederholen, können künftig von automatisierten Fahrzeugen übernommen werden. Die Menschen können sich dann auf anspruchsvollere und komplexere Aufgaben konzentrieren.“ Seit 2015 arbeitet Linde Material Handling bei der Entwicklung und Produktion von automatisierten Fahrzeugen eng mit dem französischen Robotikanbieter -Balyo zusammen. Die Fahrzeuge sind nicht auf im Lager angebrachte Re-flektoren, Induktionskabel oder Magnete angewiesen. Bei der Installation wird das Einsatzgebiet zunächst kartografiert und die Information an das Fahrzeug überspielt, dann orientiert sich das Fahrzeug per unsichtbarer, lasergesteuerter Geo–navigation selbstständig.

Inventur mit der Drohne

Balyo und Linde haben auch eine Drohne entwickelt, die zur Inventur im Lager eingesetzt werden soll. Die zirka 50 Zentimeter große, mit sechs Rotoren, Kamera, Barcode-Scanner und- Telemeter ausgestattete Inventurdrohne „Flybox“ fliegt langsam jedes einzelne Regalfach ab, macht von jedem Palettenstellplatz ein Foto und erfasst die Barcodes der gelagerten Waren. „Das entscheidend Neue an der Erfindung ist, dass wir die Drohne zusammen mit einem autonomen Flurförderzeug nutzen“, so Tobias Zierhut. Denn die Drohne wird bei ihrem Inventureinsatz von einem automatisierten Hochhubwagen geführt. Beide Geräte sind über ein sich selbst justierendes Kabel miteinander verbunden. Durch die Kopplung löst Linde zwei Herausforderungen, die einem breiten Einsatz von Drohnen in Lagerhallen bisher im Wege standen: zum einen die Energieversorgung (Drohnenakkus reichen in der Regel nur rund 15 Minuten), zum anderen die Lokalisierung unter dem Hallendach ohne GPS-Empfang.

Autonome Flugzeuge: Neue Art zu fliegen

Die Technologie, autonome Flugzeuge ohne Pilot fliegen zu lassen, ist vorhanden und wird bereits erfolgreich ge­testet. Besonders für die Mobilität in den Städten kann das eine völlig neue Art zu ­reisen bedeuten.

Ein Flugzeug, das keinen Piloten an Bord hat, klingt in Zeiten von fahrerlosen Autos und immer intelligenteren Drohnen gar nicht mehr visionär. Tatsächlich hat schon vor rund zehn Jahren das Projekt IFATS (Innovative Future Air Transport System) gezeigt, dass Flugzeuge ohne Piloten technisch realisierbar sind – damals sprach man allerdings von einem Zeithorizont ab 2050. Das größte Hindernis sah man in der Akzeptanz der Passagiere.

Doch die dürfte mit jedem Pilotenstreik und jedem Absturz eines Flugzeugs steigen – denn bis zu 90 Prozent der Unfälle im Luftverkehr sind auf Pilotenfehler zurückzuführen. Und so arbeiten alle großen Flugzeughersteller – und viele kleine Start-ups – an unbemannten Flugzeugen.

Das elektronische Auge sieht alles

Ende 2016 begann der britische Hersteller BAE Systems mit Tests eines selbstfliegenden Flugzeugs. Dafür wurde eine serienmäßige Jetstream 31 zum fliegenden Prüfstand umgebaut. Die Maschine ist mit einer Antenne zum Erfassen von Transpondersignalen anderer Flugzeuge ausgestattet sowie mit einer am Cockpit montierten Kamera, die als elektronisches Auge dient. Die Kamera ist mit den Computersystemen der Jetstream verbunden und ermöglicht dem Flugzeug, potenzielle Gefahren zu „sehen“, selbst wenn keine Signale ausgestrahlt werden. Das elektronische Auge kann zudem verschiedene Wolkentypen erkennen und, wenn nötig, bei unangenehmen Wetterbedingungen einen Ausweichkurs festlegen. Start und Landung des Flugzeugs werden allerdings noch von Piloten an Bord durchgeführt, doch sobald die Jetstream in der Luft ist, fliegt sie selbstständig. Die Maschine legte bereits Strecken von fast 500 Kilometern in einer Flughöhe von rund 4,5 Kilometern zurück. „Unsere Priorität ist es, den sicheren und effektiven Betrieb von autonomen Systemen zu demonstrieren“, so Maureen Mccue, die bei BAE Systems die Forschung und Entwicklung im Bereich der Militärflugzeuge leitet. „Die Versuche werden uns Technologieoptionen zur Verfügung stellen, die in unseren bemannten und unbemannten Flugzeugen zum Einsatz kommen können. Zudem könnten sie möglicherweise dazu führen, dass wir neue Technologien für unbemannte Flugzeuge auf den Markt bringen.“

Ungleich schwerer als bei einem Starrflügler wie der Jet-stream ist die Steuerung eines Helikopters – immerhin sind kontinuierliche Korrekturen in allen drei Achsen erforderlich. Doch auch hier gibt es schon erste Flugversuche: So startet Airbus Helicopters im Juni 2017 autonome Flugversuche mit einer Vorab-Studie des VSR700 – der Prototyp des leichten „Optionally Piloted Vehicle“ (OVP) Hubschraubers soll in 2018 abheben. „Optionally piloted“ bedeutet, dass die Maschine sowohl autonom als auch mit einem Piloten fliegen kann. „Der OVP ist in der Lage autonom abzuheben, zu steigen sowie einen stabilisierten Flug wie auch Manöver durchzuführen“, so Regis Antomarchi, Leiter des VSR700 Programms bei Airbus Helicopters. Die Testflüge mit Sicherheitspilot dienen jetzt erst einmal dazu, die automatische Flugsteuerung an Bord des Hubschraubers zu verfeinern, was dann letztendlich in vollautonomen Flügen ohne Pilot enden soll.

90% Pilotenfehler

Der Großteil aller Unfälle im Luftverkehr geht auf menschliches Versagen zurück. Autonome Systeme sollen diese Zahl deutlich reduzieren.

Der neue Nahverkehr 

Doch Airbus will mit autonomen Luftfahrzeugen noch viel weitergehen. Der Konzern hat verschiedene Visionen rund um das Thema in den Versuchslabors und hat dabei den urbanen Verkehr der Zukunft im Fokus: A3, ein im Silicon Valley beheimatetes Tochterunternehmen, arbeitet zurzeit an einem Projekt namens Vahana. Das ist ein selbstfliegendes Luftfahrzeug für den individuellen Personen- und Gütertransport – im Prinzip ein Lufttaxi. „Die Fähigkeit, in einem autonomen Luftfahrzeug sicher und schnell durch die Stadt transportiert zu werden, ist nicht länger Science-Fiction“, so Rodin Lyasoff, CEO von A3. „Fortschritte in Antrieb, Batterieleistung, Luftverkehrs-Management, Autonomie und Vernetzung bedeuten, dass diese Art des Transports geeignet ist, in wenigen Jahren – nicht in Dekaden – Vorteile für Millionen von Menschen zu bringen.“ Nur bei verlässlichen Sense-and-avoid-Systemen, die Gefahren beziehungsweise Hindernisse erkennen und ein Ausweichen einleiten, sieht er noch Herausforderungen, da derzeit hierzu noch keine ausgereiften Lösungen für die Luftfahrt existieren. „Urban Air Mobility wird die Art, wie wir leben und arbeiten, klar zum Besseren verändern. Die Brücke von der Machbarkeit zur Realität zu schlagen wird aber eine enge Zusammenarbeit zwischen öffentlichen und privaten Sektoren erfordern, um passende Regularien zu definieren“, so Lyasoff. Eine andere Airbus-Vision für den städtischen Luftverkehr ist der City-Airbus: Von der Technik her gleicht dieses Luftfahrzeug einer kleinen Drohne und wird genauso von mehreren elektrisch angetriebenen Propellern getragen. Allerdings soll es gleich mehrere Personen transportieren können. Die Maschine soll zunächst von einem Piloten gesteuert werden, um schnell auf den Markt kommen zu können. Später aber soll sie autonom fliegen und per App von den Passagieren gerufen werden. Eine Machbarkeitsstudie wurde erfolgreich abgeschlossen.

(Bildnachweis: Airbus)