Schlagwort: <span>autonomes fahren</span>

Sensoren als Basis von KI

Durch Sensor-Fusion entstehen immer exaktere Abbilder der Um­gebung. Um schneller Ergebnisse zu erzielen und die Datenflut zu reduzieren, wandert die Intelligenz auch in die Sensoren selbst.

Systeme mit Künstlicher Intelligenz brauchen Daten. Je mehr Daten, umso besser die Ergebnisse. Diese Daten können entweder aus Datenbanken stammen – oder sie werden mit Hilfe von Sensoren gewonnen: Sensoren messen zum Beispiel Schwingungen, Ströme und Temperaturen an Maschinen und liefern einem KI-System damit Informationen, um fällige Wartungen zu prognostizieren. Andere erfassen – integriert in Wearables – Puls, Blutdruck und vielleicht Blutzuckerwerte beim Menschen, um Rückschlüsse auf den Gesundheitszustand zu ermöglichen.

Viele Impulse hat die Sensorik in den letzten Jahren aus den Bereichen der mobilen Robotik und des autonomen Fahrens erhalten: Damit ein Fahrzeug sich autonom durch eine Umgebung bewegen kann, müssen die Fahrzeuge das Umfeld erkennen und die genaue Position bestimmen können. Dazu werden sie mit den unterschiedlichsten Sensoren ausgestattet: Ultraschallsensoren erfassen Hindernisse in kurzer Distanz, zum Beispiel beim Parken. Radarsensoren messen die Position und Geschwindigkeit von Objekten in größerer Entfernung. Lidar-Sensoren (light detection and ranging) scannen mit unsichtbarem Laser-Licht die Umgebung und liefern ein exaktes 3D-Abbild. Kamera-Systeme erfassen wichtige optische Informationen wie Farbe und Kontur eines Objektes und können über die Laufzeit eines Lichtimpulses sogar die Entfernung messen.

Mehr Informationen sind gefragt

Dabei steht heute nicht mehr nur die Positionsbestimmung eines Objekts im Vordergrund, sondern auch Informationen wie beispielsweise die Orientierung, die Größe oder auch Farbe und Textur werden immer wichtiger. Um das sicher zu bestimmen, müssen mehrere Sensoren zusammenarbeiten: Denn jedes Sensor-System bietet zwar spezifische Vorteile. Doch erst die Kombination der Informationen verschiedener Sensoren – die sogenannte Sensor-Fusion – liefert ein exaktes, vollständiges und verlässliches Bild der Umgebung. Ein einfaches Beispiel hierfür sind Bewegungssensoren, wie sie unter anderem in Smartphones Verwendung finden: Erst aus der Kombination von Beschleunigungsmesser, Magnetfelderkennung und Gyroskop können sie Richtung und Geschwindigkeit einer Bewegung messen.

Auch Sensoren werden intelligent

Doch moderne Sensorsysteme liefern nicht nur Daten für KI, sondern nutzen sie auch: Derartige Sensoren können so eine Vorverarbeitung der Messdaten durchführen und damit die zentrale Recheneinheit entlasten. Zum Beispiel hat das Start-up AEye einen neuartigen Hybrid-Sensor entwickelt, der Kamera, Festkörper-Lidar und Chips mit KI-Algorithmen kombiniert. Es überlagert die 3D-Punktewolke des Lidar mit den 2D-Pixeln der Kamera und liefert so ein 3D-Abbild der Umgebung in Farbe. Anschließend werden durch KI-Algorithmen die relevanten Informationen aus dem Umfeld des Fahrzeugs herausgefiltert und bewertet. Das System ist nicht nur um den Faktor zehn bis 20 exakter und dreimal schneller als einzelne Lidar-Sensoren, sondern es reduziert auch die Datenflut zu zentralen Prozessoreinheiten.

Sensoren liefern dem KI-System vielfältige Informationen über:

  • Vibration
  • Ströme
  • Temperatur
  • Position
  • Größe
  • Farbe
  • Textur
  • und vieles mehr…

Ist KI schlauer als der Mensch?

Was in den 1950ern mit einer Konferenz der KI-Pioniere John McCarthy und Marvin Minsky begann, ist zu einer Schlüsseltechnologie ­geworden.­ Sie beeinflusst schon heute­ ­unser Leben – und wird es mit steigender Intelligenz der Maschinen in Zukunft noch viel mehr tun. Doch ist Künstliche Intelligenz schlauer als der Mensch?

Smarte Home-Assistenten bestellen auf Zuruf online die gewünschten Produkte. Chat-Bots führen eigenständig Dialoge mit Kunden. Selbstfahrende Autos bringen den Fahrer sicher zum Ziel, auch wenn der sich in seine Zeitung vertieft. All das sind Anwendungen, die schon heute in unserem Alltag anzutreffen sind – und die alle etwas gemeinsam haben: Ohne Künstliche Intelligenz wären sie nicht möglich.

KI ist eine Schlüsseltechnologie, die sich in den kommenden Jahren nicht nur maßgeblich auf unser tägliches Leben, sondern auch auf die Wettbewerbsfähigkeit der gesamten Wirtschaft auswirkt. „Künstliche Intelligenz hat ein enormes Potenzial, unser Leben zu verbessern – etwa im Gesundheits- und Bildungswesen oder in der Verwaltung. Sie bietet große Chancen für Unternehmen und hat bereits heute eine erstaunlich hohe Akzeptanz in der Bevölkerung“, sagt Achim Berg, Präsident des Branchenverbandes Bitkom.

Wie alles begann

Die Entwicklung dieser Technologie begann bereits in den 50er Jahren: Noch bevor es die Technologie wirklich gab, prägte der Computerwissenschaftler John McCarthy 1956 den Begriff „Künstliche Intelligenz“ auf einer Konferenz an der Dartmouth Universität. Die US-Regierung wurde auf das Thema aufmerksam und da sie sich von der KI einen Vorteil im Kalten Krieg versprach, stattete sie McCarthy und seinen Wissenschaftlerkollegen Marvin Minsky mit den notwendigen finanziellen Mitteln zur Entwicklung dieser neuen Technologie aus. Noch im Jahr 1970 war sich Minsky sicher: „In drei bis acht Jahren werden wir eine Maschine mit der generellen Intelligenz eines durchschnittlichen Menschen haben.“ Doch das war zu euphorisch. Die Wissenschaftler weltweit machten kaum Fortschritte, also kürzten die Regierungen die Mittel. Ein regelrechter KI-Winter brach an. Erst 1980 bekamen die Bemühungen, intelligente Maschinen zu entwickeln, wieder Auftrieb. Sie gipfelten in einem spektakulären Kampf: IBMs Supercomputer Deep Blue schlug im Jahr 1997 den Schachweltmeister Garry Kasparov.

Bots sind die besseren Videospieler

Ab da entwickelte sich die KI rasant. Das zeigt sich – um bei Spielen zu bleiben – zum Beispiel an dem Sieg, den ein von OpenAI entwickelter Bot gegen mehrere Profi-Spieler im Multiplayerspiel Dota 2 errang, einem der komplexesten Videospiele überhaupt. Die Besonderheit: Der Bot brachte sich das Spiel innerhalb von nur vier Monaten selbst bei. Durch ständiges Ausprobieren in extrem vielen Runden, die er mit sich selbst spielte, fand er heraus, was nötig war, um zu gewinnen. Allerdings wurde der Bot nur in einem 1-zu-1-Spiel eingesetzt – normalerweise treten zwei Teams mit jeweils fünf Spielern gegeneinander an. Ein entsprechendes Team aus fünf Bots zu kreieren, ist das nächste Ziel der Entwickler von OpenAI – übrigens ein von Elon Musk mitgegründetes Non-Profit-Forschungsinstitut, das sich die Entwicklung einer sicheren KI für die Allgemeinheit auf die Fahnen geschrieben hat.

Intelligenz in zwei Jahren verdoppelt

Ist KI also heute schon so schlau wie ein Mensch? Um das herauszufinden, haben chinesische Forscher um Feng Liu an der Chinese Academy of Science in Peking einen Test entwickelt, der die Intelligenz von Maschinen misst und sie mit menschlicher Intelligenz vergleicht. Im Fokus standen dabei digitale Assistenten wie Siri oder Cortana. Das Ergebnis: Der schlaueste Assistent ist danach der Google Assistant. Mit 47,28 Intelligenzpunkten liegt er knapp hinter der Intelligenz eines sechs Jahre alten Menschen (55,5 Punkte). Immerhin. Was aber noch viel mehr beeindruckt, ist die Geschwindigkeit, mit der Google Assistant intelligenter wird: Als Feng Liu in 2014 den Test erstmals durchführte, erreichte Google Assistant gerade einmal 26,4 Punkte – er hat in zwei Jahren seine Intelligenz also fast verdoppelt. Lernt das System in diesem Tempo weiter, wird es nicht mehr weit sein, bis die 1970 von Minsky geäußerte Vision einer Maschine mit der Intelligenz eines Erwachsenen wahr wird.

Den Menschen simulieren

Erstaunlicherweise gibt es trotz der langen Geschichte der Entwicklung intelligenter Maschinen auch heute noch keine wissenschaftlich anerkannte Definition von KI. Allgemein wird der Begriff verwendet, um Systeme zu beschreiben, die menschliche Intelligenz und Verhalten nachbilden und simulieren. Im Grunde passt dazu die Definition von MIT-Professor Marvin Minsky, der KI definiert hat als „die Wissenschaft, Maschinen dazu zu bringen, Dinge zu tun, die als intelligent angesehen werden, wenn sie von einem Menschen ausgeführt würden.“

Künstliche Intelligenz | Start-Ups

Wie vielseitig die Einsatzgebiete von Künstlicher Intelligenz sind, zeigt ein Blick auf die Start-up-­Szene: Die jungen Firmen ­entwickeln Produkte für so unterschiedliche Branchen wie Gesundheits­wesen, Robotik, Finanzen, Bildung, Sport, Sicherheit und viele mehr. Eine kleine Auswahl interessanter Start-ups stellen wir ­hier vor.

Vernetztes Auto für ­J­edermann

Das Start-up German Autolabs bietet mit Chris einen speziell für Autofahrer entwickelten Assis­tenten, der über eine intelli­gente Spracherkennung sowie Gestensteuerung den Zugriff aufs Smartphone auch während der Fahrt einfach und bequem ermöglicht. Chris lässt sich in jedes Fahrzeug – unabhängig von Baujahr und Modell – integrieren. Die Kombination einer flexiblen und skalierbaren Assistenz-Software mit einer Hardware zum Nachrüsten soll Connected Car-Technologie für jeden zugänglich machen.

www.hellochris.ai

Den eigenen Sprach­assistenten kreieren

Snips entwickelt eine neue Sprachplattform für Hardware-Hersteller. Der auf Künstlicher Intelligenz basierende Dienst soll es Entwicklern ermöglichen, Sprachassistenzdienste in ­­beliebige Geräte einzubetten. Gleichzeitig soll über das Internet eine Verbraucherversion zur Verfügung gestellt werden, die auf Raspberry Pi betriebenen Geräten läuft. Die Privatsphäre wird dabei großgeschrieben: Das System sendet keine Daten in die Cloud, es funktioniert vollständig offline.

www.snips.ai

Realistische Simu­lation für Autonome Fahrsysteme

Automotive Artificial Intelligence bietet eine virtuelle 3D-Plattform, die die Fahrumgebung von Autos realistisch nachahmt. Sie soll zum Test von Software für das vollautomatische Fahren eingesetzt werden und dabei die Grenzen der Systeme ausloten. Denn selbstlernende Agenten sorgen für die nötige Realität in der virtuellen Plattform: Aggressive Fahrer kommen dort genauso vor wie übervorsichtige, willkürliche Spurwechsel genauso wie unvorhersehbare Bremsmanöver anderer am Verkehr be­teiligter (simulierter) Fahrzeuge.

www.automotive-ai.com

Haustiere ­intelligenter­ ­füttern

Petnet bietet mit SmartShop Beta einen digitalen Marktplatz, der mit Künstlicher Intelligenz Besitzer von Hunden und Katzen zu passenden Nahrungsmitteln für ihr Tier führt – abhängig von Rasse und spezifischen Bedürfnissen. Zur Fütterung hat das Start-up zudem den Petnet SmartFeeder entwickelt: Über ihn lassen sich die Haustiere automatisch mit individuellen Portionen versorgen. Das System meldet per App die durchgeführte Fütterung oder wenn das Futter knapp wird. Auch eine auto­matische Nachbestellung im SmartShop lässt sich ­einrichten.

www.petnet.io

Smarte ­Wasserflasche

Bellabeat hat bereits erfolgreich Healthtracker in Schmuckform für Frauen auf den Markt gebracht. Ergänzend dazu hat das Start-up mit Spring eine intelligente Wasserflasche entwickelt: Das System erfasst über Sensoren, wie viel Wasser die Nutzerin trinkt und wie aktiv sie ist, wie viel sie schläft oder wie ihre Stressempfindlichkeit ist. Mit einer App wird mithilfe von speziellen KI-Algorithmen der individuelle Flüssigkeitsbedarf analysiert und eine Empfehlung zur Trinkmenge gegeben.

www.bellabeat.com

Drohne fürs ­Gefährliche

Hivemind Nova ist ein Quadrocopter für Strafverfolgungs-, Ersthelfer- und Sicherheitsanwendungen. Die Drohne lernt aus Erfahrung, sich in Sperrgebieten oder gefährlichen Umgebungen zurecht zufinden. Ohne einen Piloten, der sie fernsteuert, erforscht sie autonom gefährliche Gebäude, Tunnel usw., bevor Menschen sie betreten. Sie überträgt HD-Videos und eine Karte des Gebäudelayouts live an die Anwender. Hivemind Nova lernt und verbessert sich im Laufe der Zeit kontinuierlich. Je mehr sie benutzt wird, desto fähiger wird sie.

www.shield.ai

Verschleiß im Voraus ­erkennen

Konux verbindet smarte Sensoren und Analytik, basierend auf Künstlicher Intelligenz. Eingesetzt wird die Lösung zum Beispiel bei der Bahn zur Überwachung von Weichen: Felddaten, die bereits im Sensor vorverarbeitet werden, werden drahtlos auf eine Analyseplattform übertragen und mit weiteren Datenquellen wie Fahrplänen, meteorologischen Daten oder Wartungsprotokollen kombiniert. Anschließend werden die Daten mit Hilfe von maschinellen Lernalgorithmen analysiert, um Verhaltensanomalien und kritischen Verschleiß im Voraus zu erkennen.

www.konux.com

Mehr ­Erfolg mit der Stellen­anzeige

Textio ist eine erweiterte Schreibplattform für die Erstellung von hochwirksamen Stellenangeboten. Durch die Analyse der Einstellungsergebnisse von mehr als 10 Millionen Stellenangeboten pro Monat prognostiziert Textio die Wirkung einer Stellenanzeige und gibt in Echtzeit eine Anleitung, wie der Text verbessert werden könnte. Das Unternehmen verwendet dafür eine hochentwickelte ­Predictive­­ Engine und macht sie für jedermann nutzbar –Schulung und IT-Integration sind nicht erforderlich.

www.textio.com

Autonomes Fahren dank KI

Schon in wenigen Jahren wird jedes neue Fahrzeug mit elektronischen Co-Piloten ausgerüstet sein. Sie verarbeiten sowohl Informationen vom Inneren des Autos als auch von dessen Umgebung für Komfort- sowie Assistenzsysteme.

Wir bringen dem Auto bei, sich selbstständig durch den Straßenverkehr zu bewegen“, so Dr. Volkmar Denner, Vorsitzender der Bosch-Geschäftsführung. „Automatisiertes Fahren macht den Straßenverkehr sicherer. Künstliche Intelligenz ist der Schlüssel dazu. Das Auto wird schlau“, ist sich der Bosch-Chef sicher. Dazu entwickelt das Unternehmen zurzeit einen Fahrzeugcomputer mit KI: Mit ihm sollen automatisiert fahrende Autos auch durch komplexe und für das Auto neue Verkehrssituationen lenken können.

Wissen per Update übertragen

Der KI Autocomputer weiß, wie Fußgänger oder Fahrradfahrer aussehen. Neben dieser sogenannten Objekterkennung erleichtert Künstliche Intelligenz auch die Situationserfassung von automatisiert fahrenden Fahrzeugen. Blinkende Autos beispielsweise wechseln mit höherer Wahrscheinlichkeit die Spur als nicht blinkende. So kann ein selbstfahrendes Auto mit KI komplexe Verkehrssituationen wie das Abbiegen eines vorausfahrenden Fahrzeugs erkennen, beurteilen und für den eigenen Fahrweg berücksichtigen. Das beim Fahren erlernte Wissen speichert der Computer auf künstlichen neuronalen Netzen. Experten überprüfen das Wissen im Labor auf ihre Richtigkeit. Nach weiteren Tests auf der Straße lassen sich die künstlich erzeugten Wissensstrukturen per Update auf beliebig viele andere KI Autocomputer übertragen.

Assistenten erkennen Sprache, Gesten und Gesichter

Beim Bau des zentralen Fahrzeugcomputers will Bosch auch mit dem US-amerikanischen Technologieunternehmen Nvidia kooperieren. Nvidia soll Bosch einen Chip liefern, auf dem die mit maschinellen Lernverfahren erzeugten Algorithmen für die Fahrzeugbewegung gespeichert sind. Wobei laut Nvidia-Gründer Jensen Huang KI im Auto nicht nur für das automatisierte Fahren eingesetzt werden wird: „Schon in wenigen Jahren wird jedes neue Fahrzeug über KI-Assistenten für Sprache und Gesten-, Gesichtserkennung oder Augmented Reality verfügen.“ So hat der Chip-Hersteller auch mit Volkswagen bei der Entwicklung eines intelligenten Co-Piloten für den Elektro-Microvan I.D.Buzz zusammengearbeitet: Er soll Sensordaten sowohl vom Inneren des Autos als auch von dessen Umgebung für Komfort- sowie Assistenzsysteme verarbeiten. Diese Systeme können sich im Zuge weiterer Entwicklungen beim autonomen Fahren neue Fähigkeiten aneignen. Dank Deep Learning kann das Auto der Zukunft lernen, sowohl Situationen präzise einzuschätzen als auch das Verhalten von anderen Verkehrsteilnehmern zu analysieren.

Leistungsfähigere Objekterfassung mit Künstlicher Intelligenz

Mit 2D-Kameras das Umfeld dreidimensional erkennen

Voraussetzung des automatisierten Fahrens ist ein möglichst exaktes Abbild der Umgebung. Neue Kamerasysteme nutzen dazu auch KI. So hat ein Projektteam von Audi Electronics Venture eine Monokamera entwickelt, die durch Künstliche Intelligenz ein hochpräzises 3D-Modell der Umgebung generiert. Als Sensor dient eine handelsübliche Frontkamera. Sie erfasst den Bereich vor dem Auto in einem Winkel von etwa 120 Grad und liefert 15 Bilder pro Sekunde mit 1.3 Megapixel Auflösung. Diese Bilder werden daraufhin in einem neuronalen Netz verarbeitet. Dort findet auch die sogenannte semantische Segmentierung statt. Dabei wird jedem Pixel eine von 13 Objektklassen zugeordnet. Dadurch kann das System andere Pkw, Lkw, Häuser, Fahrbahnmarkierungen, Menschen und Verkehrsschilder erkennen und unterscheiden. Auch für die Abstandsinformationen nutzt das System neuronale Netze. Die Visualisierung erfolgt hier über sogenannte ISO-Linien – virtuelle Begrenzungen, die einen konstanten Abstand definieren. Mit dieser Kombination aus semantischer Segmentierung und Tiefenschätzung entsteht ein präzises 3D-Modell des realen Umfelds. Mithilfe von „unsupervised learning“ wurde das neuronale Netz im Vorfeld trainiert: Das neuronale Netz bekam zahlreiche mit einer Stereokamera aufgenommene Videos von Straßensituationen zu sehen. Daraufhin lernte das Netz, eigenständig die Regeln zu verstehen, mit denen es aus den Bildern der Monokamera 3D-Informationen erstellt.

Auch Mitsubishi Electric hat ein Kamerasystem entwickelt, das KI nutzt. Es soll Fahrer in kommenden spiegellosen Fahrzeugen vor möglichen Gefahren warnen und besonders beim Spurwechsel helfen, Unfälle zu vermeiden. Das System nutzt ein neues Rechenmodell für visuelle Erkennung, das das Sehen des Menschen nachahmt: Es erfasst nicht detailliert die gesamte Szenerie, sondern konzentriert sich schnell auf spezifische interessante Bereiche innerhalb des Sichtfelds. Die relativ simplen Algorithmen für visuelle Erkennung der eingesetzten KI schonen die Systemressourcen des On-Board-Rechners. Dennoch kann das System zwischen Objekttypen wie Fußgängern, Pkw und Motorrädern unterscheiden. Im Vergleich zu herkömmlichen kamerabasierten Systemen kann die Technologie die Höchstentfernung der Objekterkennung von heute rund 30 Metern auf 100 Meter deutlich erweitern. Außerdem kann sie die Genauigkeit der Objekterkennung von 14 Prozent auf 81 Prozent verbessern.

KI wird zum Wettbewerbsfaktor

Mit den immer häufiger implementierten intelligenten Assistenzsystemen wird KI zu einem wichtigen Wettbewerbsfaktor für Autohersteller. Das gilt bei der Nutzung Künstlicher Intelligenz für autonomes Fahren ebenso wie in der Entwicklung moderner Mobilitätskonzepte, die auf KI basieren. Fast 70 Prozent der Kunden sind laut McKinsey schon heute bereit, für bessere Features bei assistiertem und autonomem Fahren die Marke zu wechseln. Dominik Wee, Partner im Münchener Büro von McKinsey rät daher: „Insbesondere Premiumhersteller mit ihren anspruchsvollen Kunden sollten einen technischen Vorsprung auch bei KI-basierten Anwendungen demonstrieren, zum Beispiel in der sprachbasierten Interaktion mit dem Fahrzeug oder bei der Parkplatzsuche.“

(Bildnachweis: Volkswagen AG)

KI in der Produktion

KI steigert Qualität und Produktivität in der Fertigungsindustrie und erleichtert dem Menschen die Arbeit.

Die Künstliche Intelligenz kann zum Wachstumsmotor für die Industrie werden: Alleine in Deutschland könnte bis 2030 das Bruttoinlandsprodukt durch den frühen und konsequenten Einsatz von intelligenten Robotern und selbstlernenden Computern um bis zu vier Prozent oder umgerechnet 160 Milliarden Euro höher liegen als ohne den Einsatz von KI, so das Ergebnis einer Studie der Wirtschaftsberatung McKinsey. „Nicht nur volkswirtschaftlich, auch aus Sicht der Unternehmen verspricht KI Vorteile: Sie gibt Mitarbeitern die Möglichkeit, sich ständig wiederholende oder gefährliche Arbeiten an Computer und Roboter abzugeben und sich auf wertschöpfende und interessante Aufgaben zu konzentrieren“, so Harald Bauer, Seniorpartner im Frankfurter Büro von McKinsey.

Gerade im Umfeld der Industrie 4.0 spielen KI und Maschinenlernen ihre Chancen aus: Denn damit sich eine Produktion selbstständig organisieren und flexibel reagieren kann, sind enorme Datenmengen erforderlich. Computersysteme finden in der Datenflut selbstständig Strukturen, Muster und Gesetzmäßigkeiten. So können Unternehmen neues Wissen aus Erfahrungswerten ableiten. Auf diese Weise lassen sich Trends und Anomalien aufspüren – in Echtzeit und im laufenden System.

Die Fertigung bietet viele Ansatzpunkte für die KI, um die Wettbewerbsfähigkeit zu steigern. Aktuell werden 70 % aller gesammelten Produktionsdaten nicht genutzt – KI kann das ändern. (Quelle. obs / A.T. Kearney)

Reagieren, bevor die Maschine ausfällt

Vor allem die vorausschauende Wartung (Predictive Maintenance) verspricht echtes Rationalisierungspotenzial. Mit Hilfe einer Vielzahl von Sensoren werden Daten über den Zustand einer Maschine oder Anlage, beispielsweise Schwingungen, Spannungen, Temperatur und Druck, ausgelesen und an ein System zur Auswertung übertragen. Durch die Datenanalyse können Prognosen aufgestellt werden: Wann kommt es zu einem Ausfall der Systeme? Wann ist der optimale Zeitpunkt für eine Wartung? Somit werden Ausfälle reduziert oder sogar ausgeschlossen. McKinsey geht von einer besseren Auslastung von bis zu 20 Prozent aus, wenn Anlagenbetreiber ihre Wartungsarbeiten vorausschauend planen und durchführen.

Das deutsche Start-up Sensosurf integriert zum Beispiel Kraftsensoren direkt in von Haus aus unintelligente Maschinenkomponenten wie Flansch- und Stehlager, Linearführungen und Gewindestangen. „Wir beschäftigen uns mit Bereichen, aus denen es bislang keine oder nur wenige Informationen gab“, sagt Dr. Cord Winkelmann, Geschäftsführer des Bremer Unternehmens Sensosurf. Die so gewonnenen Daten werden mithilfe maßgeschneiderter Machine-Learning-Algorithmen interpretiert. Dadurch können zum Beispiel spezifische Unregelmäßigkeiten erkannt und es kann Ausfällen vorgebeugt werden.

Die Anlagenverfügbarkeit steigt um bis zu 20 % während die Wartungskosten um bis zu 10% sinken.

Hören, ob die Maschine rundläuft

Das intelligente System Predisound des israelischen Unternehmens 3DSignals misst nicht Verformungen bzw. Schwingungen eines Bauteils, sondern es erfasst akustische Werte einer Maschine. Erfahrene Maschinenbetreiber und Instandhalter erkennen am Klang einer Anlage, ob diese rundläuft. Im besten Fall können sie sogar drohende Ausfälle vorhersagen. Solche Treffer sind natürlich nicht völlig zuverlässig – und sie binden Personal. Beides soll Predisound ändern. Das System besteht aus zahlreichen in den zu überwachenden Maschinen verbauten Ultraschallsensoren. Sie nehmen das komplette Klangspektrum während des Betriebs auf und senden die Daten an eine zentrale Software, die auf einem neuronalen Netz basiert. Per Deep Learning erkennt diese nach und nach immer präziser, welche Abweichungen im Klangbild kritisch sein könnten. So lassen sich Anomalien entdecken, die einem Menschen verborgen blieben. Mit Predictive-Analytics-Algorithmen ausgestattet, lassen sich so Ausfallwahrscheinlichkeiten und zeiträume einzelner Maschinenteile vorhersagen. Der Wartungstechniker wird automatisch informiert, bevor es zu einem Schaden kommt – und damit zum Stillstand einer Anlage. Fixe Prüfintervalle sind deshalb nicht mehr notwendig.

Die Produktivität steigt bei einzelnen Arbeitsschritten um bis zu 20 % durch die KI-basierte Interaktion von Mensch und Roboter. (Quelle: McKinsey)

Effektivere Qualitätssicherung durch Bildverarbeitung

Neben der Maschinenwartung ist die industrielle Bildverarbeitung ein weiteres wichtiges Einsatzgebiet für KI. Die automatische Mustererkennung über Kameras und Sensoren ermöglicht es, Fehler und deren Ursachen schneller zu erkennen. Das unterstützt die Qualitätssicherung maßgeblich. Wie zum Beispiel der APAS Inspector von Bosch. Er erkennt mithilfe lernender Bildverarbeitung automatisch, wenn die Materialoberfläche eines Fertigungsteils nicht den Vorgaben entspricht. Der Mitarbeiter bringt der Maschine einmal bei, welche Abweichung sie noch tolerieren darf und ab wann ein Teil aussortiert werden muss. Sie kann erlernte Muster dank Künstlicher Intelligenz dann auf alle folgenden Qualitätsprüfungen übertragen und diese eigenständig übernehmen.

Roboter lernt selbstständig dank Künstlicher Intelligenz

Dank KI werden zudem Industrieroboter immer mehr zum Partner des Fabrikarbeiters und arbeiten mit ihm Hand in Hand. Ein Beispiel für so einen kollaborativen Roboter ist der Panda von Franka Emika, ein in seinen Bewegungen besonders feinfühliger Leichtbau-Roboterarm. Das mittelfristige Ziel des Entwicklers Sami Haddadin: Aus Panda einen lernfähigen Roboter machen, der nicht mehr programmiert werden muss. Der Mensch gibt eine Aufgabe vor und Panda probiert selbst, wie diese Aufgabe am besten zu lösen ist. Der Clou: Hat Panda die effizienteste Vorgehensweise entdeckt, gibt er die Information via Cloud an andere Roboter weiter. Für den Produktionsbetrieb fällt somit die aufwändige Programmierung weg. „Wir stehen erst am Anfang einer spannenden Entwicklung“, ist sich Matthias Breunig sicher, Partner im Hamburger Büro von McKinsey. „Voraussetzung für den sinnvollen Einsatz von Künstlicher Intelligenz ist eine offene Debatte darüber, wie und an welcher Stelle Menschen und Maschinen sinnvoll zusammenarbeiten können.“

Energieversorgung für ­die Künstliche Intelligenz

Voraussetzung für eine intelligente, vernetzte Welt sind energieeffiziente Rechenzentren.

Die Erfindung der Computer – fähig, Informationen zu speichern und wiederzugeben – änderte die Welt. Bis vor kurzem jedoch waren sie nicht in der Lage, nach dem Vorbild des menschlichen Gehirns autonom zu lernen, um auf Grundlage dieses Wissens Aufgaben zu übernehmen oder Entscheidungen zu treffen.

Um es der Verarbeitungsleistung des menschlichen Gehirns gleichzutun, muss ein KI-System etwa 40.000 Billionen Rechenoperationen pro Sekunde ausführen (d. h. 40 PetaFLOPS). Eine typische Serverfarm, die in der Lage wäre, Rechen-Power für KI in dieser Größenordnung zu liefern, hätte einen Stromverbrauch von knapp 6 MW. Das menschliche Gehirn hingegen hätte zur Durchführung derselben Aufgaben im Vergleich nur einen Kalorienbedarf von 20 Watt. Einige der fortschrittlichsten KI-Lernsysteme haben aktuell einen Strombedarf von bis zu 15 Mega­­watt –­­ ausreichend, um ein europäisches Städtchen mit etwa 1.500 Haushalten einen Tag lang mit Strom zu versorgen.

Die neuronalen Netze der KI lernen durch Differenzierungsprozesse ähnlich wie der Mensch. Üblicherweise werden über Grafikprozessoren (GPU) Tausende Bilder verarbeitet – und zwar parallel, damit das Netz so schnell wie möglich Vergleiche ziehen und lernen kann.

Die KI-Leistung ist im Übrigen von sogenannten Edge ­Devices abhängig – Kameras, Sensoren, Datenerfassungsgeräten und Aktuatoren. Darüber erhält das System Input und führt Bewegungen oder Aktionen in der realen Welt aus. Trends in den Bereichen Konsumgüter und industrielle Fertigung, wie das Internet der Dinge (IoT), haben zu einer raschen Ausbreitung KI-fähiger Geräte in Privathaushalten und Fabrikhallen geführt: Zwangsläufig erhöhen sich dadurch die Datenmengen und der Energieverbrauch.

Die Stromversorgung und das Management der Stromnachfrage im Megawatt-Bereich stehen unter einem ständigen Druck steigender Energiepreise. Jedes zusätzliche Watt an Energie macht mehr Kühlung erforderlich, was die Energiekosten weiter steigen lässt.

Verkleinerung ist das Schlüsselwort für eine verbesserte Verarbeitungsleistung: Aber kleinere Größen mit höherer Leistungsdichte verringern auch die Oberfläche für die Wärmeabfuhr. Das Wärmemanagement gehört somit zu den zentralen Herausforderungen bei der Frage, wie die neue Generation von KI-Supercomputern mit Energie versorgt werden soll.

Verringerung der CO2-Emissionen

Schätzungen zufolge wird es bis 2020 über 50 Milliarden cloudgestützte Sensoren und IoT-Geräte geben. Die Auswirkung, welche diese Geräte und die Datenzentren, die die AI mit Strom versorgen, in Kombination auf den globalen Stromverbrauch und die globale Erwärmung haben werden, unterstreicht die Notwendigkeit des gemeinsamen Vorgehens, um die Stromversorgung von Server-Racks, ­edge Geräten und IoT-Geräten energieeffizienter zu machen.

Neben Investitionen in erneuerbare Energien und dem Bemühen, nicht länger auf Benzin- und Diesel-Fahrzeuge­ zu setzen, wird in Europa ein deutlicher Fokus auf der Energieeffizienz liegen müssen, um den CO²-Ausstoß zu reduzieren. 2008 implementierte die Europäische Kommission den Verhaltenskodex für mehr Energieeffizienz in Rechenzentren in Form einer freiwilligen Initiative, die allen Stakeholdern bei der Verbesserung der Energie-Effizienz helfen soll. Dennoch steuern die Rechenzentren allein in Europa weiter auf einen Verbrauch von 104 TWh bis 2020 zu – fast das Doppelte der 56 TWh des Jahres 2007.

Laut einer Studie aus dem Jahr 2017 über den Energieverbrauch von Rechenzentren generiert der Sektor der Informations- und Kommunikationstechnologie (IKT) bis zu 2 Prozent der gesamten CO²-Emission weltweit – ein Wert, der gleichauf mit den globalen Emissionen der Luftfahrt ist. Rechenzentren machen 14 Prozent dieses IKT-CO²-Fuß­abdrucks aus.

In einem anderen Bericht wird jedoch ausgeführt, dass IKT-gestützte Lösungen, zum Beispiel energieeffiziente Technologien, den CO²-Gesamtausstoß der EU bis 2030 um mehr als 1,5 Gigatonnen (Gt) CO²e (Kohlendioxid-Äquivalent) verringern könnten. Das wäre eine gewaltige Einsparung in Höhe von nahezu 37 Prozent der gesamten CO²-Emissionen der EU im Jahr 2012.

Analoge vs. digitale Steuerungstechnik

Zweifellos wird KI die menschliche Gesellschaft zukünftig ganz entscheidend prägen. Die repetitiven Algorithmen Künstlicher Intelligenz werden jedoch signifikante Änderungen in IT-Architekturen und den Prozessoren selbst erfordern. Folglich wird die Stromversorgung dieser KI-Systeme dauerhaft eine Herausforderung bleiben.Ausgeklügeltere Lösungen müssen her: Es gibt inzwischen Power-Management-Produkte mit hochentwickelter digitaler Steuerungstechnik, die an die Stelle herkömmlicher, analog aufgebauter Lösungen treten.

Es hat sich gezeigt, dass eine digitale Steuerung die Flexibilität und Adaptivität von Systemen im High-End-Bereich der Energieversorgung insgesamt erhöht. Beim digitalen Ansatz lässt sich Steuerungstechnik ohne teure und zeitaufwändige Veränderungen auf Hardware-Ebene individuell anpassen. Dies vereinfacht das Designen und die Umsetzung skalierbarer Energielösungen, die Voraussetzung für KI sind. Sogar mit ihrer umfassenden Funktionalität und der passgenau bereitgestellten Energieleistung sind digitale Lösungen inzwischen im Vergleich zu den analogen Lösungen, die sie ersetzen, preislich wettbewerbsfähig.

Die Lösungen für die Energieversorgung der KI-Anwendungen der Zukunft so effizient wie möglich zu gestalten, ist ein relativ einfacher und gangbarer Weg, wie der IKT-Sektor zur Verringerung der globalen CO²-Emissionen beitragen kann.

Clayton Cornell, Technical Editor, Infineon Technologies AG

Bessere Spracherkennung dank Deep Learning

Digitale Assistenten erkennen dank Deep Learning Sprache immer besser. Mit ihrer Künstlichen Intelligenz können sie sogar die Wünsche ihrer ­Nutzer vorhersehen.

„Tee, Earl Grey, heiß“ – jeder Star-Trek-Fan kennt die Worte, mit denen Captain Picard sein Lieblingsgetränk beim Replikator bestellt. Die Steuerung von Computern und Raumschiffen über die Sprache ist fester Bestandteil der meisten Science-Fiction-Filme. Schon seit vielen Jahren wird versucht, Maschinen über die Sprache zu steuern: Die erste Spracherkennungssoftware für Computer generell hatte IBM im Jahr 1984 der Öffentlichkeit präsentiert. Rund zehn Jahre später wurde sie für den PC und damit für den Massenmarkt konzipiert. Microsoft setzte Spracherkennung in einem Betriebssystem erstmals 2007 ein – bei Windows Vista.

Für den Durchbruch auf dem Massenmarkt sorgte Apple im Jahr 2011. Damals stellte das Unternehmen die Spracherkennungssoftware Siri für das iPhone 4s vor. Inzwischen teilt sich Siri mit verschiedenen ähnlichen Lösungen den Markt: Amazons Alexa, Cortana von Microsoft oder Googles Assistant. Allen Systemen gemein ist, dass die Verarbeitung der Spracheingabe nicht auf dem mobilen Gerät vor Ort erfolgt, sondern auf Servern der Unternehmen: Die Sprachmitteilung wird an ein Rechenzentrum geschickt und dort von gesprochener in geschriebene Sprache umgewandelt. Damit kann das eigentliche Assistenz-System Kommandos und Fragen erkennen und entsprechend reagieren. Eine Antwort wird generiert und an das mobile Gerät vor Ort zurückgeschickt – mal als Datensatz, mal als fertiges Soundfile. Allerdings werden dafür schnelle mobile Internetverbindungen gebraucht. Die Spracherkennung profitiert also vom Trend zum Cloud Computing und schnelleren mobilen Internetverbindungen.

Die Fehlerrate von Spracherkennungssystemen ist signifikant gesunken von 27% in 1997 auf gerade einmal 6% in 2016!

Qualität der Spracherkennung steigt dank Deep Learning und Künstlicher Intelligenz

Vor allem aber profitieren Spracherkennungssysteme in letzter Zeit von Künstlicher Intelligenz. Selbstlernende Algorithmen sorgen dafür, dass Maschinen Sprache immer besser verstehen: Die Fehlerrate bei computergestützter Spracherkennung sank laut einer McKinsey-Studie aus dem Jahr 2017 von 27 Prozent im Jahr 1997 auf sechs Prozent in 2016. Dank Deep Learning können die Systeme Stimmmuster, Dialekte und Akzente des Anwenders immer besser erkennen und lernen.

Auch Nuance – das Unternehmen steckt übrigens hinter der Spracherkennung von Apples Siri – konnte die Genauigkeit seiner in 2017 herausgebrachten Dragon-Spracherkennung um bis zu zehn Prozent im Vergleich mit der Vorgängerversion verbessern. Dazu verwendet die Software durchgängig Deep Learning und neuronale Netzwerke: Zum einen auf der Ebene des Sprachmodells, wo die Häufigkeit von Wörtern und ihrer typischen Kombinationen erfasst werden. Zum anderen auch auf der Ebene des akustischen Modells, in der die Phoneme oder kleinsten gesprochenen Einheiten einer Sprache modelliert werden. „Normalerweise benötigen Deep-Learning-Verfahren Zugang zu umfangreichen Daten und eine aufwändige Hardware im Rechenzentrum, um die neuronalen Netze zu trainieren“, erläutert Nils Lenke, Senior Director Corporate Research bei Nuance Communications. „Wir bei Nuance haben es jedoch geschafft, dieses Training direkt auf den Mac zu bringen. Dragon verwendet die spezifischen Sprachdaten des Anwenders und lernt dadurch fortlaufend hinzu. So können wir die Präzision erheblich steigern.“

Vorausschauende Assistenten

Doch KI verbessert nicht nur die Spracherkennung, sondern auch die Qualität der Dienste von digitalen Assistenten wie Alexa, Siri und Co. Denn durch ihre Lernfähigkeit können die Systeme Themen vorausschauend behandeln und Empfehlungen aussprechen. Microsofts Cortana hat dazu – wie ein menschlicher Assistent – zum Beispiel ein Notizbuch. Darin merkt sie sich die Interessen und Präferenzen des Nutzers, oft besuchte Orte oder Ruhezeiten, in denen der Nutzer nicht gestört werden mag. Wenn der Nutzer zum Beispiel täglich vor dem Aufbruch zur Arbeit nach Wetter und Verkehrsbedingungen fragt, kann das System die Informationen nach einigen Wiederholungen selbständig anbieten, der Nutzer muss nicht mehr aktiv werden.

IoT-Geräte per Sprache steuern

Spannend werden die digitalen Assistenten vor allem dann, wenn sie mit dem Internet der Dinge vernetzt werden. Denn so lassen sich die unterschiedlichsten elektronischen Geräte mit ihnen steuern. Mehr als fünf Milliarden Geräte aus dem Consumer-Bereich sollen in 2018 bereits digitale Assistenten unterstützen, so die Marktforscher von IHS Markit. Bis 2021 sollen weitere drei Milliarden Geräte hinzukommen. So lässt sich zum Beispiel bereits heute das Smart Home über digitale Assistenten per Sprache steuern.

Seit Anfang 2017 integriert auch Ford in den USA den Sprachassistenten Alexa in seine Fahrzeuge – damit zog erstmals überhaupt die Amazon-App ins Auto ein. Die Fahrer können so am Steuer Hörbücher genießen, im Amazon-Universum einkaufen, lokale Ziele suchen, diese direkt ins Navigations-System übertragen und vieles mehr. „Ford und Amazon teilen die Vision, dass jeder Mensch seine bevorzugten Mobilgeräte und Services mit seiner eigenen Stimme aufrufen und bedienen können sollte“, erklärt Don Butler, Leitender Direktor Ford Connected Vehicle and Services. „In Kürze können unsere Kunden ihre Autos von zuhause aus starten und ihre vernetzten Wohnungen von unterwegs bedienen – so erleichtern wir Schritt für Schritt ihr Leben.“

Doch auch die Star-Trek-Fans können sich freuen: Dank Alexa kann man sich heute auch sein Heißgetränk per Sprachbefehl bestellen. Der Kaffeeröster Tchibo hat zum Beispiel die Qbo-Kapselmaschine auf den Markt gebracht, die über WLAN mit Alexa verbunden werden kann. Dann kann man schon im Bett seinen Frühstücks-Kaffee bestellen: „Kaffee, aber pronto!“

Einzelhandel: „Wer nicht auf KI setzt, stirbt!“

Der Einsatz von KI ist nicht nur dem Online-Handel vorbehalten. Auch im Ladengeschäft helfen selbstlernende Algorithmen, Angebot und Nachfrage genauer auszutarieren und den Kunden besser zu verstehen.

Der Einzelhandel agiert in einem komplizierten Beziehungsgeflecht zwischen Kunden, Herstellern, Logistikern und Online-Plattformen. Um im Wettbewerb zu bestehen, müssen die Kundenbedürfnisse optimal erfasst und möglichst effizient und passgenau erfüllt werden – der Händler muss also die richtigen Entscheidungen zur idealen Einbindung der Akteure treffen. Selbstlernende Algorithmen und Künstliche Intelligenz erschließen dabei neue Dimensionen der Prozessoptimierung, Personalisierung und Entscheidungsgenauigkeit.

Die Händler können mit Hilfe von Künstlicher Intelligenz besser auf die Bedürfnisse ihrer Kunden eingehen und beispielsweise ihre Bestell- und Lieferprozesse weiter optimieren.

Eine Frage der Notwendigkeit

Prof. Dr. Michael Feindt, Gründer des Unternehmens Blue Yonder: „Wer nicht auf KI setzt, stirbt! Wer sich dagegen der neuen Technologie öffnet und diese klug für sich nutzt, hat beste Chancen, um auch in Zukunft im Einzelhandel erfolgreich zu sein. Digitaler Wandel mit KI ist für den Einzelhandel keine Frage der Wahl, sondern der Notwendigkeit. Nur wer sich verändert und die neuen KI-Technologien für sich nutzt, überlebt.“ Blue Yonder bietet dazu zum Beispiel eine Machine-Learning-Lösung, die durch automatisierte Preise und Preisabschläge den optimalen Abverkauf über die gesamte Saison ermöglicht. Das System misst den Zusammenhang zwischen Preisänderung und Nachfrageverhalten in jeder Filiale und jedem Kanal. Auf Basis der Ergebnisse legt die Lösung über den gesamten Verkaufszyklus bis hin zu Preisabschlägen und Schlussverkauf umsatz- oder gewinnsteigernde Preise automatisiert fest. Sie analysiert nicht nur historische, sondern auch aktuelle Umsatz- und Produktstammdaten und ermöglicht die Validierung und Optimierung Hunderter Preise pro Tag. Mit Hilfe derartiger Systeme können Handelsunternehmen die steigenden Erwartungen der Konsumenten an den Handel erfüllen und gleichzeitig ihren Gewinn maximieren. Laut Blue Yonder soll so eine Maximierung des Gewinns um sechs Prozent, eine Steigerung des Umsatzes um 15 Prozent und eine Reduzierung der Lagerbestände um 15 Prozent erreichbar sein.

Prozesse weiter optimieren mit Hilfe der KI

„Die Händler können mit Hilfe von Künstlicher Intelligenz besser auf die Bedürfnisse ihrer Kunden eingehen und beispielsweise ihre Bestell- und Lieferprozesse weiter optimieren“, so Stephan Tromp, Hauptgeschäftsführer des Handelsverbands Deutschland HDE. Retailer können zum Beispiel Daten ihrer Zulieferer zur Performance-Messung und Prozessoptimierung einsetzen. Kombiniert mit den Daten aus den Geschäften und Lagerbeständen lassen sich zudem Angebot und Nachfrage besser ausbalancieren. Intelligente Prognosesysteme lernen zum Beispiel aus vergangenen Bestellungen, bilden Käufergruppen und betrachten saisonale Effekte. Aus den gewonnenen Einsichten prognostizieren sie zum Beispiel den Absatz der Produkte und wissen im Optimalfall noch vor dem Konsumenten, was als Nächstes bestellt wird. So können Händler ihre Webseiten auf die entsprechenden Produktgruppen ausrichten, den Einkauf veranlassen, das Lager entsprechend zu bestücken, und letztendlich die Versandzeiten weiter verkürzen. Engpässe bei bestimmten Produkten sind so vorherzusehen und der Retailer hat frühzeitig die nötigen Einblicke, welcher Zulieferer momentan am schnellsten in der Lage ist, die benötigten Waren nachzuliefern.

Kundenbewegungen erfassen

Doch nicht nur im Backoffice des Händlers findet KI ihren Einsatz, auch direkt im Ladengeschäft helfen Deep-Learning-Funktionen das Verhalten von Kunden zu messen. So hat zum Beispiel das Unternehmen Retailnext einen All-in-One IoT-Sensor auf den Markt gebracht, der die Bewegungen der Kunden im Laden erfasst: das Abholen von Waren, das Anprobieren von Kleidung, die vom Kunden zurückgelegten Wege im Geschäft. All das wird über eine Kamera erfasst und direkt im Gerät mit Hilfe von Deep-Learning-Funktionen analysiert. Die Daten werden anschließend in Echtzeit an die Cloud übertragen, sodass Marken über alle Filialen der Kette hinweg aussagekräftige Informationen sammeln können. „Gerade diese Projekte ermöglichen es Einzelhändlern, ein tieferes Verständnis für das Kaufverhalten im Laden zu entwickeln und differenzierte Einkaufserlebnisse zu ermöglichen“, ist sich Arun Nair, Mitgründer von Retailnext und technischer Geschäftsführer sicher. „Je mehr der Einzelhändler weiß, was im Laden passiert, desto besser.“

Grundlagen autonomer Fahrzeuge

Sensorik, Rechen-Power und die Fähigkeit zu lernen sind die technologischen Grundlagen autonomer Fahrzeuge. Je mehr Funktionen die Technologie übernimmt, umso höher ist das Level der Automatisierung – bis hin zum völlig fahrerlosen Fahrzeug.

Die Wurzeln für autonome Fahrzeuge reichen weiter zurück, als man gemeinhin meint: Bereits Anfang des 20. Jahrhunderts entwickelte Elmer Sperry ein erstes kreiselkompassgesteuertes Steuerungssystem, mit dem Schiffe automatisch auf Kurs gehalten werden konnten. 1928 wurde dann die erste automatisierte Flugzeugsteuerung auf der Internationalen Luftfahrtausstellung in Berlin gezeigt, entwickelt von Johann Maria Boykow. Doch echtes autonomes Fahren erfordert weitaus mehr, als das Fahrzeug nur auf einem bestimmten Kurs zu halten: Es muss ohne menschliche Steuerung oder detaillierte Programmierung ein vorgegebenes Ziel selbstständig erreichen. Es muss auf Hindernisse genauso reagieren können wie auf unvorhergesehene Ereignisse.

Die Umfelderfassung ist eine der wesentlichen Fähigkeiten autonomer Fahrzeuge.

Vom Assistenzsystem zum autonomen Fahren

Der Weg hin zu einem vollständig autonomen System ist gleitend. Zur Klassifizierung des Automatisierungsgrades hat ein sechsstufiges System weltweite Anerkennung gefunden – es wurde unter anderem vom Internationalen Verband für Automobilingenieure SAE definiert, wird heute aber auch für andere Fahrzeugsegmente herangezogen. Danach entspricht die Stufe 0 einem Fahrzeug ohne jegliches Assistenzsystem, hier ist alleine der Fahrer für alle Funktionen zuständig. Im Level 1 unterstützen erste Assistenzsysteme den Fahrer wie zum Beispiel ein Tempomat. Teilautomatisierte Fahrzeuge mit Einpark- und Spurhaltesystemen, die also bereits Lenkbewegungen automatisiert durchführen können, zählen zum Level 2. Im Level 3 steuert sich das Fahrzeug größtenteils allein, der Fahrer muss das System nicht mehr dauerhaft überwachen. Die vollautomatisierten Fahrzeuge des Levels 4 meistern auch Risikosituationen ohne menschliche Hilfe, sind jedoch auf bekannte Strecken begrenzt. Erst im Level 5 wird vollständig autonom gefahren, in jeder Umgebung und in jeder Situation.

In begrenzten Räumen, wie in der Landwirtschaft, der Intralogistik, bei Stadtbahnen oder im Bergbau, sind bereits seit längerem hoch- und vollautomatisierte Fahrzeuge der Level 3 und 4 im Einsatz. Im Straßenverkehr dagegen sind jetzt erst Autos des Levels 3 unterwegs. Erste serienreife Autos, die zumindest unter bestimmten Bedingungen im realen Straßenverkehr ohne Fahrer auskommen (Level 4), sollen ab dem Jahr 2020 angeboten werden.

Damit ein Fahrzeug autonom sein Ziel erreichen kann, benötigt es verschiedene Fähigkeiten: Als Erstes muss es die Umgebung, durch die es sich fortbewegt, wahrnehmen – ansonsten würde es bereits am ersten Hindernis scheitern. Um dies zu verhindern, sind autonome Fahrzeuge mit den unterschiedlichsten Sensoren ausgerüstet: Ultraschallsensoren werden beim automatisierten Fahren vor allem für die Umgebungserkennung im Nahbereich bis zu sechs Metern und bei niedrigen Geschwindigkeiten, zum Beispiel beim Parken, benötigt. Radarsensoren liefern auf größere Entfernung wichtige 360-Grad-Umfeldinformationen. Die Hauptaufgabe eines Radarsensors ist das Erkennen von Objekten sowie die Messung von deren Geschwindigkeit und Position im Vergleich zur Bewegung des eigenen Fahrzeugs. Relativ neu sind Lidar-Sensoren, die mit unsichtbarem Laserlicht die Umgebung „abtasten“ und eine hochaufgelöste 3D-Karte des Umfelds erzeugen können. Videosensoren, vor allem in Stereo-Video-Kameras, liefern zusätzlich wichtige optische Informationen wie die Farbe eines Objektes. Jedes dieser Sensorsysteme hat seine Stärken und Schwächen. Um ein möglichst exaktes und verlässliches Bild der Umgebung zu erhalten, werden daher in autonomen Fahrzeugen – je nach Einsatz – mehrere Sensoren zusammen eingesetzt und ihre Daten „fusioniert“, also zusammengeführt.

Hochauflösende Karten über die Cloud

Neben der Fähigkeit, das Umfeld zu „sehen“, muss ein autonomes Fahrzeug aber auch navigieren können. Über Satellitennavigationssysteme wie zum Beispiel GPS wissen die Fahrzeuge, wo sie sich aktuell befinden und können darauf basierend ihren Weg errechnen. Dabei greifen sie auf hochauflösende, hochaktuelle Karten zurück, die über die reine Topologie hinaus möglichst auch aktuelle Ereignisse wie Staus dynamisch mit einbauen. Diese Karten können lokal im Fahrzeug oder in der Cloud hinterlegt sein. Gerade im letzteren Fall ist ein leistungsstarkes Kommunikationssystem erforderlich, damit die Daten der Karte in Realzeit aktualisiert werden können. Die Basis dafür bildet zum Beispiel der Mobilfunkstandard 5G. Er ermöglicht ein „taktiles Internet“, das neben Übertragungsraten von mehr als zehn Gigabit pro Sekunde eine ultraschnelle Reaktion mit einer Verzögerung von weniger als einer Millisekunde garantiert. So vernetzt, kann für komplexe Berechnungen zur Situationsanalyse oder Wegfindung auf die nahezu unbegrenzten Ressourcen des Cloud-Computing zurückgegriffen werden.

Lernen als Basis für richtiges Reagieren

Denn die Auswertung der gewaltigen Datenmengen, die von den Sensorsystemen des Fahrzeugs generiert werden, sowie die Situationsinterpretation benötigen erhebliche Rechenkapazitäten. Technologien, die unter Künstlicher Intelligenz zusammengefasst werden, gewinnen zunehmend an Bedeutung. Insbesondere das maschinelle Lernen ist ein essenzieller Bestandteil eines autonomen Systems: Erst dadurch erhält das Fahrzeug die Möglichkeit, intelligent und unabhängig vom Menschen zu agieren. Durch das maschinelle Lernen können autonome Systeme neues Wissen aus gesammelten und bereitgestellten Daten generieren und ihre Wissensbasis beständig erweitern. Ohne dieses eigenständige Lernen wäre es nahezu unmöglich, sinnvolle Reaktionen auf alle prinzipiell denkbaren Situationen in einer Programmierung festzulegen.

3D-Kameras für mehr Sicherheit

Mit heutigen 3D-Kameras lassen sich Hindernisse auf dem Weg autonomer Fahrzeuge sicher erkennen. Moderne Systeme liefern so präzise Informationen, dass sogar bestimmt werden kann, ob es sich um einen Gegenstand oder doch um einen Menschen handelt. Die Sicherheit beim autonomen Fahren wird so verbessert.

Die genaue Erfassung der Umgebungssituation ist eine entscheidende Grundlage für den erfolgreichen Einsatz autonomer Fahrzeuge. Neben Sensorsystemen wie Lidar, Radar und Ultraschall können auch 3D-Kameras dafür eingesetzt werden, dass ein autonomes Fahrzeug seine eigene Position und die der Objekte in seiner Umgebung jederzeit genau kennt, um Fahrmanöver präzise durchführen zu können. Dabei kommen unterschiedliche Technologien zum Einsatz.

Stereokameras simulieren Augenpaar

Bei Stereokameras arbeiten zwei digitale Kameras zusammen. Deren Bilder ermöglichen – vergleichbar mit dem räumlichen Sehen eines Augenpaars – die Tiefenwahrnehmung der Umgebung und geben unter anderem Aufschluss über Position, Distanz und Geschwindigkeit von Objekten. Die Kameras nehmen die gleiche Szene aus zwei verschiedenen Positionen auf. Eine Software vergleicht beide Bilder und errechnet auf Basis der versetzten Bildpunkte mithilfe der Triangulation die für ein 3D-Bild benötigte Tiefeninformation. Noch exakter wird das Ergebnis, wenn strukturiertes Licht zu der Stereolösung hinzugefügt wird. Durch eine Lichtquelle werden geometrische Helligkeitsmuster auf die Szene projiziert. Dreidimensionale Formen verzerren dieses Muster – auch daraus lassen sich dann Tiefeninformationen berechnen.

ToF-Kameras messen die Laufzeit des Lichtes

Ein anderes Verfahren ist Time-of-Flight (ToF), das die Entfernung aus der Laufzeit vieler einzelner Lichtpunkte ermittelt. Das erfordert sehr schnelle und präzise Elektronik um auf eine Genauigkeit im ±1cm-Bereich zu gelangen. Das Lichtlaufzeitverfahren ist eine sehr effiziente Technologie, um Tiefendaten zu gewinnen und Entfernungen zu messen. Eine Lichtlaufzeitkamera liefert zwei Arten von Informationen für jedes Pixel: den Intensitätswert, ausgegeben als Grauwert, und den Abstand des Objektes von der Kamera, nämlich den Tiefenwert. Aktuelle ToF-Kameras verfügen über einen Bildchip mit vielen Tausend Empfangselementen. So können sie mit einer hohen Detailgenauigkeit eine komplette Szene in nur einer Aufnahme vermessen.

Präzisere Information durch Kamerafusion

Während die grundlegenden Techniken inzwischen schon vielfach im Einsatz sind – bei Assistenzsystemen im Auto, Robotern in der Industrie, auf dem Feld wie auch bei Drohnen –, versucht die Forschung, die Systeme weiter zu optimieren. So haben 3D-Kameras, die bei unterschiedlichen Lichtverhältnissen arbeiten müssen, den Nachteil großer Pixel und somit einer geringen Auflösung. Um das auszugleichen, wird zum Beispiel daran gearbeitet, über eine Software die Bilder von 3D-Kameras mit denen von hochauflösenden 2D-Kameras zu „fusionieren“. So erhält man hochaufgelöste 3D-Daten, die dann mithilfe künstlicher Intelligenz weiterverarbeitet werden können: Dank der hohen Auflösung lassen sich die erfassten Objekte klassifizieren – und ein Mensch kann sicher von einer Mülltonne unterschieden werden. Andere Projekte nutzen zusätzlich Farbkameras, so dass die Klassifizierung nicht nur über die Form, sondern auch über die Farbe erfolgen kann.

Sehen wie ein Adler

Ein weiteres Entwicklungsziel ist es, die Zahl der benötigten Kameras zu reduzieren. Bisher brauchte man eine ganze Reihe von Kameras und Sensoren rund um das Fahrzeug oder eine rotierende Kamera auf dem Dach, um ein möglichst großes Sichtfeld zu generieren. An der Universität Stuttgart wurde ein Adlerauge zum Vorbild genommen, um das Sichtfeld einer einzelnen Kamera zu vergrößern. Das Adlerauge verfügt über extrem viele Sehzellen in der zentralen Fovea, dem Bereich des schärfsten Sehens. Zusätzlich haben Adler eine zweite Fovea am Augenrand, die für scharfe Sicht nach den Seiten sorgt. Die Wissenschaftler haben einen Sensor entwickelt, der quasi ein Adlerauge auf kleiner Fläche nachbildet. Die Forschung war unter dem Dach des Forschungszentrums SCoPE der Universität Stuttgart angesiedelt und konnte dank neuester 3D-Druck-Technologie der Karlsruher Firma Nanoscribe realisiert werden. Die Stuttgarter Forscher druckten direkt auf einen hochauflösenden CMOS-Chip einen ganzen Satz von Mikro-Objektivlinsen, die verschiedene Brennweiten und Sichtfelder haben. Die kleinste Linse hat eine Brennweite, die einem Weitwinkelobjektiv entspricht, dann folgen zwei Linsen mit eher mittlerem Sichtfeld, und die größte Linse hat eine sehr lange Brennweite und ein kleines Sichtfeld wie ein typisches Teleobjektiv. Alle vier Bilder, die die Linsen auf dem Chip erzeugen, werden gleichzeitig elektronisch ausgelesen und verarbeitet. Dabei setzt ein kleines Computerprogramm das Bild so zusammen, dass im Zentrum das hochauflösende Bild des Teleobjektivs dargestellt wird und ganz außen das Bild des Weitwinkelobjektivs. Da das gesamte Sensorsystem nur wenige Quadratmillimeter groß ist – die Linsen haben Durchmesser im Bereich von hundert bis wenigen hundert Mikrometern –, könnten neben der Automobilindustrie zum Beispiel auch neuartige Minidrohnen von der Technologie profitieren.

Autonomes Fahren – Ein Überblick

Autonomes Fahren / Autonome Fahrzeuge werden alle Bereiche der Mobilität verändern. Die Gründe für ­den Verzicht auf den Fahrer, Steuermann oder Piloten sind viel­fältig und reichen von mehr Sicher­heit über eine höhere Wirtschaftlichkeit bis hin zu geringeren ­Umweltbelastungen.

Selbstfahrende Autos, unbemannte Luftfahrzeuge oder fahrerlose Traktoren – autonomes Fahren existiert längst nicht mehr nur auf dem Papier. Zumindest als Prototypen „agieren“ sie zunehmend mitten unter uns: Maschinen, die unabhängig von menschlichen Befehlen selbstständig handeln und zumindest in Alltagssituationen die „richtigen“ Entscheidungen treffen. Neue Sensortechnologien, Vernetzungsmöglichkeiten und selbstlernende Algorithmen erlauben es den neuen Fahrzeugen, schnell, empfindlich und unter Berücksichtigung vielfältiger Daten auf ihre Umwelt zu reagieren.

Fahren ohne menschliche Kontrolle

Von einem autonomen Fahrzeug spricht man laut Definition des deutschen Fachforums Autonome Systeme, wenn ein System ein vorgegebenes Ziel selbstständig und von der jeweiligen Fahr- oder Umgebungssituation abhängig erreichen kann. Eine Lernfähigkeit ist nach dieser Definition keine Voraussetzung, aber eine mögliche Eigenschaft autonomer Fahrzeuge. In Bezug auf den automatisierten Straßenverkehr ist dies zum Beispiel erreicht, wenn das Fahrzeugsystem die Fahraufgabe „vollumfänglich, auf allen Straßentypen, Geschwindigkeitsbereichen und Umfeldbedingungen“ übernimmt. Fahrerlose Fahrzeuge treffen also Entscheidungen und übernehmen Aufgaben in unstrukturierten Umgebungen, ohne dass ein menschlicher Fahrer eine Kontrollfunktion ausübt.

46,8 % der Menschen ­weltweit würden ihre Kinder von ­einem autonomen Auto fahren lassen.
Quelle: Cisco Systems, 2013

Es eröffnen sich neue Geschäftsmodelle

Fahrzeuge mit diesen Fähigkeiten werden zurzeit nicht nur für den Straßenverkehr entwickelt, sondern genauso für Fahrten in der Tiefsee wie für Flüge in der oberen Atmosphäre. Sie ersetzen nicht nur einfach den Fahrer, Steuermann oder Piloten, sondern haben das Potenzial für völlig neue milliardenschwere Geschäftsmodelle: Autonome Drohnen, die monatelang in der Luft bleiben können und das Internet zu den 4,5 Milliarden Menschen bringen, die bisher offline sind, sind dafür nur ein Beispiel. Die größten Umwälzungen werden autonome Fahrzeuge wohl im Straßenverkehr verursachen. Autohersteller können rund um diese neue Technologie innovative Geschäftsmodelle aufbauen, beispielsweise durch Unterhaltungsangebote oder individuell zugeschnittene ­Wartungspakete, die das Fahrzeug in die herstellereigenen Werkstätten lotsen. Gleichzeitig müssen sich Unternehmen auf kürzere Entwicklungszyklen und neue Wettbewerber aus der IT- und Hightech-Branche einstellen. Vor allem aber zeichnen sich deutlich weniger Erlöse aus dem Autoverkauf ab: Analysten der Investmentbank Barclays gehen davon aus, dass dank Car-Sharing und autonomer Taxen die Pkw-Verkaufszahlen in den nächsten 25 Jahren um bis zu 50 Prozent fallen werden. Noch haben die Unternehmen Zeit, sich auf diese Umwälzungen vorzubereiten: Denn im komplexen Straßenverkehr wird erst um das Jahr 2030 herum mit vollständig autonomen Fahrzeugen gerechnet. Dagegen werden in kontrollierbaren Umgebungen – wie in der Landwirtschaft oder im Bergbau – selbstfahrende Fahrzeuge schon heute eingesetzt.

Autonome Fahrzeuge ersetzen nicht nur einfach den Fahrer, sondern haben das Potenzial für völlig neue milliardenschwere Geschäftsmodelle.

Vielfältige Benefits

Dabei sprechen die unterschiedlichsten Gründe für autonome Fahrzeuge: Im Straßenverkehr steht vor allem eine bessere Auslastung der Infrastruktur sowie eine Reduzierung der Unfälle im Fokus. Denn immerhin 90 Prozent aller Unfälle auf der Straße sind auf Fehler des Fahrers zurückzuführen. Gleiches gilt für die Luftfahrt – elektronische Systeme bleiben rund um die Uhr aufmerksam und aktuelle Mikroprozessoren können in einer Gefahrensituation rund 1.000 Mal schneller als der Mensch reagieren. Aber auch die Personalkosten für Piloten sind ein Grund, autonome Flugzeuge einzusetzen. Gleiches spricht im Bausektor für fahrerlose Fahrzeuge – immerhin lassen sich durch autonome Bagger und Lkw Arbeitskosten von bis zu 90 Prozent einsparen. Wobei die Maschinen gleichzeitig rund um die Uhr im Einsatz bleiben können – ohne die für den Menschen notwendigen Pausen. In der Logistik könnten so mittelfristig vollautomatisierte Lkw eine bessere Flottenauslastung ermöglichen und Lieferketten effizienter machen. Fehlende Arbeitskräfte sind ein weiterer Grund für vollautomatisierte Fahrzeuge: Das gilt für den Beruf des Truckers genauso wie für die Seefahrt. Gleichzeitig entlasten autonome Fahrzeuge auch die Umwelt: Bei Bau- und Landmaschinen soll eine CO2-Vermeidung von bis zu 60 Prozent möglich sein. In der Landwirtschaft können darüber hinaus völlig neue Methoden des Ackerbaus realisiert werden, mit denen der Einsatz von Spritzmitteln deutlich reduziert und der Boden geschont wird.

Wer trägt die Verantwortung

Doch bis diese Vorteile genutzt werden können, sind noch eine Reihe ethischer, rechtlicher und sozialer Fragen zu beantworten: Denn wer trägt die Verantwortung für die „Handlungen“ autonomer Fahrzeuge, wenn der Nutzer selbst an deren Entscheidungen nicht oder nur noch am Rande beteiligt ist? Und nach welchen Kriterien sollen Maschinen im Konfliktfall „entscheiden“, und wer legt diese fest? Dennoch sind sich die Experten sicher, dass diese Fragen geklärt und autonome Fahrzeuge schon in naher Zukunft eine Revolution der Mobilität anstoßen werden.
Autonome Fahrzeuge ersetzen nicht nur einfach den Fahrer, sondern haben das Potenzial für völlig neue milliardenschwere Geschäftsmodelle.

2 m ist die maximale Strecke, die ein aktueller NASA-Mars-­Rover­ an einem Stück zurücklegen kann, bevor er für neue Berechnungen stoppen muss. (Quelle: NASA)

57 % der Menschen weltweit würden in einem fahrerlosen Auto mitfahren. (Quelle: Cisco Systems)

1⁄3 der Fläche in großen US-Städten könnte durch autonomes Parken frei werden. (Quelle: www.2025ad.com)

50 % der Betriebskosten eines Schiffes werden durch die Crew verursacht. (Quelle: Moore Stephens LLP)

70 % beträgt der mögliche Anstieg der weltweiten Erträge in der Landwirtschaft durch den Einsatz von autonomen Fahrzeugen, Drohnen und anderen damit verbundenen Technologien. (Quelle: Goldman Sachs)

Dank schnell reagierender Elektronik kann der Sicherheitsabstand bei vernetzten Lkw-Kolonnen reduziert werden, von 50 auf 15 m (Quelle: www.2025ad.com)

Matthias Horx über Evolution und Zukunft der Mobilität

Der Blick in die Zukunft ist immer von Unsicherheit geprägt. „Die Zukunft als Ganzes und im Detail kann man natürlich nicht voraussagen“, meint Matthias Horx. „Aber man kann Scheinwerferkegel in die Zukunft werfen.“ Horx gilt als einflussreichster Trend- und Zukunftsforscher im deutschsprachigen Raum. Nach einer Laufbahn als Journalist gründete er zur Jahrtausendwende das „Zukunftsinstitut”, das zahlreiche Unternehmen und Institutionen berät. Heute sieht er sein Lebensprojekt darin, die Futurologie der 60er und 70er Jahre zu einer Consulting-Disziplin für Unternehmen, Gesellschaft und Politik weiterzuentwickeln. Gerade bei der Betrachtung zukünftiger Technologien setzt er auf einen „evolutionären“ Ansatz: Die Zukunft ist nicht das Ende einer geraden Linie, Altes wird nicht einfach durch Neues ersetzt. Vielmehr entwickeln sich menschliche Fähigkeiten und Bedürfnisse und die Angebote der Technik gemeinsam weiter. Die Zukunft entsteht so in immer neuen Kombinationen und Re-Kombinationen, von denen einige sich durchsetzen, andere aber -verworfen werden. Unter diesem Aspekt warf das Zukunftsinstitut für den ADAC auch einen „Schweinwerferkegel“ auf die Perspektiven der Mobilität. Die Studie „Die Evolution der Mobilität“ schaut bis zum Jahr 2040 – und prognostiziert einen tiefgreifenden Wandel für die Mobilität. Danach stehen wir am Beginn eines neuen multimobilen Zeitalters. Im Interview mit The Quintessence erzählt Matthias Horx, was darunter zu verstehen ist und welche Rolle autonome Fahrzeuge dabei spielen.

„Wenn man wirklich verstehen will, wie die Zukunft aussieht, muss man die Wechselwirkung von sozialen und technischen Prozessen verstehen.“

The Quintessence: Sie betrachten in Ihrem Zukunftsinstitut vielfältige Themen – erkennen Sie übergreifende Trends? 

Matthias Horx: Es gibt Modetrends, sozioökonomische Trends, Techniktrends und Megatrends, das sind die Langfristtreiber des Wandels wie etwa die Globalisierung oder die Urbanisierung. Und dann gibt es noch Metatrends, die langfristig die ganze Evolution antreiben. Herman Kahn, der berühmte Zukunftsforscher der 60er Jahre, hat einmal vom „Langfristig Komplexen Trend” gesprochen. Das ist vielleicht sogar das Evolutionsprinzip selbst, also eine Art Weltformel: Immer mehr Komplexität. Wobei man Komplexität nicht mit Kompliziertheit verwechseln darf!

Welche Rolle spielen technologische Ent­wicklungen bei Ihren Blicken in die Zukunft?

M.H.: Technologie ist ein wichtiger Veränderungsmotor, aber eben nicht der einzige. Wenn man wirklich verstehen will, wie die Zukunft aussieht, muss man die Wechselwirkung von sozialen und technischen Prozessen verstehen. Nicht alle Innovationen setzen sich am Markt durch. Momentan haben wir zum Beispiel einen Hype von Robotern, die immer menschenähnlicher aussehen. Ich prognostiziere: Das wird ein Flop. Wir sind zwar einerseits fasziniert von „Künstlichen Menschen”, aber andererseits gruselt es uns auch davor. Das ist ein natürlicher Anti-Reflex. Und wird die Blech- und Plastikkameraden irgendwann zurück in die Labore schicken. Dafür werden sie sich als Industrie­roboter in den Fabriken überall durchsetzen.

„Ich vermute, dass wir erst einmal 20, 30 Jahre pilotiert fahren und die volle Autonomie erst um 2040 oder 2050 einen echten Durchbruch erleben wird.“

Wie wird die Mobilität von morgen aussehen?

M. H.: Generell wird Mobilität sich entmaterialisieren und kulturisieren. Sie wird heute noch eher als funktionale Bewegung von A nach B wahrgenommen. Man fährt überwiegend, weil man „Strecken” zurücklegen muss. Aber das ändert sich. Man kann Distanzen auch immer mehr mit virtuellen Techniken überbrücken, mit Telepräsenz. Wir erleben andererseits auch ein neues Nomadentum, Menschen die immer unterwegs sind und daraus eine Lebensform gemacht haben. Mobilität ist ein Lifestyle.

Welche Rolle spielen dabei autonome Fahrzeuge insgesamt –­­ also auch Schiffe, Flugzeuge oder Bahnen?

M.H.: Wir können davon ausgehen, dass es in allen diesen Bereichen autonomes Fahren geben wird, die Frage ist nur wann. Es könnte sein, dass Schiffe sich sogar besser für die Vollautomatik eignen als Autos. Beim Straßenverkehr ist die Komplexität eben doch gigantisch. Ich vermute, dass wir erst einmal 20, 30 Jahre pilotiert fahren und die volle Autonomie erst um 2040 oder 2050 einen echten Durchbruch erleben wird. Aber dann muss es schnell gehen, denn eine Mischsituation mit teilweisen Selbstfahrern, teilweisen autonomen Fahrzeugen ist systemisch unwahrscheinlich. Bis 2040 werden aber wohl schon die meisten Schienenfahrzeuge automatisch fahren, das ist technisch viel leichter.

Gab es in der Studie „Evolution der Mobilität“­ Ergebnisse beziehungsweise Erkenntnisse, die Sie überrascht haben?

M.H.: Es war schon überraschend, wie deutlich die Bereitschaft der Menschen zu einer anderen Mobilität war. Die Menschen sind, was das Autofahren angeht, extrem gespalten. Einerseits gibt es immer noch 40 Prozent richtige Autofanatiker, für die das Autobesitzen eine undiskutierbare Identitätsfrage ist. Sozusagen die Taliban des Verbrennungsmotors. Andererseits sind die Vielautofahrer enorm durch die Staus genervt, und jetzt kommt auch noch die Dieseldebatte. Es gibt besonders in den Städten einen doch recht hohen Anteil von Leuten, die froh sind, kein Auto mehr zu besitzen – die das geradezu als Befreiung und Lebensqualität begreifen.

Haben Sie in der Studie nur den Straßenverkehr betrachtet?

M. H.: Das war natürlich ein Schwerpunkt, wobei es uns um ein ganzheitliches Verständnis von Mobilitätsprozessen geht. Straßenverkehr ist ja heute noch weitgehend Autoverkehr. Das wird nicht so bleiben. Wir stehen vor der „Kopenhagenisierung” der Städte. Da spielen Autos nur noch eine Rolle am Rande, die Straße gehört dann Fußgängern, Radlern und fliegenden Händlern …

In dem Zusammenhang sprechen sie auch von einer multimodalen Mobilität. Was verstehen Sie darunter?

M. H.: Schlichtweg die nahtlose Verbindung von verschiedenen Verkehrsmitteln­
bis zum Ziel, jederzeit einsetzbar und kombinierbar. Das Tolle am Auto ist ja, dass man von A nach B gelangen kann – mit Gepäck. Das geht in Zukunft auch ohne allzu großen Aufwand mit einer Kombination von, sagen wir – Elektroroller und Lastfahrrad und Zug und Drohne …

Viele Analysten sehen den Zenit der AutomobilBranche in zehn bis 15 Jahren erreicht. Welche Rolle spielt aus Ihrer Sicht das Auto in 2040?

M. H.: Mit solchen Formulierungen wäre ich vorsichtig. Denn einerseits ist die Autobranche schon jetzt an ihrem Zenit angelangt – so, wie sie heute ist, geht es nicht mehr weiter. Aber die Autobranche wird sich ja wandeln, sie wird mit der Energiebranche und der Computerbranche verschmelzen, und dann nennen wir sie vielleicht ganz anders …

Wie werden sich autonome Fahrzeuge auf unser Leben auswirken?

M. H.: Wir tun viele Dinge im Auto, die wir früher im Büro oder zu Hause getan haben. Schlafen, lieben, arbeiten … Allerdings ist das auch heikel, weil zum Beispiel unklar ist, ob das Autofahren nicht irgendwann zur Arbeitszeit dazugehört. Weshalb viele Menschen das Autofahren ja lieben, ist, dass es eine gewisse Entspannungsqualität hat, jedenfalls wenn der Verkehr fließt. Man kann sitzen und Musik hören, als Mitfahrer dösen, befindet sich also in einer sehr unterkomplexen Intensität der Handlung. Das wird von vielen Menschen als Erholung und Autonomie wahrgenommen. Das selbstfahrende Auto könnte das abschaffen, und deshalb sind viele Menschen instinktiv dagegen. Ein anderer Teil mag das Autonom-Auto nicht, weil es die Aggressivität des Autofahrens zerstört. Man kann nicht mehr steuern und rasen, und das Lichthupen auf der Autobahn ist vorbei. Wohin dann mit der ganzen inneren Wut?

Aber werden uns autonome Fahrzeuge nicht auch mehr Freiheiten ermöglichen?

M. H.: Die Freiheit, nicht mehr ganze Jahre seines Lebens mit dem Steuern und Bedienen eines Automobils zu verbringen, wäre eigentlich eine große Befreiung. Allerdings hätte man das auch mit dem Zug, und viele Menschen lieben ihren Sklavenstatus, so wie ja auch viele Menschen es sogar zu genießen scheinen, im Auftrag der Firma Ikea selbst Möbel zu bauen. Wir sind eigentlich ganz gern abhängig von Technologie, die Freiheit ist da wohl zweitrangig.­ Sonst würden die Menschen diese bizarren Stauerfahr­ungen­ wohl nicht hinnehmen.

Hand aufs Herz. Welche Entwicklungen haben Sie persönlich am meisten überrascht, weil Sie diese so gar nicht erwartet hatten?

M. H.: Trump.

Eines Ihrer Bücher heißt „Anleitung zum Zukunftsoptimismus“. Warum sollten wir optimistischer in die Zukunft blicken?

M. H.: Optimismus ist an sich ziemlich blöde, weil meistens blauäugig. Die Klügeren unserer Vorfahren waren keine Optimisten, sonst wären sie vor dem Alter tot gewesen, in dem sie sich fortpflanzen konnten. Ich bin Possibilist. Ich denke in Möglichkeiten und wähle die besseren als die Zukunftsperspektiven, die wir anstreben sollten.

Mobilität 2040: digital organisiert und individuell vernetzt

„Die Herausforderungen für die Mobilität der Zukunft liegen in der individuellen, intelligenten Vernetzung“, so ADAC-Präsident Dr. August Markl anlässlich der Vorstellung der vom Zukunftsinstitut erstellten Studie „Die Evolution der Mobilität“. „Unsere Mobilitätsmuster werden vielschichtiger und komplexer. Uns steht dabei keine disruptive Mobilitätswende bevor, sondern eine evolutionäre Entwicklung und Veränderung, die umso tiefgreifender und grundlegender sein wird.“

Das Bedürfnis nach Sicherheit, Gesundheit, intakter Umwelt und allgemeiner Lebensqualität wird in den kommenden Jahrzehnten weiter an Bedeutung gewinnen, so die Zukunftsstudie. Die Digitalisierung wird zur zentralen Grundlage der Mobilität von morgen. Bei steigendem Mobilitätsbedarf rechnen die Zukunftsforscher bis zum Jahr 2040 auch mit Veränderungen bei der bisherigen Autonutzung. Erwartet wird eine viel stärkere Vernetzung verschiedener Verkehrsträger bei der individuellen Fortbewegung. ÖPNV und Sharing-Angebote werden über digitale Plattformen integriert.

Auch die Entwicklung neuer Lebensstile, bedingt unter anderem durch eine veränderte Arbeitsweise oder die zunehmende Lebensdauer, wirken sich langfristig auf individuelle Mobilitätsmuster aus. Die Forscher rechnen bis 2040 mit vielfältigen Typen und Ausprägungen persönlicher Mobilität. Diese reichen von informationstechnisch versierten „Mobile Innovators“ bis hin zu „Silver Movern“, der anspruchsvollen Gruppe der Mobilen über 75-Jährigen.

Die komplette Studie „Die Evolution der Mobilität“ steht unter www.mobilitaet-2040.de zur Verfügung.

Hände vom Lenkrad

In Amsterdam ist der weltweit erste autonomer Bus im realen Verkehrsgeschehen unterwegs. Noch ist ein Fahrer an Bord.

Irgendwo zwischen Flughafen Amsterdam Schiphol und der Stadt Haarlem, auf der längsten Expressbus-Linie Europas: Ein Bus wartet vor einer Ampel auf das Signal loszufahren. Zwei rote Punkte nebeneinander bedeuten auf dieser Ampel Stopp, zwei weiße Punkte übereinander freie Fahrt. Die Ampel springt auf Weiß, sanft setzt sich der Bus in Bewegung und ordnet sich in seiner Spur ein. Rote Ampel voraus – sicher und sanft bremst der Omnibus ab und kommt zum Stehen. Gefahren wird der Bus dabei nicht von einem Menschen, sondern von der Elektronik. Denn es ist der erste autonom fahrende Stadtbus weltweit, der im realen Stadtverkehr unterwegs ist.

Erster autonomer Bus

Allerdings ist immer noch ein Fahrer an Bord. Der ist auf der weiteren Fahrt jedoch etwas unterbeschäftigt, denn der Omnibus hält sicher seine Spur. Er lässt sich auch von zwei Brücken und einer Unterführung nicht irritieren. Nach dem Ortsende beschleunigt er auf die erlaubten 70 km/h. Das Maximaltempo ist programmiert, auch bei dieser Geschwindigkeit lenkt nicht der Fahrer. Automatisiert kommt der Bus an die Haltestelle: anhalten, Türen öffnen und schließen, abfahren. An der nächsten Ampel erkennt der Bus die Stellung des Lichtsignals über sein aufwändiges Kamerasystem. Darüber hinaus kommuniziert das Fahrzeug über ein WLAN-System mit der Streckeninfrastruktur und erhält Informationen zum Ampelstatus. So kann gezielt eine grüne Welle „erfahren“ werden. Während die Ampel umspringt, laufen noch Fußgänger über die Straße. Der Bus verharrt, lässt sie vorüber, wartet mit dem Anfahren, bis die Fahrbahn frei ist. Zur Vermeidung einer Kollision verfügt der Bus über ein automatisches Bremssystem, das selbsttätig eine Zielbremsung einleitet.

Entwicklung speziell für Großstädte

Seit 2016 wird dieser Future Bus von Daimler in Amsterdam auf der Expressbus-Linie (Bus Rapid Transit, BRT) im realen Verkehrsgeschehen getestet. Daimler arbeitet seit einigen Jahren daran, die Technologie des autonomen Fahrens weiterzuentwickeln und zur Serienreife zu bringen. So ist die neue Mercedes-Benz E-Klasse das weltweit erste Serienfahrzeug, das eine Testlizenz für autonomes Fahren im US-Bundesstaat Nevada erhielt. Und der Lkw-Ableger Daimler Trucks hat mit dem in Erprobung befindlichen Highway Pilot ein System entwickelt, das teilautomatisiertes Fahren ermöglicht. Dr. Wolfgang Bernhard, Mitglied des Vorstands der Daimler AG und verantwortlich für Daimler Trucks & Buses: „Mit unserem Highway Pilot haben wir vor knapp zwei Jahren gezeigt: autonomes Fahren wird den Lkw-Fernverkehr effizienter und sicherer machen. Jetzt bringen wir diese Technologie in unsere Stadtbusse: den City Pilot. Das System ist eine Weiterentwicklung speziell für Großstädte. Damit fahren wir teilautonom auf speziell ausgewiesenen Busspuren.“ BRT-Linien wie die in Amsterdam bieten sich als erster Schritt zum vollautomatisierten Fahren mit Bussen im Stadtverkehr an: eine immer gleiche Strecke auf separater Trasse, ein klar definierter Fahrplan, eindeutige und identische Aktionen an Haltestellen.

Kameras und Sensoren intelligent miteinander vernetzt

Der autonom fahrende Bus erkennt, ob die Strecke vor ihm für automatisiertes Fahren geeignet ist und signalisiert dies dem Fahrer. Ein Tastendruck vom Busfahrer aktiviert den City Pilot. Voraussetzung: Der Fahrer nimmt den Fuß von Gas- oder Bremspedal und lenkt nicht, denn jede Fahreraktivität überlagert das Steuerungssystem – der Fahrer bleibt stets Herr des Verfahrens und kann die Kontrolle übernehmen. Die Lösung zum autonomen Fahren umfasst sowohl aktuelle Assistenzsysteme, die zum Beispiel für die Reisebusse von Mercedes-Benz verwendet werden, als auch zusätzliche Systeme, die teilweise von Daimler Trucks übernommen und für den Stadtverkehr weiterentwickelt wurden. Dazu gehören Fern- und Nahbereichsradar, eine Vielzahl von Kameras sowie das satellitengesteuerte Ortungssystem GPS. Kameras und Sensoren sind intelligent miteinander vernetzt, so dass ein präzises Bild der Umgebung und der exakten Position des Omnibusses entsteht.

Rechtlicher Rahmen fehlt noch

Der teilautonom fahrenden Stadtbus soll die Sicherheit im Stadtverkehr deutlich steigern. Experten rechnen damit, dass durch autonomes Fahren bis zum Jahr 2035 die Unfallzahlen um voraussichtlich 80 Prozent sinken. Zudem verbessert der Future Bus dank seiner vorausschauenden Fahrweise die Effizienz, schont Aggregate und senkt Kraftstoffverbrauch wie Emissionen. Und durch die fließende, gleichmäßige Fahrt erhöht er zudem den Komfort der Fahrgäste. Doch noch erlauben die Gesetze keinen autonomen Regelbetrieb auf den Straßen. „Wir müssen die Regelwerke des 20. Jahrhunderts zügig an das 21. Jahrhundert anpassen“, meint daher Dr. Bernhard. „Dabei dürfen wir uns allerdings nicht verzetteln. Bevor wir über alle möglichen Fragen des vollautonomen Fahrens diskutieren, müssen wir erst mal teilautonomes Fahren ermöglichen. Wir müssen dem Fahrer erlauben, die Hände vom Lenkrad zu nehmen.“

Radartechnik in autonomen Fahrzeugen

Radar ist eigentlich eine alte Technologie. Doch mit aktuellen Entwicklungen wird die Radartechnik in autonomen Fahrzeugen immer präziser und leistungsfähiger.

Radare sind ein wesentlicher Bestandteil automatisierter Fahrsysteme“, erklärt Peter Austen, Global Portfolio Director im Bereich Fahrerassistenzsysteme der ZF-Division Aktive & Passive Sicherheitstechnik, kurz ZF TRW. „Im Zusammenspiel mit Kameras, intelligenter Steuerung und Aktuatorik ermöglichen sie teilautomatisierte Fahrfunktionen.“ Seit 1999 konstruiert und entwickelt ZF TRW in Brest Radarsysteme.

Anfangs noch Luxus

Bereits zu Beginn des 2. Weltkrieges wurde die Radartechnik in Flugzeugen und Schiffen eingesetzt. Im Auto fand es sich allerdings erst 1998, als Mercedes-Benz ein Abstandsradar in der S-Klasse einführte. Doch damals waren die Kosten für die Technologie noch sehr hoch, denn bis 2009 konnten die benötigten Halbleiter nur auf Basis des Materials Galliumarsenid (GaAs) gefertigt werden – ein Material, das teuer und schwer zu verarbeiten ist. Ein weiterer Nachteil ist der niedrige Integrationsgrad, also die Fähigkeit, immer mehr Funktionen auf einer gleichbleibenden Chipfläche zu bündeln. Erst mit der Fertigung der Sensoren in der Silizium-Germanium-Technologie (SiGe) – den für die Halbleiterfertigung am häufigsten verwendeten Materialien – wurden die Systeme bezahlbar. Denn jetzt konnten erprobte Standardverfahren für die Massenfertigung verwendet werden. Zudem ließ sich jetzt eine Vielzahl von Funktionen, für die vorher bis zu acht GaAs-Chips benötigt wurden, auf nur noch maximal zwei SiGe-Bauteilen zusammenfassen.

Über 100 Jahre alt

Der deutsche Ingenieur Christian Hülsmeyer entwickelte schon 1904 in Düsseldorf die erste praktische Anwendung der Reflexion von elektromagnetischen Wellen an Objekten: Das sogenannte Telemobiloskop. Wie moderne Radarsensoren sendete es eine gebündelte elektromagnetische Strahlung – Radiowellen – aus. Die Analyse der reflektierten Strahlung ermöglicht bei modernen Radarsystemen das Erkennen von Objekten mit ihrem jeweiligen Abstand und ihrer Geschwindigkeit.

Erfassung wird immer leistungsfähiger

Die Radartechnik in autonomen Fahrzeugen arbeitet im Millimeter-Band – heute entweder im 24/26-GHz- oder im 77/79-GHz-Bereich. Damit sind hohe Auflösungen bei Detektion, Positions- und Bewegungsbestimmung von Objekten bis in den Zentimeterbereich möglich. Im Vergleich zu anderen – zum Beispiel kamerabasierten – Techniken arbeitet das Radar auch bei schwierigen Sichtverhältnissen wie Schnee, Nebel, Starkregen und blendendem Gegenlicht zuverlässig. Dabei sind die kompletten Systeme nicht viel größer als eine Streichholzschachtel.

Grundsätzlich lässt sich zwischen zwei Arten von Radar unterscheiden: dem „Frequency Modulated Continuous Wave“ (FMCW) und dem Impulsradar. Im Gegensatz zu einem Impulsradar, das nur einen Puls aussendet, senden FMC-Radare kontinuierlich. Beim FMCW-Verfahren wird das Signal während des Sendens über die gesamte Bandbreite moduliert, so dass sich die Frequenz zeitlich verändert – das nennt man Chirp. Dieser Chirp wird zyklisch wiederholt. Damit können FMC-Radare neben der Differenzgeschwindigkeit zwischen Sender und Objekt auch gleichzeitig deren absolute Entfernung messen. Allerdings haben die Geräte – bisher – eine Schwäche: Nähern sich Objekte mit unterschiedlichen Geschwindigkeiten, kann es passieren, dass das Radar eines davon „übersieht“. Bisherige Geräte konnten daher nur Objekte bis zu einer relativen Geschwindigkeit von 50 km/h sicher detektieren. Eine Lösung besteht darin, die Modulationsgeschwindigkeit zu erhöhen. Mit dieser sogenannten Fast-Chirp-Modulation (FCM) steigt die Genauigkeit der Entfernungsmessung und es kann eine größere Bandbreite an Geschwindigkeiten der Zielobjekte abgedeckt werden. Doch mit steigender Außentemperatur verlangsamen sich bei Standard-CMOS-Signalgeneratoren die Pulse, so dass es zu Fehlern kommt. Fujitsu präsentierte dagegen Ende 2016 einen CMOS-basierenden Millimeter-Wellen-Signalgenerator, der auch bei Temperaturen von 150° Celsius die Modulationsgeschwindigkeit sicher und genau aufrechterhalten kann. Damit werden Erfassungsfehler reduziert und selbst Objekte, die sich dem Fahrzeug mit einer relativen Geschwindigkeit von 200 km/h nähern, werden sicher erkannt.

Navigieren mit Radar

Radargeräte werden in autonomen Fahrzeugen allerdings nicht nur eingesetzt, um Objekte zu erkennen und zu orten. Zumindest in Zukunft soll mithilfe des Radars auch navigiert werden. Dafür haben Bosch und der niederländische Karten- und Verkehrsinformationsanbieter TomTom jetzt erstmalig eine hochauflösende Karte mit einer Lokalisierungsschicht aus Radar-Reflexpunkten erstellt – allerdings nur für Straßenfahrzeuge. Bislang werden dafür Videodaten genutzt. Die Bosch „Radar Road Signature“ setzt sich aus Milliarden von einzelnen Reflexpunkten zusammen. Diese entstehen überall dort, wo Radarsignale zum Beispiel auf Leitplanken oder Verkehrsschilder treffen, und bilden so den Verlauf einer Straße nach. Damit können sich automatisiert fahrende Autos bis auf wenige Zentimeter genau in der Fahrspur lokalisieren. Der große Vorteil der Radarkarte ist ihre Robustheit: Die Lokalisierung mit der Radar-Straßensignatur funktioniert auch nachts sowie bei schlechter Sicht zuverlässig. Zudem werden pro Kilometer nur fünf Kilobyte Daten an eine Cloud übertragen. Bei einer Videokarte ist die Datenmenge mindestens doppelt so groß. Spätestens 2020 sollen in Europa und den USA erste Fahrzeuge Daten für die „Radar Road Signature“ liefern. „Autos, die in den kommenden Jahren mit den Assistenzfunktionen von morgen auf den Markt kommen, fahren die Karte für die automatisierten Fahrzeuge von übermorgen ein“, sagt Bosch-Geschäftsführer Dr. Dirk Hoheisel.