Mit heutigen 3D-Kameras lassen sich Hindernisse auf dem Weg autonomer Fahrzeuge sicher erkennen. Moderne Systeme liefern so präzise Informationen, dass sogar bestimmt werden kann, ob es sich um einen Gegenstand oder doch um einen Menschen handelt. Die Sicherheit beim autonomen Fahren wird so verbessert.
Die genaue Erfassung der Umgebungssituation ist eine entscheidende Grundlage für den erfolgreichen Einsatz autonomer Fahrzeuge. Neben Sensorsystemen wie Lidar, Radar und Ultraschall können auch 3D-Kameras dafür eingesetzt werden, dass ein autonomes Fahrzeug seine eigene Position und die der Objekte in seiner Umgebung jederzeit genau kennt, um Fahrmanöver präzise durchführen zu können. Dabei kommen unterschiedliche Technologien zum Einsatz.
Stereokameras simulieren Augenpaar
Bei Stereokameras arbeiten zwei digitale Kameras zusammen. Deren Bilder ermöglichen – vergleichbar mit dem räumlichen Sehen eines Augenpaars – die Tiefenwahrnehmung der Umgebung und geben unter anderem Aufschluss über Position, Distanz und Geschwindigkeit von Objekten. Die Kameras nehmen die gleiche Szene aus zwei verschiedenen Positionen auf. Eine Software vergleicht beide Bilder und errechnet auf Basis der versetzten Bildpunkte mithilfe der Triangulation die für ein 3D-Bild benötigte Tiefeninformation. Noch exakter wird das Ergebnis, wenn strukturiertes Licht zu der Stereolösung hinzugefügt wird. Durch eine Lichtquelle werden geometrische Helligkeitsmuster auf die Szene projiziert. Dreidimensionale Formen verzerren dieses Muster – auch daraus lassen sich dann Tiefeninformationen berechnen.
ToF-Kameras messen die Laufzeit des Lichtes
Ein anderes Verfahren ist Time-of-Flight (ToF), das die Entfernung aus der Laufzeit vieler einzelner Lichtpunkte ermittelt. Das erfordert sehr schnelle und präzise Elektronik um auf eine Genauigkeit im ±1cm-Bereich zu gelangen. Das Lichtlaufzeitverfahren ist eine sehr effiziente Technologie, um Tiefendaten zu gewinnen und Entfernungen zu messen. Eine Lichtlaufzeitkamera liefert zwei Arten von Informationen für jedes Pixel: den Intensitätswert, ausgegeben als Grauwert, und den Abstand des Objektes von der Kamera, nämlich den Tiefenwert. Aktuelle ToF-Kameras verfügen über einen Bildchip mit vielen Tausend Empfangselementen. So können sie mit einer hohen Detailgenauigkeit eine komplette Szene in nur einer Aufnahme vermessen.
Präzisere Information durch Kamerafusion
Während die grundlegenden Techniken inzwischen schon vielfach im Einsatz sind – bei Assistenzsystemen im Auto, Robotern in der Industrie, auf dem Feld wie auch bei Drohnen –, versucht die Forschung, die Systeme weiter zu optimieren. So haben 3D-Kameras, die bei unterschiedlichen Lichtverhältnissen arbeiten müssen, den Nachteil großer Pixel und somit einer geringen Auflösung. Um das auszugleichen, wird zum Beispiel daran gearbeitet, über eine Software die Bilder von 3D-Kameras mit denen von hochauflösenden 2D-Kameras zu „fusionieren“. So erhält man hochaufgelöste 3D-Daten, die dann mithilfe künstlicher Intelligenz weiterverarbeitet werden können: Dank der hohen Auflösung lassen sich die erfassten Objekte klassifizieren – und ein Mensch kann sicher von einer Mülltonne unterschieden werden. Andere Projekte nutzen zusätzlich Farbkameras, so dass die Klassifizierung nicht nur über die Form, sondern auch über die Farbe erfolgen kann.
Sehen wie ein Adler
Ein weiteres Entwicklungsziel ist es, die Zahl der benötigten Kameras zu reduzieren. Bisher brauchte man eine ganze Reihe von Kameras und Sensoren rund um das Fahrzeug oder eine rotierende Kamera auf dem Dach, um ein möglichst großes Sichtfeld zu generieren. An der Universität Stuttgart wurde ein Adlerauge zum Vorbild genommen, um das Sichtfeld einer einzelnen Kamera zu vergrößern. Das Adlerauge verfügt über extrem viele Sehzellen in der zentralen Fovea, dem Bereich des schärfsten Sehens. Zusätzlich haben Adler eine zweite Fovea am Augenrand, die für scharfe Sicht nach den Seiten sorgt. Die Wissenschaftler haben einen Sensor entwickelt, der quasi ein Adlerauge auf kleiner Fläche nachbildet. Die Forschung war unter dem Dach des Forschungszentrums SCoPE der Universität Stuttgart angesiedelt und konnte dank neuester 3D-Druck-Technologie der Karlsruher Firma Nanoscribe realisiert werden. Die Stuttgarter Forscher druckten direkt auf einen hochauflösenden CMOS-Chip einen ganzen Satz von Mikro-Objektivlinsen, die verschiedene Brennweiten und Sichtfelder haben. Die kleinste Linse hat eine Brennweite, die einem Weitwinkelobjektiv entspricht, dann folgen zwei Linsen mit eher mittlerem Sichtfeld, und die größte Linse hat eine sehr lange Brennweite und ein kleines Sichtfeld wie ein typisches Teleobjektiv. Alle vier Bilder, die die Linsen auf dem Chip erzeugen, werden gleichzeitig elektronisch ausgelesen und verarbeitet. Dabei setzt ein kleines Computerprogramm das Bild so zusammen, dass im Zentrum das hochauflösende Bild des Teleobjektivs dargestellt wird und ganz außen das Bild des Weitwinkelobjektivs. Da das gesamte Sensorsystem nur wenige Quadratmillimeter groß ist – die Linsen haben Durchmesser im Bereich von hundert bis wenigen hundert Mikrometern –, könnten neben der Automobilindustrie zum Beispiel auch neuartige Minidrohnen von der Technologie profitieren.