Durch Sensor-Fusion entstehen immer exaktere Abbilder der Umgebung. Um schneller Ergebnisse zu erzielen und die Datenflut zu reduzieren, wandert die Intelligenz auch in die Sensoren selbst.
Systeme mit Künstlicher Intelligenz brauchen Daten. Je mehr Daten, umso besser die Ergebnisse. Diese Daten können entweder aus Datenbanken stammen – oder sie werden mit Hilfe von Sensoren gewonnen: Sensoren messen zum Beispiel Schwingungen, Ströme und Temperaturen an Maschinen und liefern einem KI-System damit Informationen, um fällige Wartungen zu prognostizieren. Andere erfassen – integriert in Wearables – Puls, Blutdruck und vielleicht Blutzuckerwerte beim Menschen, um Rückschlüsse auf den Gesundheitszustand zu ermöglichen.
Viele Impulse hat die Sensorik in den letzten Jahren aus den Bereichen der mobilen Robotik und des autonomen Fahrens erhalten: Damit ein Fahrzeug sich autonom durch eine Umgebung bewegen kann, müssen die Fahrzeuge das Umfeld erkennen und die genaue Position bestimmen können. Dazu werden sie mit den unterschiedlichsten Sensoren ausgestattet: Ultraschallsensoren erfassen Hindernisse in kurzer Distanz, zum Beispiel beim Parken. Radarsensoren messen die Position und Geschwindigkeit von Objekten in größerer Entfernung. Lidar-Sensoren (light detection and ranging) scannen mit unsichtbarem Laser-Licht die Umgebung und liefern ein exaktes 3D-Abbild. Kamera-Systeme erfassen wichtige optische Informationen wie Farbe und Kontur eines Objektes und können über die Laufzeit eines Lichtimpulses sogar die Entfernung messen.
Mehr Informationen sind gefragt
Dabei steht heute nicht mehr nur die Positionsbestimmung eines Objekts im Vordergrund, sondern auch Informationen wie beispielsweise die Orientierung, die Größe oder auch Farbe und Textur werden immer wichtiger. Um das sicher zu bestimmen, müssen mehrere Sensoren zusammenarbeiten: Denn jedes Sensor-System bietet zwar spezifische Vorteile. Doch erst die Kombination der Informationen verschiedener Sensoren – die sogenannte Sensor-Fusion – liefert ein exaktes, vollständiges und verlässliches Bild der Umgebung. Ein einfaches Beispiel hierfür sind Bewegungssensoren, wie sie unter anderem in Smartphones Verwendung finden: Erst aus der Kombination von Beschleunigungsmesser, Magnetfelderkennung und Gyroskop können sie Richtung und Geschwindigkeit einer Bewegung messen.
Auch Sensoren werden intelligent
Doch moderne Sensorsysteme liefern nicht nur Daten für KI, sondern nutzen sie auch: Derartige Sensoren können so eine Vorverarbeitung der Messdaten durchführen und damit die zentrale Recheneinheit entlasten. Zum Beispiel hat das Start-up AEye einen neuartigen Hybrid-Sensor entwickelt, der Kamera, Festkörper-Lidar und Chips mit KI-Algorithmen kombiniert. Es überlagert die 3D-Punktewolke des Lidar mit den 2D-Pixeln der Kamera und liefert so ein 3D-Abbild der Umgebung in Farbe. Anschließend werden durch KI-Algorithmen die relevanten Informationen aus dem Umfeld des Fahrzeugs herausgefiltert und bewertet. Das System ist nicht nur um den Faktor zehn bis 20 exakter und dreimal schneller als einzelne Lidar-Sensoren, sondern es reduziert auch die Datenflut zu zentralen Prozessoreinheiten.
Sensoren liefern dem KI-System vielfältige Informationen über:
- Vibration
- Ströme
- Temperatur
- Position
- Größe
- Farbe
- Textur
- und vieles mehr…