Durch die gemeinsame Entwicklung von Chip-Design und Software konnten Forscher neue Chips realisieren. Sie sind nicht nur ungewöhnlich klein und energieeffizient, sondern verfügen sogar über leistungsfähige KI-Fähigkeiten bis hin zum Training. Eingesetzt werden können sie zum Beispiel in Nano-Drohnen, die so selbstständig durch den Raum navigieren können.
Mit bloßem Auge ist der Chip nicht von denen zu unterscheiden, die man in jedem elektronischen Gerät findet. Doch die vom Massachusetts Institute of Technology (MIT) entwickelten Chips namens Eyeriss und Navion haben es in sich. Sie könnten der Schlüssel zur Zukunft der Künstlichen Intelligenz sein. Denn mit ihnen lassen sich selbst kleinste IoT-Geräte mit leistungsfähigen intelligenten Fähigkeiten ausstatten. So wie sie bisher nur von riesigen Rechenzentren zur Verfügung gestellt werden können.
Energieeffizienz ist entscheidend
Wie Vivienne Sze, Professorin am MIT Department of Electrical Engineering and Computer Science (EECS) und Mitglied im Entwicklerteam, betont, bestehe die wirkliche Chance dieser Chips nicht in besonders leistungsfähigen Deep-Learning-Fähigkeiten. Sondern vielmehr in deren Energieeffizienz. Die Chips müssen die rechenintensiven Algorithmen beherrschen und dabei allein mit der auf IoT-Geräten selbst verfügbaren Energie auskommen. Nur so kann die KI in der „Edge“ breiten Einsatz finden. Der Eyeriss-Chip schafft eine Leistung, die 10 oder sogar 1.000 Mal effizienter ist als die aktuelle Hardware.
Symbiose aus Software und Hardware
Im Labor von Professorin Sze wird auch erforscht, wie Software gestaltet werden muss, um die Leistung von Computerchips bestmöglich auszunutzen. Dazu wurde am MIT ein Low-Power-Chip namens Navion entwickelt. Mit ihm kann zum Beispiel eine winzige Drohne anhand von 3D-Karten mit bisher unerreichter Effizienz navigieren. Eine solche Nanodrohne ist nicht größer als eine Biene.
Entscheidend dafür war die gemeinsame Entwicklung von KI-Software und Hardware. So gelang es, mit dem Navion einen Chip zu bauen, der nur 20 Quadratmillimeter groß ist. Etwa so groß wie der Fußabdruck einer LEGO-Minifigur und nur 24 Milliwatt Leistung benötigt. Das ist etwa ein Tausendstel der Energie, die eine Glühbirne verbraucht. Mit dieser winzigen Energiemenge kann der Chip in Echtzeit Kamerabilder mit bis zu 171 Bildern pro Sekunde sowie Trägheitsmessungen verarbeiten. Daraus errechnet er seine Position im Raum. Die Forscher stellen sich vor, den Chip in Nanodrohnen zu integrieren, die gerade mal so groß sind wie ein Fingernagel. Denkbar wäre auch ein Einsatz des Chips in einer kleinen Pille. Diese müsste einmal geschluckt werden und kann dann Daten im Inneren des menschlichen Körpers sammeln und auswerten.
Diese Effizienz erreicht der Chip durch verschiedene Maßnahmen. Zum einen minimiert er die Datenmenge in Form von Kamerabildern und Trägheitsmessungen. Diese sind zu einem bestimmten Zeitpunkt auf dem Chip gespeichert. Auch konnte das Entwicklerteam den Engpass zwischen dem Speicherort der Daten und dem Ort ihrer Analyse physisch reduzieren. Somit konnten sie clevere Schemata für die Wiederverwendung von Daten realisieren. Optimiert wurde auch, wie diese Daten über den Chip fließen. Zudem werden bestimmte Rechenschritte übersprungen, wie zum Beispiel die Berechnung von Nullen, die zu einer Null führen.
Basis für selbstlernende Kleinstelektroniken
Auch an anderen Forschungseinrichtungen wird intensiv daran geforscht, wie sich KI besser in Edge Geräte integrieren lässt. So hat ein Forscherteam am Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme IMS eine Künstliche Intelligenz für Mikrocontroller und Sensoren entwickelt. Diese umfasst ein voll konfigurierbares künstliches neuronales Netz.
Bei der AIfES genannten Lösung handelt es sich um eine plattformunabhängige Machine-Learning-Bibliothek. Mit dieser lassen sich selbstlernende Kleinstelektroniken realisieren, die keine Anbindung an eine Cloud oder leistungsfähige Computer erfordern. Die Bibliothek umfasst ein voll konfigurierbares künstliches neuronales Netz, das bei Bedarf auch tiefe Netze für das Deep Learning erzeugen kann. Der Quellcode wurde auf ein Minimum reduziert, so lässt sich die KI sogar direkt auf dem Mikrocontroller trainieren. Jedoch ist diese Trainingsphase bisher nur in Rechenzentren möglich. AIfES fokussiert sich nicht auf die Verarbeitung großer Datenmengen. Vielmehr erfolgt nur eine Übertragung der erforderlichen Daten, um sehr kleine neuronale Netze aufzubauen.
Was ist AlfES?
Das Forscherteam realisierte bereits mehrere Demonstratoren. So zum Beispiel eine Erkennung von handgeschriebenen Ziffern auf einem günstigen 8-bit Mikrocontroller. Ein weiterer Demonstrator kann komplexe Gesten erkennen, die in die Luft geschrieben werden. Die Wissenschaftler des IMS haben hierfür ein System, bestehend aus einem Mikrocontroller und einem absoluten Orientierungssensor entwickelt. Das System erkennt in die Luft geschriebene Zahlen. Hierzu mussten anfangs verschiedene Personen mehrfach die Ziffern von null bis neun schreiben. Das neuronale Netz erfasst diese Schreibmuster, lernt sie und identifiziert sie im nächsten Schritt selbstständig.
Die Arbeiten an den Forschungsinstituten geben einen Ausblick, wie sich KI-Software und Hardware in Zukunft in einer Symbiose gemeinsam entwickeln werden. Somit auch komplexe KI-Funktionen in IoT- und Edge-Geräten ermöglicht werden können.