Mit künstlicher Intelligenz sollen Roboter Aufgaben selbstständig lösen und sich in unbekannten Umgebungen zurechtfinden. Immer bessere Algorithmen und extrem leistungsfähige Mikroprozessoren sorgen dafür, dass Maschinen immer schneller lernen können.
Der Begriff Künstliche Intelligenz (KI) existiert bereits seit mehr als 60 Jahren. Seitdem wird an Systemen und Methoden geforscht, mit denen die Mechanismen des intelligenten menschlichen Verhaltens simuliert werden können. Was sich zunächst einfach anhört, stellte die Wissenschaft bislang jedoch vor große Herausforderungen. Denn viele Aufgaben, die die meisten Menschen mit Intelligenz nicht einmal assoziieren würden, bereiteten Computern schwere Probleme: das Verständnis der menschlichen Sprache, die Fähigkeit, Objekte in Bildern zu erkennen oder ein Roboterfahrzeug durch unbekanntes Gelände zu manövrieren. In jüngster Zeit hat die Künstliche Intelligenz jedoch gewaltige Fortschritte gemacht und wird zunehmend zu einem Wirtschaftsmotor. Alle großen Technologieunternehmen, alle wichtigen Akteure im Silicon Valley, verfügen über KI-Abteilungen. „Fortschritte in Künstlicher Intelligenz werden es Robotern erlauben, zu beobachten, zu lernen und ihre Fähigkeiten zu verbessern“, so Kiyonori Inaba, Vorstandsmitglied und Hauptgeschäftsführer beim Roboterhersteller Fanuc.
Künstliche Intelligenz: Das menschliche Gehirn simulieren
Besonders Erkenntnisse der Hirnforschung haben die Entwicklung künstlicher Intelligenz ermöglicht. Wie beim menschlichen Gehirn wird über Software-Algorithmen und Mikroelektronik ein neuronales Netz geschaffen. Je nachdem, welche Informationen es aufnimmt und wie diese bewertet werden, bildet sich eine ganz spezifische „Informationsarchitektur“ heraus, das „Gedächtnis“. Das neuronale Netz ist permanenter Änderung unterworfen, indem es durch neue Informationen erweitert oder umgebaut wird. Die technologischen Grundlagen für die modernen neuronalen Netze wurden in den 1980er Jahren gelegt, doch erst heute ermöglichen leistungsfähige Computer die Simulation von Netzwerken mit vielen „verborgenen Schichten“.
Durch lernen immer besser werden
„Deep Learning“ ist heute der Begriff, der für diese Informationsarchitektur genutzt wird. Dahinter stecken Software-Systeme, deren Programmierung sich selbst durch Experimentieren verändert, bei dem jenes Verhalten schließlich „gewinnt“, das am verlässlichsten zu einem gewünschten Ergebnis führt. Viele bekannte Anwendungen wie die Spracherkennungslösungen Siri oder Cortana basieren letztlich auf Deep-Learning-Software. Auch Watson, das Computersystem von IBM, nutzt Deep-Learning-Technologien, um die natürliche menschliche Sprache zu verstehen, deren Wörter und Kontext zu analysieren, diese Informationen schnell zu verarbeiten und so präzise Antworten auf Fragen in natürlicher Sprache auszugeben. Damit nähert sich dieses Computersystem den kognitiven Fähigkeiten des Menschen und birgt damit enormes Potenzial für zukünftige Anwendungen in Wirtschaft und Gesellschaft. „Deep Learning wird das zeitaufwändige Programmieren von Roboterverhalten deutlich reduzieren“, so Fanuc-Manager Kiyonori Inaba. Sein Unternehmen hat Künstliche Intelligenz in sein „Intelligent Edge Link and Drive“ integriert, Fanucs Plattform für das Fog Computing, auch Edge Computing genannt. Mit der integrierten KI können sich die darüber verbundenen Roboter gegenseitig „unterrichten“, um ihre Aufgaben schneller und effizienter zu erledigen: Wo ein Roboter sonst acht Stunden brauchte, um das notwendige „Wissen“ zu erlernen, benötigen acht Roboter nur eine Stunde.
Neue Algorithmen für schnelleren Lernerfolg
Immer weiter verbesserte Algorithmen steigern die Lernfähigkeit immer weiter. So hat die Mitsubishi Electric Corporation vor kurzem einen Schnelltraining-Algorithmus für Deep Learning präsentiert, der sogenannte Inferenzfunktionen beinhaltet, die zur Identifikation, Erkennung und Vorhersage unbekannter Fakten aufgrund von bekannten Fakten erforderlich sind. Der neue Algorithmus soll die Implementierung von Deep Learning in Fahrzeugen, Industrierobotern und anderen Maschinen vereinfachen, indem der Speicherverbrauch und die Rechenzeit für das Training drastisch reduziert werden. Der Algorithmus verringert Trainingszeit, Rechenkosten und Speicheranforderungen auf ungefähr ein Dreißigstel der Werte herkömmlicher KI-Systeme.
Spezielle Chips für Deep Learning
Um die für die Realisierung eines Deep-Learning-Systems erforderliche extrem hohe Rechenleistung zu erhalten, wird heute zumeist auf das sogenannte GPU-Computing zurückgegriffen. Dabei werden die Rechenleistung eines Grafikprozessors (GPU) und der CPU kombiniert. CPUs sind speziell auf serielle Verarbeitung ausgelegt. Grafikprozessoren verfügen dagegen über Tausende kleinerer effizienterer Recheneinheiten für die parallele Datenverarbeitung. Beim GPU-Computing können serielle Code-Teile daher auf der CPU laufen, während parallele Teile – wie das Trainieren von tiefen neuronalen Netzen – auf dem Grafikprozessor verarbeitet werden. Das Ergebnis sind dramatische Leistungssteigerungen. Doch die Entwicklung der Deep-Learning-Prozessoren ist längst noch nicht am Ende: So überbietet der Prozessor „Eyriss“, der am Massachusetts Institute of Technology (MIT) entwickelt wurde, die Leistungsfähigkeit von Grafikprozessoren um den Faktor Zehn. Während sich viele Kerne in einem GPU eine einzelne große Speicherbank teilen, hat bei Eyriss jeder Kern seinen eigenen Speicher. Jeder Kern ist in der Lage, mit seinem unmittelbaren Nachbarn zu kommunizieren. So müssen Daten also nicht immer durch den Hauptspeicher geführt werden, das System wird deutlich schneller. Vivienne Sze, eine der Forscherinnen am Projekt „Eyriss“: „Deep Learning ist für viele Anwendungen nützlich, wie zum Beispiel für die Objekterkennung, Sprache oder Gesichtserkennung.“