Künstliche Intelligenz – der lernende Roboter

Mit künstlicher Intelligenz sollen ­Roboter Aufgaben selbstständig lösen und sich in unbekannten Umgebungen ­zurechtfinden. Immer bessere Algorithmen und extrem leistungsfähige Mikro­prozessoren sorgen dafür, dass Maschinen immer schneller lernen können.

Der Begriff Künstliche Intelligenz (KI) existiert bereits seit mehr als 60 Jahren. Seitdem wird an Systemen und Methoden geforscht, mit denen die Mechanismen des intelligenten menschlichen Verhaltens simuliert werden können. Was sich zunächst einfach anhört, stellte die Wissenschaft bislang jedoch vor große Herausforderungen. Denn viele Aufgaben, die die meisten Menschen mit Intelligenz nicht einmal assoziieren würden, bereiteten Computern schwere Probleme: das Verständnis der menschlichen Sprache, die Fähigkeit, Objekte in Bildern zu erkennen oder ein Roboterfahrzeug durch unbekanntes Gelände zu manövrieren. In jüngster Zeit hat die Künstliche Intelligenz jedoch gewaltige Fortschritte gemacht und wird zunehmend zu einem Wirtschaftsmotor. Alle großen Technologieunternehmen, alle wichtigen Akteure im Silicon Valley, verfügen über KI-Abteilungen. „Fortschritte in Künstlicher Intelligenz werden es Robotern erlauben, zu beobachten, zu lernen und ihre Fähigkeiten zu verbessern“, so Kiyonori Inaba, Vorstandsmitglied und Hauptgeschäftsführer beim Roboterhersteller Fanuc.

Künstliche Intelligenz: Das menschliche Gehirn simulieren

Besonders Erkenntnisse der Hirnforschung haben die Entwicklung künstlicher Intelligenz ermöglicht. Wie beim menschlichen Gehirn wird über Software-Algorithmen und Mikroelektronik ein neuronales Netz geschaffen. Je nachdem, welche Informationen es aufnimmt und wie diese bewertet werden, bildet sich eine ganz spezifische „Informationsarchitektur“ heraus, das „Gedächtnis“. Das neuronale Netz ist permanenter Änderung unterworfen, indem es durch neue Informationen erweitert oder umgebaut wird. Die technologischen Grundlagen für die modernen neuro­nalen Netze wurden in den 1980er Jahren gelegt, doch erst heute ermöglichen leistungsfähige Computer die Simulation von Netzwerken mit vielen „verborgenen Schichten“.

Durch lernen immer besser werden

Deep Learning“ ist heute der Begriff, der für diese Informationsarchitektur genutzt wird. Dahinter stecken Software-Systeme, deren Programmierung sich selbst durch Experimentieren verändert, bei dem jenes Verhalten schließlich „gewinnt“, das am verlässlichsten zu einem gewünschten Ergebnis führt. Viele bekannte Anwendungen wie die Spracherkennungslösungen Siri oder Cortana basieren letztlich auf Deep-Learning-Software. Auch Watson, das Computersystem von IBM, nutzt Deep-Learning-Technologien, um die natürliche menschliche Sprache zu verstehen, deren Wörter und Kontext zu analysieren, diese Informationen schnell zu verarbeiten und so präzise Antworten auf Fragen in natürlicher Sprache auszugeben. Damit nähert sich dieses Computersystem den kognitiven Fähigkeiten des Menschen und birgt damit enormes Potenzial für zukünftige Anwendungen in Wirtschaft und Gesellschaft. „Deep Learning wird das zeitaufwändige Programmieren von Roboterverhalten deutlich reduzieren“, so Fanuc-Manager Kiyonori Inaba. Sein Unternehmen hat Künstliche Intelligenz in sein „Intelligent Edge Link and Drive“ integriert, Fanucs Plattform für das Fog Computing, auch Edge Computing genannt. Mit der integrierten KI können sich die darüber verbundenen Roboter gegenseitig „unterrichten“, um ihre Aufgaben schneller und effizienter zu erledigen: Wo ein Roboter sonst acht Stunden brauchte, um das notwendige „Wissen“ zu erlernen, benötigen acht Roboter nur eine Stunde.

Neue Algorithmen für schnelleren Lernerfolg

Immer weiter verbesserte Algorithmen steigern die Lernfähigkeit immer weiter. So hat die Mitsubishi Electric Corporation vor kurzem einen Schnelltraining-Algorithmus für Deep Learning präsentiert, der sogenannte Inferenzfunktionen beinhaltet, die zur Identifikation, Erkennung und Vorhersage unbekannter Fakten aufgrund von bekannten Fakten erforderlich sind. Der neue Algorithmus soll die Implementierung von Deep Learning in Fahrzeugen, Industrierobotern und anderen Maschinen vereinfachen, indem der Speicherverbrauch und die Rechenzeit für das Training drastisch reduziert werden. Der Algorithmus verringert Trainingszeit, Rechenkosten und Speicheranforderungen auf ungefähr ein Dreißigstel der Werte herkömmlicher KI-Systeme.

Spezielle Chips für Deep Learning

Um die für die Realisierung eines Deep-Learning-Systems erforderliche extrem hohe Rechenleistung zu erhalten, wird heute zumeist auf das sogenannte GPU-Computing zurückgegriffen. Dabei werden die Rechenleistung eines Grafikprozessors (GPU) und der CPU kombiniert. CPUs sind speziell auf serielle Verarbeitung ausgelegt. Grafikprozessoren verfügen dagegen über Tausende kleinerer effizienterer Recheneinheiten für die parallele Datenverarbeitung. Beim GPU-Computing können serielle Code-Teile daher auf der CPU laufen, während parallele Teile – wie das Trainieren von tiefen neuronalen Netzen – auf dem Grafikprozessor verarbeitet werden. Das Ergebnis sind dramatische Leistungssteigerungen. Doch die Entwicklung der Deep-Learning-Prozessoren ist längst noch nicht am Ende: So überbietet der Prozessor „Eyriss“, der am Massachusetts Institute of Technology (MIT) entwickelt wurde, die Leistungsfähigkeit von Grafikprozessoren um den Faktor Zehn. Während sich viele Kerne in einem GPU eine einzelne große Speicherbank teilen, hat bei Eyriss jeder Kern seinen eigenen Speicher. Jeder Kern ist in der Lage, mit seinem unmittelbaren Nachbarn zu kommunizieren. So müssen Daten also nicht immer durch den Hauptspeicher geführt werden, das System wird deutlich schneller. ­Vivienne Sze, eine der Forscherinnen am Projekt „Eyriss“: „Deep Learning ist für viele Anwendungen nützlich, wie zum Beispiel für die Objekterkennung, Sprache oder Gesichtserkennung.“

Related Posts

  • Auch autonome Roboter müssen in ein übergeordnetes Steuerungssystem eingebunden werden, gleich ob in der Produktion oder im ServiceBereich. Das erfordert zuverlässige, schnelle…

  • Mit den drei Robotergesetzen hat Isaac Asimov im Jahr 1942 Regeln für das Zusammenleben von Mensch und Roboter definiert, die heute aktueller…

  • Mit einem intelligenten Handschuh setzt das Start-up Workaround am meistgenutzten Werkzeug in der Industrie an: der Hand. So soll die Handarbeit schneller,…