Chips treiben die KI voran

Vom Grafikprozessor (GPU) über neuromorphe Chips bis zum Quantencomputer – die Entwicklung von KI-Chips ermöglicht immer neue Leistungssprünge.

KI-gestützte Anwendungen müssen mit rasant wachsendem Datenvolumen mithalten und häufig gleichzeitig in Echtzeit reagieren. Klassische CPUs, wie man sie in jedem Computer findet, sind da schnell überfordert, denn sie wickeln Aufgaben nacheinander ab. Eine deutlich höhere Leistung gerade beim Deep Learning wäre möglich, wenn die einzelnen Prozesse parallel ausgeführt werden.

Hardware für parallele Rechenprozesse

Damit rückten vor einigen Jahren Chips in den Fokus der KI-Branche, die eigentlich für einen ganz anderen Einsatzzweck entwickelt wurden: Grafikprozessoren (Graphics Processing Units oder GPUs). Sie warten mit einer massiv-parallelen Architektur auf, die mit vielen kleineren, aber effizient arbeitenden Computer-Einheiten Rechenaufgaben stark parallelisiert abwickeln können. Also genau das, was das Deep Learning benötigt. Inzwischen bauen die Hersteller von Grafikprozessoren spezielle GPUs für KI-Anwendungen. Ein Server mit einer einzelnen dieser Hochleistungs-GPUs kann über 40-mal mehr Durchsatz als ein reiner CPU-Server bewältigen.

Inzwischen sind aber selbst GPUs für einige KI-Unternehmen zu langsam. Das hat nicht zu unterschätzende Auswirkungen auf den Halbleiter-Markt: Denn neben den klassischen Halbleiter-Herstellern werden zunehmend aus Käufern bzw. Nutzern von Halbleitern – wie Microsoft, Amazon oder eben Google – Hersteller (oder Firmen, die Chips nach eigenen Vorstellungen für sich herstellen lassen). So hat zum Beispiel Alphabet, der Mutterkonzern hinter Google, einen eigenen Application Specific Integrated Circuit (ASIC) entwickelt, der speziell auf das Machine Learning zugeschnitten ist. Die zweite Generation dieser Tensor Processing Unit (TPU) von Alphabet bietet eine Leistung von 180 Teraflops, während Nvidias aktuellste GPU bei 120 Teraflops liegt. Flops (Floating Point Operations Per Second) geben an, wie viele einfache mathematische Berechnungen wie Addition oder Multiplikation ein Rechner pro Sekunde durchführen kann.

Unterschiedliche Anforderungen an die Leistung

Doch Flops sind nicht der einzige Maßstab für die Leistungsfähigkeit eines Chips. So wird bei KI-Prozessoren unterschieden zwischen der Leistung in der Trainings-Phase, wo besonders parallele Rechenprozesse gefragt sind, und der Leistung in der Applikations-Phase, in der das Gelernte angewendet wird – der sogenannten Inferenz. Hier liegt der Fokus darauf, durch Schlussfolgerung neue Fakten aus einer bestehenden Datenbasis abzuleiten. „Im Gegensatz zur KI-Komponente des massiven parallelen Trainings, die in Rechenzentren gefragt ist, ist Inferenz grundsätzlich eine sequentielle Kalkulation, die, wie wir glauben, zumeist auf Edge Geräten wie Smartphones oder dem Internet der Dinge ausgeführt werden wird“, meint Abhinav Davuluri, Analyst bei Morningstar, einem führenden Anbieter von unabhängigem Investment-Research. Edge Computing bezeichnet im Gegensatz zum Cloud Computing die dezentrale Datenverarbeitung am „Rand“ des Netzwerks. Dabei spielen KI-Techniken eine immer größere Rolle, denn lernfähige Edge Devices wie Roboter oder autonome Fahrzeuge müssen die Daten zur Analyse nicht erst in die Cloud übertragen. Vielmehr können sie die Daten direkt vor Ort übernehmen – sie sparen sich die Zeit und Energie, die für die Datenübertragung zum Rechenzentrum und zurück erforderlich ist.

Lösungen für das Edge Computing

Gerade für derartige Edge-Computing-Anwendungen etabliert sich aktuell neben CPUs, GPUs und ASICs eine weitere Chip-Variante – die sogenannten Field Programmable Gate Arrays (FPGA). Hierbei handelt es sich um integrierte Schaltkreise, in die nach der Herstellung eine logische Schaltung geladen werden kann. Im Unterschied zu Prozessoren bieten FPGAs mit ihren mehreren programmierbaren Basisblöcken echte Parallelität, so dass verschiedene Verarbeitungsoperationen nicht auf die gleiche Ressource angewiesen sind. Jeder einzelne Verarbeitungs-Task wird einem dedizierten Bereich auf dem Chip zugewiesen und kann so autonom ausgeführt werden. Sie erreichen im Trainingsprozess zwar nicht ganz die Leistung einer GPU, stehen aber im Inferenz-Ranking über Grafikprozessoren. Vor allem aber verbrauchen sie weniger Energie als GPUs – das ist bei Anwendungen auf kleinen mobilen Geräten besonders wichtig. Tests haben gezeigt, dass FPGAs zum Beispiel mehr Bilder pro Sekunde und Watt erkennen können als GPUs oder CPUs. „Wir denken FPGAs sind in punkto Inferenz am vielversprechendsten, da sie ein Upgrade erhalten können, während sie im Feld sind und niedrige Latenz bieten, wenn sie im Edge Device neben einer CPU platziert werden“, so Morning-Star Analyst Davuluri.

Immer mehr Start-ups entwickeln KI-Chips

Immer mehr Unternehmensgründer – und Kapitalgeber – erkennen die Chancen, die in KI-Chips stecken: Mindestens 45 Start-ups arbeiten heute an entsprechenden Halbleiter-Lösungen, wenigstens fünf von ihnen haben jeweils mehr als 100 Millionen US-Dollar von Investoren erhalten. Insgesamt investierten Risikokapitalgeber laut den Marktforschern von CB Insights mehr als 1,5 Milliarden US-Dollar in Chip-Start-ups in 2017 – das ist doppelt so viel wie noch vor zwei Jahren. So hat die britische Firma Graphcore mit ihrer Intelligence Processing Unit (IPU) eine neue Technologie zur Beschleunigung von Anwendungen von Machine Learning und Künstlicher Intelligenz entwickelt. Die KI-Plattform der US-Firma Mythics-AI führt hybride Digital/Analog-Berechnungen in Flash-Arrays durch. Die Inferenz-Phase kann dadurch direkt innerhalb der Speicher ausgeführt werden, in denen das Wissen des neuronalen Netzes abgelegt ist – mit entsprechenden Vorteilen bei Leistung und Genauigkeit. China ist eines der aktivsten Länder bei KI-Chip-Start-ups. Alleine der Wert von Cambricon Technologies wird auf mittlerweile 1 Milliarde US-Dollar geschätzt. Das Start-up hat einen Neuronalen-Netz-Prozessorchip unter anderem für Smartphones entwickelt.

Neue Chip-Architekturen für noch mehr Leistung

Der neueste Technologie-Trend bei KI-Halbleitern sind neuromorphe Chips. Deren Architektur ahmt die grundlegende Funktionsweise des menschlichen Gehirns beim Lernen und Verstehen nach. Ein wesentliches Merkmal ist die Aufhebung der Trennung zwischen Recheneinheit und Datenspeicher. Erste in 2017 vorgestellte neuromorphe Test-Chips können mit über 100.000 Neuronen und mehr als 100 Millionen Synapsen Training und Interferenz auf einem Chip vereinen. Sie sollen selbstständig im Einsatz lernen können, wobei die Lernrate um den Faktor eine Million über der von neuronalen Netzen der dritten Generation liegt. Gleichzeitig sind sie dabei besonders energieeffizient. Im wahrsten Sinne ein Quantensprung für KI-Systeme sind Quantencomputer: Nicht nur die großen Player der IT-Branche wie Google, IBM oder Microsoft, sondern auch Staaten, Geheimdienste, selbst Autohersteller investieren in die Entwicklung dieser Technologie. Diese Computer basieren auf den Lehren der Quantenmechanik. So kann ein Quantencomputer jeden Rechenschritt mit sämtlichen Zuständen zur gleichen Zeit durchführen. Das heißt, er liefert eine besonders hohe Leistung für die parallele Verarbeitung von Befehlen und besitzt das Potenzial, mit einer weitaus höheren Geschwindigkeit zu rechnen als herkömmliche Computer. Auch wenn die Technik noch in den Kinderschuhen steckt – das Rennen um immer bessere und zuverlässigere Quanten-Prozessoren hat längst begonnen.

Related Posts

  • Mustererkennung, also das Auffinden von Regeln oder Mustern in Big Data, Bildern, Geräuschen und vielem mehr ist eine der großen Stärken Künstlicher Intelligenz.…

  • Die Teilnehmer unseres Expertengesprächs sehen vor allem einen großen Bedarf, die Menschen über ­Nutzen und Möglichkeiten Künstlicher Intelligenz aufzuklären. Auch wenn Themen wie Ethik…

  • Mit verschiedenen Ansätzen der Datenauswertung sollen Maschinen intelligent werden. Im ­Fokus steht dabei nicht nur die Leistungsfähigkeit, ­sondern immer mehr auch eine…