ACAPs sind hochintegrierte, heterogene Multi-Core-Rechenplattformen, die die Möglichkeiten von FPGAs deutlich erweitern und effizienter als andere arbeiten. Sie sind die nächste Generation noch leistungsstärkerer Plattformen die bereits auf den Markt drängt. Mikroprozessoren sind mittlerweile sehr leistungsfähig und preiswert. Nahezu jedes Gerät kann mit ihnen ausrüsten werden. Die konstante Weiterentwicklung ermöglicht es heute sogar, Edge Geräte mit Künstlicher Intelligenz auszustatten.
Embedded Systeme und Edge Computing sind nur aus einem Grund realisierbar. Und zwar weil heutzutage Mikroprozessoren mit immer mehr Rechenleistung zu immer geringeren Kosten zur Verfügung stehen.
Seit über 50 Jahren gilt bereits das Mooresche Gesetz. Es besagt, dass sich alle 12 bis 24 Monate die Leistungsfähigkeit von Computer- und Speicherchips verdoppelt. Ende der 1960er kamen die ersten 4-Bit-Prozessoren auf den Markt. Diese hatten 2.250 Transistoren „on board“ und eine Taktfrequenz von 740 Kilohertz. Das heißt, sie konnten 60.000 4-Bit-Instruktionen pro Sekunde verarbeiten. Seitdem kamen im regelmäßigen Rhythmus Prozessoren auf den Markt, die die Zahl der verarbeiteten Informationen in der gleichen Takt-Periode verdoppelt. Erst 8 Bit, dann 16 Bit und anschließend 32 Bit.
Mit Beginn des aktuellen Jahrtausends stand die 64-Bit-Architektur auch für Computer zur Verfügung. Deren aktuell leistungsstärkste Prozessoren verfügen über rund 20 Milliarden (!) Transistoren und Taktfrequenzen von mehr als 4,5 Gigahertz. Diese Entwicklung ging einher mit einer drastischen Reduktion der Kosten. Während 1961 – inflationsbereinigt – noch 145,5 Milliarden US-Dollar pro GFlop gezahlt wurden, liegen die Kosten heute nur noch bei wenigen Cent. Ein GFlop entspricht einer Milliarde Rechenoperationen pro Sekunde.
Das bedeutet, dass sich heute problemlos auch billige Massenprodukte mit Chips ausrüsten lassen. Somit steht genug günstige Rechenpower für das Edge Computing zur Verfügung.
Weniger Energieverbrauch bei immer mehr Leistung
Allerdings geht es beim Edge Computing nicht nur um die Leistung der Chips, sondern auch um Energieeffizienz. Denn viele der smarten Geräte sind batteriebetrieben. Benutzerdefinierte Schaltkreise, sogenannte ASICs (Application Specific Integrated Circuits), bieten die höchste Effizienz. Jedoch ist bei einer Änderung der Anforderungen eine Neukonfiguration nicht möglich.
Daher ersetzen zunehmend sogenannte FPGAs die Allzweck-Prozessoren beim Edge Computing. Bei diesen Field Programmable Gate Arrays handelt es sich um integrierte Schaltkreise. Damit kann nach der Herstellung eine logische Schaltung geladen werden. Im Unterschied zu Prozessoren verarbeiten FPGAs mit ihren programmierbaren Basisblöcken Daten parallel. Jeder einzelne Verarbeitungstask wird dabei einem dedizierten Bereich auf dem Chip zugewiesen und autonom ausgeführt. Dabei verbrauchen sie deutlich weniger Energie als CPUs. Dadurch vereinen FPGAs die Flexibilität und Programmierbarkeit von Software, die auf einem Allzweck-Prozessor läuft. Und das, mit der Geschwindigkeit und Energieeffizienz eines ASIC.
Die Eigenschaft, viele Aufgaben parallel abzuarbeiten, prädestinieren FPGAs zudem für KI-Anwendungen. Sprachsteuerung, Bildverarbeitung oder Augmented Reality sind nur einige Beispiele für KI-Anwendungen. Sie alle erfordern eine hohe Rechenleistung und einen geringen Stromverbrauch. Vor allem aber eine geringe Latenzzeit, um das Erlebnis reaktionsschnell und natürlich zu gestalten.
Daher geht der Trend dahin, immer mehr KI-Anwendungen aus der Cloud in das Edge Computing zu verlagern. Grafikprozessoren, finden sich aufgrund ihrer Fähigkeit der parallelen Datenverarbeitung häufig in Rechenzentren wieder. Diese benötigen für Edge Anwendungen jedoch zu viel Energie. Die Analysten von McKinsey erwarten, dass der Markt für KI-Hardware in Edge Anwendungen von rund 100 Millionen US-Dollar in 2017 auf 5,5 Milliarden US-Dollar in 2025 steigen wird. Dabei bekommen die großen Chip-Hersteller, die im Cloud-Bereich den Markt dominieren, zunehmend Konkurrenz von anderen etablierten Unternehmen.
ACAPs als Weiterentwicklung der FPGAs
Als Weiterentwicklung der FPGAs zeichnen sich zudem sogenannte ACAPs ab. Diese „Adaptive Compute Acceleration Platformen“ sind hochintegrierte, heterogene Multi-Core-Rechenplattformen. Sie erweitern deutlich die Möglichkeiten von FPGAs und arbeiten im Vergleich zu CPU- und GPU-basierten Plattformen deutlich schneller und energieeffizienter. ACAPs lassen sich auf der Hardwareebene modifizieren und sich an ein breites Spektrum von Applikationen und Rechenlasten anpassen. Auch dynamisch während des Betriebes.
Bei FPGAs kann nur eine einzige logische Schaltung geladen werden. Dahingegen eignet sich eine ACAP zur Beschleunigung einer breiten Palette von Anwendungen, auch aus dem KI-Bereich.
Xilinx stellte die ersten ACAP-Chips her, die erstmals im Sommer 2019 ausgeliefert wurden. Sie basieren auf der 7-Nanometer-Prozesstechnologie und verfügen über 50 Milliarden Transistoren.