Die neue Architektur der Datenverarbeitung

Neue Prozessortechnologien sorgen dafür, dass genug Rechenleistung zur Verfügung steht, um die gewaltigen Datenströme der Zukunft effizient zu verarbeiten.

Das Jahr 1965 – damals wurde der erste kommerzielle Kleincomputer der Welt vorgestellt, der erste Mensch machte einen Weltraumspaziergang und Gordon E. Moore formulierte ein Gesetz, das eine Entwicklung vorhersagte, die die Halbindustrie in den folgenden 55 Jahren bestimmte: Nach Moores Law sollte die Rechenleistung von Chips exponentiell wachsen, die Geschwindigkeit und Leistungsfähigkeit von Computern sich alle zwei Jahre verdoppeln.

Wer war Gordon E. Moore?

Gordon E. Moore
Gordon E. Moore war 1968 Mitbegründer von Intel und diente zunächst als Executive Vice President. Er wurde 1975 Präsident und CEO und hatte dieses Amt bis zur Wahl zum Chairman und CEO im Jahr 1979 inne. Er blieb bis 1987 CEO und wurde 1997 zum Chairman emeritus ernannt.

Dieses Gesetz erfüllte sich tatsächlich – bis heute. Denn inzwischen verlangsamt sich die Steigerung der Leistungsfähigkeit von neuen Chips deutlich – Prognosen gehen davon aus, dass sie sich nur noch alle 20 Jahre verdoppeln wird. Gleichzeitig steigt jedoch das weltweit zu verarbeitende Datenvolumen immer weiter an: Mehr als 59 Zettabytes an Daten werden laut den Marktanalysten von der International Data Corporation (IDC) in 2020 erzeugt, erfasst, kopiert und konsumiert. Bis 2025 wird diese „globale Datensphäre“, die Gesamtmenge an digitalen Daten in der Welt, laut IDC auf ganze 175 Zettabytes steigen.

Mehr Leistung durch Spezialisierung

Die Fähigkeit, diese Datenmenge tatsächlich auch sinnvoll nutzen zu können, hängt jedoch von einer weiteren Steigerung der Prozessorleistungen ab. Ohne neue Technologien kann eine höhere Leistung zum Beispiel in Rechenzentren nur durch immer mehr Prozessoren erreicht werden. Eine Alternative sind spezialisierte Hardware-Lösungen, die nicht wie die üblichen CPUs (Central Processing Unit) Generalisten sind, sondern speziell für bestimmte Anwendungen entwickelt, beziehungsweise programmiert sind. Aufgrund der mit ihnen möglichen Beschleunigung der Rechenprozesse werden sie auch Hardware-Beschleuniger genannt. Im Grunde genommen ist dieser Ansatz nicht neu, Grafikprozessoren (graphics processing unit, kurz GPU) oder Soundkarten sind nichts anderes als solche dedizierten Prozessoren für spezielle Aufgaben. „Spezialisierte Prozessoren verändern das Gesicht der Datenverarbeitung und lassen den innovativen Geist des Moore’schen Gesetzes weiterleben“, so David Nagle, Mitglied des Beirats von Pliops. „Ihre Anwendung erfordert zwar ein Umdenken und eine Änderung der Infrastruktur, aber die damit verbundenen Vorteile bieten einen Wert, der weit über das hinausgeht, was herkömmliche Prozessoren heute leisten können, und ermöglichen eine Skalierung für das nächste Jahrzehnt und darüber hinaus.“

Dabei kommen aktuell ganz verschiedene Lösungen für die Hochleistungsverarbeitung von Daten zum Einsatz: Zum einen werden Grafikprozessoren heute zunehmend auch eingesetzt, um große Datenmengen schnell zu verarbeiten. Sie verfügen über mehrere 1.000 bis 10.000 Ausführungseinheiten und können damit viele Rechenschritte parallel durchführen – während herkömmliche Server-CPUs höchstens mehrere Dutzend Kerne umfassen. Allerdings sind GPUs recht teuer und verbrauchen viel Strom.

Eine Alternative können ASICs sein: Diese Application Specific Integrated Circuits sind benutzerdefinierte Schaltkreise, die ganz speziell für eine bestimmte Aufgabe entwickelt wurden. Sie können damit eine maximale Effizienz erzielen, sind allerdings teuer in der Entwicklung und bieten keine Flexibilität, da sie sich nicht neu konfiguriert lassen, wenn sich die Anforderungen ändern.

Flexibel und sparsam

Daher kommen heute zunehmend FPGAs zum Einsatz: Diese Field Programmable Gate Arrays vereinen die Flexibilität und Programmierbarkeit von Software, die auf einem Allzweck-Prozessor ausgeführt wird, mit der Geschwindigkeit und Energieeffizienz eines ASIC. „FPGAs werden zum Beispiel in der ersten Produktcharge neuer Geräte verbaut, weil man sie im Gegensatz zu einem Spezialchip, dessen teure Entwicklung sich nur bei sehr großen Stückzahlen lohnt, nachträglich noch verändern kann“, sagt Dennis Gnad vom Institut für Technische Informatik (ITEC) des KIT. Man könne sich das etwa so vorstellen, als baue man eine Skulptur aus wiederverwendbaren Legosteinen, statt aus abbindender Modelliermasse, erklärt der Informatiker.

Dabei sind FPGAs integrierte Schaltkreise, in die nach der Herstellung eine logische Schaltung geladen werden kann. Im Unterschied zu Prozessoren verarbeiten FPGAs mit ihren mehreren, programmierbaren Basisblöcken Daten parallel. FPGAs bieten die Möglichkeit, Systeme zu entwickeln, die exakt auf die vorgesehene Aufgabe zugeschnitten sind und dadurch absolut effizient arbeiten – im Gegenteil zu Standardprozessoren, die einen möglichst großen Nutzerkreis ansprechen und somit einen Kompromiss aus Leistung und Kompatibilität darstellen. So ermöglicht zum Beispiel ein spezieller, auf FPGA basierender Speicherprozessor für Cloud-Datenbanken von Pliops einen bis zu 100-mal schnelleren Datenzugriff – bei nur einem Bruchteil der Rechenlast und des Stromverbrauchs.

Durch dedizierte Hardware-Blöcke, die zur Beschleunigung von ganz bestimmten Aufgaben konzipiert sind – zum Beispiel Funktionen der Künstlichen Intelligenz, Speicher- oder Kommunikationsaufgaben – können die erforderlichen spezifischen Rechenprozesse nicht nur erheblich schneller, sondern auch deutlich effizienter erledigt werden.

Der 55. Jahrestag des Moore´schen Gesetzes markiert also nur das Ende einer ersten Phase der Halbleiterentwicklung. Zwar verlangsamt sich die Steigerung der Verarbeitungsgeschwindigkeit von Prozessoren, doch sorgen neue Halbleiter-Architekturen für weiterhin für mehr Leistung in smarten Geräten wie auch in Rechenzentren.