So sinkt der Energieverbrauch der Digitalisierung

Prozessoren und Leistungselektronik tragen in vielen Branchen und Anwendungen dazu bei, ­weniger Energie zu verbrauchen. Gleichzeitig benötigen Halbleiterprodukte aber für ihren Betrieb selbst Energie. Mit zunehmender Digita­lisierung wird daher die Energieeffizienz der Mikrochips ­immer wichtiger. 

Digitalisierte Technologien sind ein wichtiger Baustein zur Einsparung von Ressourcen und zur Steigerung der Energieeffizienz in den unterschiedlichsten Anwendungen. Auf der anderen Seite verbrauchen Prozessoren, Leistungselektronik oder Datenspeicher aber auch Energie. Es gibt zwar keine eindeutigen Zahlen, wie hoch der Energiebedarf tatsächlich ist, doch pessimistische Schätzungen gehen davon aus, dass in 10 oder 20 Jahren die Informationstechnik bis zu 50 Prozent des weltweiten Stromverbrauchs verursachen wird.

Daher arbeitet die Halbleiterindustrie daran, die Energieeffizienz ihrer Produkte weiter zu erhöhen: Chiphersteller entwickeln immer energieeffizientere Chipsätze (Central Processing Unit, CPU) und die Multi-Core-Technologie oder der Einsatz von Grafikprozessoren (Graphics Processing Unit, GPU) ermöglichen die Verarbeitung höherer Lasten mit weniger Strom. Die meisten CPUs verfügen zudem über Power-Management-Funktionen, die den Stromverbrauch optimieren, indem sie je nach Auslastung dynamisch ­zwischen verschiedenen Leistungszuständen hin und her schalten. So ist bei Low-Power-Chips zum Beispiel der Stromverbrauch im Standby-Modus um einen Millionen-Faktor geringer als im aktiven Zustand, also wenn der Chip Daten verarbeitet.

Neue Chip-Architekturen

Aber auch durch die Änderung der grundlegenden ­Architektur eines Mikrochips kann dessen Energieverbrauch deutlich reduziert werden. So hat IBM zum ­Beispiel den Prototyp eines Chips vorgestellt, dessen ­Design es ­ermöglicht, die Transistoren vertikal zu stapeln. So lassen sich nicht nur mehr Transistoren auf einem Chip unterbringen, sondern es wird auch ein größerer elektrischer Stromfluss von „oben nach unten“ ermöglicht. Das ­reduziert den Energieverlust – bis zu 85 Prozent weniger Energie soll der neue Chip so ­verbrauchen. 

Ein anderer Ansatz ist das sogenannte ­Neuromorphic Computing. Diese Technologie zielt insbesondere darauf ab, die gigantischen Datenmengen von Big-Data-­Anwendungen und Künstlicher Intelligenz zu ­bewältigen. Dabei ist das Ziel, die Funktionalität des energieeffizientesten und flexibelsten Speichers der Welt – dem ­Gehirn – nachzubilden und einen hohen Grad an ­Plastizität zu ermöglichen. So arbeitet das Fraunhofer IPMS an neuen, nichtflüchtigen Speichertechnologien auf Basis von ferroelektrischem Hafniumdioxid (HfO2) für analoge und digitale neuromorphe Schaltungen. Ferroelektrische ­Materialien zeichnen sich durch eine Änderung ihrer Polarisation bei Anlegen eines elektrischen Feldes aus. Nach Abschalten der Spannung bleibt der Polarisationszustand ­erhalten. Ähnlich dem menschlichen Gehirn ist die Hardware-Architektur der Chips so aufgebaut, dass Informationen bereits im System gespeichert und nichtflüchtig sind. Ein komplizierter Datentransfer zwischen Prozessor und Speicher ist nicht notwendig; die Denkleistung erfolgt ­bereits auf dem Chip. Als einziges nichtflüchtiges Speicherkonzept werden ferroelektrische Speicher rein elektrostatisch betrieben und sind daher besonders stromsparend, da zum Schreiben von Daten nur noch die Umladeströme der Kapazitäten aufgewendet werden müssen. 

Die Kühlung in den Chip ­integrieren

Ein weiterer wichtiger Faktor zur Reduzierung des Energie­bedarfs bei Halbleiterprodukten ist die ­Kühlung: Denn bei jedem Rechen- oder Schaltprozess entsteht ­Wärme. Bisher wird daher in der Regel die Hitze durch Kühlkörper von den Mikrochips abgeleitet. Häufig ­werden die wärmeempfindlichen Bauteile darüber hinaus mit Lüftern gekühlt. Das verbraucht zusätzlich Energie. Und bei immer kleineren und immer stärker verdichteten Komponenten wird es zunehmend schwieriger, die ­Wärme ­abzuleiten. 

Eine Idee ist es, die Kühlung direkt in den Chip zu inte­grieren: mit sogenannten „Microfluidic Cooling Systems“. So haben zum Beispiel Forscher des POWERlab am ­Institute of Electrical Engineering, École Polytechnique ­Fédérale de Lausanne (EPFL) ein Verfahren entwickelt, bei dem winzige Kanäle für ein flüssiges Kühlmittel direkt in die Siliziumwafer geschnitten werden. Noch ist dies nur ein Forschungsansatz, doch er könnte die Energieeffizienz von Chips revolutionieren: Zurzeit werden zum Beispiel mehr als 30 Prozent des gesamten Energieverbrauchs von Rechenzentren für die Kühlung aufgewendet. Die Forscher gehen davon aus, dass mit ihrem Ansatz diese Zahl auf unter 0,01 Prozent sinken könnte.

Neue Materialien

Ein wichtiges Einsatzgebiet von Halbleitern ist die ­Leistungselektronik. Mit ihrer Hilfe wird Energie ­„gewandelt“, zum Beispiel werden erneuerbare Energien in ­elektrische Versorgungsnetze integriert, Smartphones geladen oder Antriebe in der Fertigungs- und Prozessindustrie gesteuert. Allerdings geht bei jedem dieser Wandlungsvorgänge ein Teil der elektrischen ­Energie als Wärme verloren. Innovative, sogenannte Wide-Bandgap-Halbleiter-Materialien wie Galliumnitrid und Silizium­karbid ­ermöglichen deutlich höhere Schaltfrequenzen und ­erzeugen dadurch ­weniger Verlustwärme als silizium­basierte ­Komponenten.

Die neuen Materialien reduzieren laut dem Fraunhofer-­Institut für Siliziumtechnologie Energieverluste um mehr als 45 Prozent. Ausgehend vom gesamten Leistungs­modul-Markt bedeutet dies potenzielle Energie­einsparungen von bis zu 100 ­Terawattstunden im Wirtschaftsraum Europe, Middle East, Africa (EMEA) sowie bis zu 25 ­Tera­wattstunden in den USA bis ins Jahr 2025. Zum ­Vergleich: Das macht zusammen etwa ein Fünftel der elek­trischen Energie aus, die ganz Deutschland in einem Jahr benötigt.