Voraussetzung für eine intelligente, vernetzte Welt sind energieeffiziente Rechenzentren.
Die Erfindung der Computer – fähig, Informationen zu speichern und wiederzugeben – änderte die Welt. Bis vor kurzem jedoch waren sie nicht in der Lage, nach dem Vorbild des menschlichen Gehirns autonom zu lernen, um auf Grundlage dieses Wissens Aufgaben zu übernehmen oder Entscheidungen zu treffen.
Um es der Verarbeitungsleistung des menschlichen Gehirns gleichzutun, muss ein KI-System etwa 40.000 Billionen Rechenoperationen pro Sekunde ausführen (d. h. 40 PetaFLOPS). Eine typische Serverfarm, die in der Lage wäre, Rechen-Power für KI in dieser Größenordnung zu liefern, hätte einen Stromverbrauch von knapp 6 MW. Das menschliche Gehirn hingegen hätte zur Durchführung derselben Aufgaben im Vergleich nur einen Kalorienbedarf von 20 Watt. Einige der fortschrittlichsten KI-Lernsysteme haben aktuell einen Strombedarf von bis zu 15 Megawatt – ausreichend, um ein europäisches Städtchen mit etwa 1.500 Haushalten einen Tag lang mit Strom zu versorgen.
Die neuronalen Netze der KI lernen durch Differenzierungsprozesse ähnlich wie der Mensch. Üblicherweise werden über Grafikprozessoren (GPU) Tausende Bilder verarbeitet – und zwar parallel, damit das Netz so schnell wie möglich Vergleiche ziehen und lernen kann.
Die KI-Leistung ist im Übrigen von sogenannten Edge Devices abhängig – Kameras, Sensoren, Datenerfassungsgeräten und Aktuatoren. Darüber erhält das System Input und führt Bewegungen oder Aktionen in der realen Welt aus. Trends in den Bereichen Konsumgüter und industrielle Fertigung, wie das Internet der Dinge (IoT), haben zu einer raschen Ausbreitung KI-fähiger Geräte in Privathaushalten und Fabrikhallen geführt: Zwangsläufig erhöhen sich dadurch die Datenmengen und der Energieverbrauch.
Die Stromversorgung und das Management der Stromnachfrage im Megawatt-Bereich stehen unter einem ständigen Druck steigender Energiepreise. Jedes zusätzliche Watt an Energie macht mehr Kühlung erforderlich, was die Energiekosten weiter steigen lässt.
Verkleinerung ist das Schlüsselwort für eine verbesserte Verarbeitungsleistung: Aber kleinere Größen mit höherer Leistungsdichte verringern auch die Oberfläche für die Wärmeabfuhr. Das Wärmemanagement gehört somit zu den zentralen Herausforderungen bei der Frage, wie die neue Generation von KI-Supercomputern mit Energie versorgt werden soll.
Verringerung der CO2-Emissionen
Schätzungen zufolge wird es bis 2020 über 50 Milliarden cloudgestützte Sensoren und IoT-Geräte geben. Die Auswirkung, welche diese Geräte und die Datenzentren, die die AI mit Strom versorgen, in Kombination auf den globalen Stromverbrauch und die globale Erwärmung haben werden, unterstreicht die Notwendigkeit des gemeinsamen Vorgehens, um die Stromversorgung von Server-Racks, edge Geräten und IoT-Geräten energieeffizienter zu machen.
Neben Investitionen in erneuerbare Energien und dem Bemühen, nicht länger auf Benzin- und Diesel-Fahrzeuge zu setzen, wird in Europa ein deutlicher Fokus auf der Energieeffizienz liegen müssen, um den CO²-Ausstoß zu reduzieren. 2008 implementierte die Europäische Kommission den Verhaltenskodex für mehr Energieeffizienz in Rechenzentren in Form einer freiwilligen Initiative, die allen Stakeholdern bei der Verbesserung der Energie-Effizienz helfen soll. Dennoch steuern die Rechenzentren allein in Europa weiter auf einen Verbrauch von 104 TWh bis 2020 zu – fast das Doppelte der 56 TWh des Jahres 2007.
Laut einer Studie aus dem Jahr 2017 über den Energieverbrauch von Rechenzentren generiert der Sektor der Informations- und Kommunikationstechnologie (IKT) bis zu 2 Prozent der gesamten CO²-Emission weltweit – ein Wert, der gleichauf mit den globalen Emissionen der Luftfahrt ist. Rechenzentren machen 14 Prozent dieses IKT-CO²-Fußabdrucks aus.
In einem anderen Bericht wird jedoch ausgeführt, dass IKT-gestützte Lösungen, zum Beispiel energieeffiziente Technologien, den CO²-Gesamtausstoß der EU bis 2030 um mehr als 1,5 Gigatonnen (Gt) CO²e (Kohlendioxid-Äquivalent) verringern könnten. Das wäre eine gewaltige Einsparung in Höhe von nahezu 37 Prozent der gesamten CO²-Emissionen der EU im Jahr 2012.
Analoge vs. digitale Steuerungstechnik
Zweifellos wird KI die menschliche Gesellschaft zukünftig ganz entscheidend prägen. Die repetitiven Algorithmen Künstlicher Intelligenz werden jedoch signifikante Änderungen in IT-Architekturen und den Prozessoren selbst erfordern. Folglich wird die Stromversorgung dieser KI-Systeme dauerhaft eine Herausforderung bleiben.Ausgeklügeltere Lösungen müssen her: Es gibt inzwischen Power-Management-Produkte mit hochentwickelter digitaler Steuerungstechnik, die an die Stelle herkömmlicher, analog aufgebauter Lösungen treten.
Es hat sich gezeigt, dass eine digitale Steuerung die Flexibilität und Adaptivität von Systemen im High-End-Bereich der Energieversorgung insgesamt erhöht. Beim digitalen Ansatz lässt sich Steuerungstechnik ohne teure und zeitaufwändige Veränderungen auf Hardware-Ebene individuell anpassen. Dies vereinfacht das Designen und die Umsetzung skalierbarer Energielösungen, die Voraussetzung für KI sind. Sogar mit ihrer umfassenden Funktionalität und der passgenau bereitgestellten Energieleistung sind digitale Lösungen inzwischen im Vergleich zu den analogen Lösungen, die sie ersetzen, preislich wettbewerbsfähig.
Die Lösungen für die Energieversorgung der KI-Anwendungen der Zukunft so effizient wie möglich zu gestalten, ist ein relativ einfacher und gangbarer Weg, wie der IKT-Sektor zur Verringerung der globalen CO²-Emissionen beitragen kann.
Clayton Cornell, Technical Editor, Infineon Technologies AG