Energieeffiziente KI
608

Künstliche Intelligenz (KI) ist unangefochten eines der Topthemen der Digitalisierung. Gleichzeitig tritt die Notwendigkeit zum Klimaschutz insbesondere in den letzten Jahren immer stärker in den Mittelpunkt. Während der KI enormes Potenzial für die erfolgreiche Energiewende als Grundvoraussetzung für die Eindämmung des Klimawandels zugesprochen wird, geht es immer häufiger auch um die Frage nach dem Energieverbrauch der Technologie selbst.

Die Anwendung von Algorithmen für unterschiedliche Prozesse ist aus der heutigen Welt nicht mehr wegzudenken. Die Datenverarbeitung und -analyse insbesondere in Form von intelligenten Algorithmen gilt als eine der Schlüsseltechnologien für die Digitalisierung, die in vielen Bereichen einen entscheidenden Faktor für innovative Geschäftsmodelle und disruptive Prozesse spielen wird. Insbesondere in der Energiewirtschaft wird dem Einsatz von KI ein enormes Potential zugesprochen.

Die Leistungsfähigkeit der immer komplizierter werdenden Verfahren der KI, wie dem maschinellen Lernen oder tiefen neuronalen Netzen konnten in den letzten Jahren aufgrund der verbesserten Datenverfügbarkeit und -qualität und der stetig steigenden Rechenleistung erheblich optimiert werden. Gleichzeitig führt die dazu notwendige Rechenleistung auch zu einem erhöhten Stromverbrauch und abhängigen vom jeweiligen Strommix zu erhöhten CO2-Emissionen und Kosten. Dies ist potentiell nicht nur ein Problem für die Umwelt, sondern auch für die wirtschaftliche und gesellschaftliche Anschlussfähigkeit.

Verteilte und dezentrale KI-Anwendungen, wie sie insbesondere auch in der zunehmend dezentral organisierten Energiewirtschaft vermehrt zum Einsatz kommen (z. B. autonomes Fahren, Edge AI), werden diesen Trend weiter beschleunigen. Im Sinne der Ziele der Energiewende gilt es daher den Energiebedarf von KI zu reduzieren, bzw. diese möglichst energieeffizient zu gestalten, um einen positiven Nettonutzen der KI-Anwendungen (z. B. Integration eines höheren Anteils erneuerbarer Energien in bestehende Netzinfrastrukturen) hervorzuheben. Eine wichtige Frage für die weitere Entwicklung der Schlüsseltechnologie KI ist demnach, wie der Energieverbrauch bei gleichbleibender Güte der Modelle reduziert werden kann.

Ziel des Pilotprojekts, welches das Future Energy Lab gemeinsam mit einem Forschungsteam des Fraunhofer Heinrich-Hertz-Institut durchführte, war die Analyse und Demonstration von Energieeinsparpotenzialen im Hinblick auf die Ausführung und die Übertragung von White-Box KI-Modellen. Dabei konnten jeweils Einsparungen von 61 bzw. 31 Prozent erzielt werden.

Energieeffizienz bei der Ausführung von KI-Modellen

Die Energieeffizienzbetrachtungen bei der Ausführung von KI-Modellen sind stark von der verwendeten Hardware abhängig. Der Schwerpunkt liegt hierbei auf den Rechenzentren, in denen die Berechnungen ausgeführt werden. Die Art und Weise, wie Rechenbeschleuniger zurzeit verwendet und in Rechenzentren integriert werden, zeigt eine Reihe von Eigenschaften, die zu hochgradig ineffizienten Systemen in Bezug auf ihren Energieverbrauch führen. Im Rahmen des Projekts wird mit sogenannten FPGAs (Field Programmable Gate Array) für die Beschleunigung von KI-Algorithmen gearbeitet. Dabei soll untersucht werden, inwieweit dadurch der Stromverbrauch im Vergleich zu herkömmlich eingesetzten Rechenbeschleunigern reduziert werden kann.

In der nachfolgenden Web-Anwendung lassen sich die Projektergebnisse für die Untersuchung mit FPGA-Chips einsehen. Im Szenariokonfigurator lässt sich das Land auswählen in dem die KI ausgeführt wird. Da der Anteil an Erneuerbaren Energien in jedem Land unterschiedlich ist, hat dies große Auswirkungen auf den Energieverbrauch. Unter „Anzahl an Inferenzen“ lässt sich einstellen, wie häufig die KI-Anwendung ausgeführt wird. Darunter lässt sich die zugehörige Größenordnung (Tausend, Mio., Mrd.) einstellen. Mit dem Schieberegler kann ein beliebiger Strompreis eingestellt werden um die Kostenersparnis für verschiedene Szenarien durchspielen zu können. Die entscheidende Einstellung ist die „Vergleichsauswahl“. Hier lassen sich alle Hardwarezusammensetzungen auswählen, die im Projekt untersucht wurden. Den niedrigsten Verbrauch haben ein FPGA oder eine GPU alleine, ohne Steuerungsrechner. In einem Rechenzentrum kann ein FPGA oder eine GPU allerdings nie alleine genutzt werden, da es einen Steuerungsrechner braucht mit dem die Chips angesteuert und ihnen Aufgaben zugewiesen werden. Entscheidend ist daher der Vergleich der Systeme FPGA NAA, FPGA PCI und GPU System. Hier ist jeweils der Steuerungsrechner berücksichtigt. Der im Projekt entwickelte Ansatz ist das „FPGA NAA“ System. In dem Tool lässt sich erkennen, dass dies das mit Abstand energieeffizienteste System ist. 

Energieeffizienz bei der Übertragung von KI-Modellen

Zur systematischen Untersuchung von Energieeffizienzpotentialen bei der Übertragung von KI-Modellen adressiert das Projekt verschieden Kompressionsmethoden beim Föderierten Lernen (engl. Federated Learning). Beim Föderierten Lernen handelt es sich um eine maschinelle Lernumgebung, in der viele Teilnehmer (z. B. mobile IoT-Geräte oder ganze Organisationen) kollaborativ ein globales KI-Modell unter der Orchestration eines zentralen Servers trainieren, während die Trainingsdaten dezentralisiert bleiben. Auf jedem dezentralen Gerät (bspw. ein Smartphone)  wird dabei ein eigenes KI-Modell trainiert, welches anschließend an einen zentralen Server geschickt wird. Auf dem Server werden alle dezentral trainierten Modelle zu einem globalen Modell zusammengeführt. Der Vorteil dabei ist, dass die Daten zum Training auf den dezentralen Geräten verbleiben. Der Versand der KI-Modelle auf den zentralen Server (was pro Trainingseinheit mehrmals stattfinden kann) verbraucht Energie. Dieser Verbrauch lässt sich reduzieren, wenn die Modelle für den Versand komprimiert werden. Durch diese Methode konnten im Projekt erhebliche Energieeinsparungen erreicht werden, die sich in der nachfolgenden Anwendung einsehen lassen.

In der nachfolgenden Anwendung lassen sich die Ergebnisse des Projekts analog zur ersten Anwendung nachvollziehen: Der Serverstandort bezeichnet den Standort an dem der zentrale Server steht, auf dem das globale KI-Modell aus den dezentral erstellten Modellen zusammengeführt wird. Der Gerätestandort bezeichnet den Standort der dezentralen Geräte. Die Untersuchungen wurden für verschiedene KI-Modelle und Datensätze durchgeführt, die sich unter dem Punkt „KI-Modell und Datensatz“ auswählen lassen. Unter „Anzahl der simulierten Geräte“ lässt sich auswählen, wie viele dezentrale Geräte an dem KI-Training teilnehmen und unter „Anzahl der Kommunikationsrunden“ kann eingestellt werden wie oft ein Modell zwischen einem dezentralen Gerät und dem zentralen Server versandt wird. Für die weiteren Einstellungsoptionen lässt sich durch „Hovern“ über die kleinen Fragezeichen eine Erklärung einsehen.  

– Anwendung folgt zeitnah –

NDR Info-Interview mit Philipp Richard

KI beschleunigt Energiewende: Ist energiesparender Einsatz der Technologie möglich? In einem Pilotprojekt forschen Future Energy Lab und Fraunhofer HHI an energieeffizienter KI. Im NDR Info-Interview informiert dena-Bereichsleiter Philipp Richard über das Thema.

Hier geht’s zum Radiobeitrag: Energiefresser Rechenzentren: Wie kann gespart werden?

Publikationen

STUDIE | 2 MB
Energieeffiziente künstliche Intelligenz für eine klimafreundliche Zukunft - Neue Erkenntnisse über Einsparpotenziale bei KI-Anwendungen
Foto: shutterstock/Quardia