Zum Inhalt springen

Klimafaktor KI: Der versteckte Energiehunger moderner Algorithmen

Künstliche Intelligenz (KI) wird als Lösung für viele globale Herausforderungen gesehen – auch für die Klimakrise. Doch während die Fähigkeiten generativer KI zur Erzeugung von Text, Bildern, Videos und Audio beeindruckend sind, verbirgt sich hinter der scheinbar virtuellen Technologie eine ressourcenhungrige Infrastruktur. Die rasante Entwicklung und zunehmende Nutzung von KI-Anwendungen, selbst wenn sie „guten Zwecken“ dient, hat einen gewaltigen ökologischen Fußabdruck.


29. 10. 2024

In der öffentlichen Wahrnehmung wird jedoch kaum thematisiert, dass KI selbst zu massiven Umweltproblemen beiträgt. Die benutzerfreundlichen Oberflächen von ChatGPT & Co. lassen leicht vergessen, dass dahinter energieintensive Rechenzentren stehen, die enorme Mengen an Strom und Wasser verbrauchen. Es ist höchste Zeit, diese versteckten Umweltkosten der KI-Revolution ins Bewusstsein zu rücken.

Die rasante Zunahme von KI-Hypes im Laufe der Zeit

Mit KI sind heutzutage vor allem sogenannte neuronale Netzwerke gemeint, die es schon überraschend lange gibt. Die Idee, ein Modell dessen zu verwenden, was damals über die Interaktion zwischen Neuronen bekannt war, stammt aus den 1940er Jahren2. Es ist jedoch umstritten, ob sich das menschliche Gehirn auf ein solches Modell reduzieren lässt. Seitdem hat die KI mehrere Hype-Zyklen durchlaufen, in denen Durchbrüche in der KI-Entwicklung zu einer Überschätzung des nachfolgenden Fortschritts geführt haben. Einer der Gründe, warum neuronale Netzwerke damals viele Versprechungen nicht erfüllen konnten, sind ihre Anforderungen an die Rechenkapazität von Hardware. Die mathematischen Operationen, die für das Training und den Betrieb von neuronalen Netzwerken erforderlich sind, können mittlerweile in einer Geschwindigkeit und Menge vorgenommen werden, die Millionen Menschen das Nutzen von ChatGPT erlaubt.

Die Umweltkonsequenzen und der Energiehunger moderner KI-Systeme

Die notwendige Größe und der damit verbundener Ressourcenbedarf von solchen neuronalen Netzwerken steigt jedoch trotz technischen Fortschritts unverhältnismäßig zu ihrem Fähigkeitszuwachs. Momentan ist der Glaube daran verbreitet, dass die Größe eines Modells der wichtigste Parameter zur Leistungssteigerung von AI ist, was jedoch umstritten ist, da kleinere Modelle für viele Probleme oft besser funktionieren. So schätzte Mark Zuckerberg, dass die nächste Generation des LLMs „LLama“  von Meta 10 mal mehr Rechenleistung benötigen wird, als der Vorgänger. Es ist bekannt, dass innerhalb von KI generative Modelle besonders viele Ressourcen benötigen und Modelle, die Bilder erzeugen energiehungriger sind als Texterzeugungs-KI.

Generative KI verursacht im Moment weltweit einen drastischen Anstieg von Stromverbrauch, was zum Beispiel Microsoft dazu bewegt hat, einen Vertrag über die Nutzung eines fehleranfälligen Atomkraftwerks zu schließen.  Es wird geschätzt, dass Rechenzentren in 2026 zwischen 620 – 1050 TWh Strom benötigen werden. Zum Vergleich, ganz Europa benötigte in 2022 3.674 TWh. Dies umfasst zwar nicht nur KI allein, aber der KI-bezogene Verbrauch wird einen nicht unerheblichen Teil ausmachen10. In Europa wird prognostiziert, dass Datenzentren in 2030 4.5% des gesamten Bedarfs ausmachen werden, was einem Wachstum von 13% pro Jahr entspricht. Lokal kann dieser Anteil eine größere Belastung für das Stromnetz darstellen. In Frankfurt, einem wichtigem Standort für Datenzentren, verantworten diese momentan 50% des Strombedarfs.

Da noch lange nicht aller Strom durch erneuerbare Energien gewonnen wird, ist KI demnach auch für CO2-Emissionen verantwortlich. Der gesamte IT-Sektor verursacht momentan ungefähr 2% der globalen CO2-Emissionen, was ähnlich viel wie der Anteil der Flugindustrie ist.

Und daneben trocknet alles aus: Die Wasserkrise der KI-Industrie

Neben Strom benötigt KI auch Wasser für die Kühlung von Servern, auf denen die zugrundeliegenden Modelle laufen. Dieses Wasser wird zwar nicht komplett verbraucht, wird aber dem Wasserhaushalt des Ortes an dem ein Rechencenter steht, entzogen. Es wird geschätzt, dass allein KI in 2027 weltweit soviel Wasser benötigen wird, die dem sechsfachen Bedarf Dänemarks oder der Hälfte des Vereinigten Königreichs entspricht.  Die Auswirkungen dieses Wasserbedarfs sind je nach Region unterschiedlich drastisch. Hätte ein Gericht dies nicht verhindert, wäre in Chile ein Rechenzentrum entstanden, dass 76 Millionen Liter an Grundwasser pro Tag benötigt. Dies hätte den dort herrschenden Wassermangel noch weiter verschlimmert. Diese Entwicklungen spiegeln sich auch in dem neulich verabschiedeten AI Act der EU wieder, der KI-Hersteller*innen zu Transparenz bezüglich ihres Ressourcenverbrauchs verpflichtet.

Effizienz im Vergleich: KI versus traditionelle Methoden

Während nicht verleugnet werden kann, dass große generative KI-Modelle beeindruckende Ergebnisse bei diversen Anwendungen erzielen können, sollte man bedenken, dass es für eine Reihe an Anwendungen effizientere und genauere Methoden gibt. Ein Beispiel ist die Suche nach Informationen. Entgegen eines sich hartnäckig haltenden Glaubens ist das die Interaktion mit großen Modellen wie GPT nicht vergleichbar mit einer Datenbankabfrage oder einer traditionellen Google-Suche. Grob erklärt wandert der Input einer Nutzer*in von Chatbots durch die z.B. 405 Milliarden Parameter von Metas neuestem Llama Modell, woraufhin dann jeweils das nächst-wahrscheinliche Wort, basierend auf den Trainingsdaten, ausgegeben wird. Hierbei können zum einen falsche Informationen ausgegeben werden und zweitens braucht dieser Prozess bis zu 10-mal mehr Strom als eine traditionelle Suche.

Welche Konsequenzen können aus diesen Erkenntnissen gezogen werden?

Zunächst ist Transparenz wichtig. Das beginnt nicht nur bei der Entscheidung, vorhandene Informationen öffentlich zu machen, sondern auch dabei, diese überhaupt erst zu erheben. Tools wie das Python-Package codecarbon oder speziell für neuronale Netzwerke flops-counter, ermöglichen es, den Stromverbrauch und CO2 Emissionen sichtbar zu machen. In der Praxis sollte man sich zum Beispiel fragen, ob man zur Normalisierung der Nutzung künstlich erzeugter Bilder, zum Beispiel für Blog Posts, beitragen will. In Bezug auf Problemstellungen, bei denen es ältere (was momentan auch wenige Jahre bedeuten kann) Lösungsansätze als generative KI gibt, sollte man nicht davon ausgehen, dass diese automatisch schlechter sind, sondern in Betracht ziehen, ob sie vergleichsweise gut oder besser sein könnten.

Bei der Entscheidung für die Nutzung einer Methode, gerade für den guten Zweck, sollte man die sozialen Dynamiken um Technik reflektieren und hinter einen Begriff blicken, mit dem Unternehmen Geld verdienen wollen. Generative KI kann durchaus Probleme lösen, die vorher nicht gelöst werden konnten, aber die finale Entscheidung sollte immer eine Abwägung sein, ob ihr Einsatz alternativlos ist und ob die positiven Auswirkungen die negativen Auswirkungen überwiegen. Wie bei vielen globalen Problemen ist das Individuum weniger in der Verantwortung. Als Community des Civic Data Labs haben wir vielleicht die Möglichkeit, dem KI-Hype in der Gesellschaft etwas entgegenzusetzen, indem wir zur Reflexion anregen.

Quellen:

 

Autor

Bewerbungsbild

Jonas Stettner (er/ihm)

Datenvorhaben


Mehr aus dem Blog