Nachhaltigkeit von KI - Übersicht, Fakten und aktuelle Trend: Herbst-Update 2025
© Dr.G. Schmitz, EigenesWerk_CC_BY-SA_3.0
Da wenige Monate bei diesem hochgradig dynamischen Thema eine lange Zeit sind und es viele neue Quellen gibt, geben wir nachfolgend ein Update.
Künstliche Intelligenz verbreitet sich zunehmend und durchdringt immer mehr Lebensbereiche - aktuell meist in Form großer Sprachmodelle (Large Language Models, kurz LLMs). Obwohl KI große Datenmengen verarbeiten, Prozesse optimieren, Monitoring verbessern und vieles mehr kann, bringen insbesondere LLMs einen enormen Energie- und Ressourcenverbrauch mit sich. Im folgenden Fachbeitrag haben wir dahingehend aktuelle Daten und Fakten zusammengetragen.
Ursache: exponentielles Wachstum großer KI-Sprachmodelle und deren verstärkte Nutzung
- Der stark zunehmende Energie- und Ressourcenverbrauch ist sowohl durch die verstärkte Anwendung großer Sprachmodelle (LLMs) bedingt, als auch durch vorgelagerte enorme Trainingskosten immer größerer Modelle.
- Angesichts mangelnder Transparenz der Branche gehen häufig zitierte Abschätzungen seit 2020 von einem jährlichen Zuwachs um das 3,5-fache aus, wobei die nötige Rechenleistung sich jährlich verfünffacht und bei den populärsten Modellen seit 2010 angesichts eines jährlichen Wachstums um das 4,4-fache grob geschätzt alle sechs Monate mehr als verdoppelt[1].
- Abbildungen wie aus dem aktuellen Stanford AI Index Report [2] und der dort genutzten Quelle [3] bieten zwar einen unpräzisen Blick in die Vergangenheit – es zeigt sich trotz aller Unsicherheiten aber ein deutlicher Trend, der aufgrund der logarithmischen Skala nicht linear ist, sondern exponentiell:
© Stanford AI Index Report
© CC-BY Epoch AI
Von 2010 bis 2024 mehr als Verdoppelung der Kapazität in Deutschland auf über 2.730 Megawatt, bis 2030 wird weiterhin ein beschleunigtes Wachstum auf über 4.800 MW erwartet [4]:
© Borderstep
Einige neue Open-Source-Modelle sind im Vergleich zwar deutlich energieeffizienter [5]:
© Hugging Face
Aber in einer komplexen KI-Welt gibt es selten einfache technische Lösungen. Die Realität ist deutlich komplexer:
- werden diese bislang deutlich seltener angewendet, auch angesichts im Vergleich geringerer Performance, die wiederum auch mit der selteneren Anwendung verknüpft ist, wie sich auch anhand des jüngst veröffentlichten Modells „Apertus“ aus der Schweiz zeigt[6]
- zeigt eine aktuelle, auf einer Vielzahl relevanter Kriterien basierende Analyse „von der Wiege bis zur Bahre“ des Trainings von BLOOM und GPT-4, dass gegenwärtige Assessments sich auf den CO2-Ausstoß beim Training und im Betrieb verengten und die vollen Umweltauswirkungen dadurch unterschätzt werden[7]
- haben einschlägige Studien von Greenpeace [8] und interface [9] bereits dargelegt, wie getrieben durch das „KI-Wettrüsten“ im Hardwarebereich direkte und indirekte Emissionen zunehmen, wie der Rohstoff- und insbesondere Wasserverbrauch sowie Schadstoffeinträge vor allem sog. Ewigkeitschemikalien (PFAS) und Transparenzdefizite fortbestehen
- gibt es zwar mit Blick auf die Inferenz eine beständige Zunahme der Hardwareeffizienz, wie folgende Abbildung aus einem Nvidia-Blogpost [10] illustriert:
© NVidia
Steht diesen Effizienzgewinnen jedoch das auch als Rebound-Effekt bekannte Jevons-Paradoxon [11] gegenüber - wie Dario Amodei von Anthropic bereits im Januar 2025 klar erläutert hat: „Because the value of having a more intelligent system is so high, this shifting of the curve typically causes companies to spend more, not less, on training models: the gains in cost efficiency end up entirely devoted to training smarter models, limited only by the company's financial resources."[12] Diesen Trend illustriert auch folgende Abbildung zur deutlich zunehmenden Token-Usage [13]:
© openrouter.ai
Fallen zudem gleichzeitig die Kosten für die Inferenz bzw. Tokens rapide [14]:
© epoch.ai
Folgen: Energie und Klima
- Lynn Kaack hat nach einer Veröffentlichung von Google zum Energieverbrauch bei der Nutzung von Gemini [15], also den Inferenzen des KI-Modells, in einem LinkedIn-Post die dortigen Zahlen interpretiert: auf den ersten Blick klingt der Vergleich zu neun Sekunden Fernsehen nicht viel. Doch durch die Einbettung von KI in Google-Suchanfragen ergibt sich (grob überschlagen) bereits der Energieverbrauch einer mittelgroßen Stadt, nämlich täglich 654 MWh im Juli, also dem Energieverbrauch von mehr als 70.000 deutschen Haushalten
- Mittlerweile ist der CO2-Fußabdruck von Datenzentren laut der Expertin Kate Crawford (Autorin „Atlas of AI“ [16]) bereits „größer als jener der gesamten Luftfahrtindustrie“. [17]
- Im September 2024 zeigte eine Analyse des Guardian, dass die realen In-House-Emissionen der Rechenzentren von Google, Microsoft, Meta und Apple von 2020 bis 2022 um 662 Prozent bzw. 7,62-fach höher waren als offiziell angegeben. [18] Amazon konnte dabei als größter Emittent (mit mehr als doppelt so hohem CO2-Ausstoß wie Apple an zweiter Stelle) nicht berücksichtigt werden, da das andere Geschäftsmodell die Isolierung von Emissionen aus Rechenzentren erschwert.
- Internationale Energieagentur (10.4.2025): Der Stromverbrauch von Rechenzentren wird sich bis 2030 auf ca. 945 TWh verdoppeln – etwas mehr als der gesamte Energieverbrauch Japans. KI wird dabei mit prognostizierter Vervierfachung der Nachfrage der stärkste Treiber sein.
- Ralph Hintemann (Borderstep, DC2HEAT – Interview vom 23.5.2025): „Rechenzentren werden den Hauptanteil an den CO2-Emissionen der Digitalisierung haben. […] Weltweit belegt KI ungefähr 20 Prozent der Rechenzentrumskapazitäten. Um das zu vergleichen: Wir verbrauchen für KI weltweit aktuell ungefähr so viel Strom wie ganz Holland im Jahr.“ [19]
- In Irland aufgrund relativ niedriger Steuern für BigTech-Konzerne beliebten EU-Standort war der Energiebedarf von Rechenzentren bereits 2024 „höher als der aller urbanen Behausungen zusammen“. [20]
Halbleiterproduktion: Energieverbrauch hat sich in den letzten acht Jahren von 58.326 GWh (2015) auf 131.278 GWh (2023) mehr als verdoppelt (+125 Prozent). Direkte Emissionen haben sich von 2015 bis 2021 nahezu verdoppelt, bis 2023 ist jedoch ein Rückgang um ca. 30 Prozent zu beobachten. Indirekte Emissionen haben im gesamten Zeitraum um „nur“ 71 Prozent zugenommen, was auf verstärkte Nutzung von Zertifikaten für erneuerbare Energien hindeutet. Indirekte „Scope 3“-Emissionen entlang der Wertschöpfungskette haben sich von 11,7 (2015) auf 87,4 Mio. Megatonnen CO2-Äquivalente (2023) versiebenfacht. [21]
Aktuelle Trends im Energiebereich:
- Weiterbetrieb von Kohlekraftwerken, die infolge des Ausbaus erneuerbarer Energien nicht mehr wettbewerbsfähig sind wie z.B. aktuell 2.000 Megawatt in Pakistan. [22]
- Laufzeitverlängerung alter AKWs, bspw. eines 1121-Megawatt-Kraftwerks durch Meta für die nächsten 20 Jahre [23] oder geplante Reaktivierung eines stillgelegten 837-Megawatt-Blocks von „Three Mile Island“ durch Microsoft [24]
- Renaissance der Atomkraft wird angekündigt [25]: Google plant bspw. aktuell drei neue AKW mit jeweils mindestens 600 Megawatt Leistung, um das geplante Tempo beim Ausbau von KI-Rechenzentren halten zu können, sowie weitere Kleinreaktoren mit 50 bis 75 Megawatt ab 2030.
- Ausbau erneuerbarer Kapazitäten geht in steigende KI-Nachfrage statt Transformation des Energiesystems
- Stromnetze kommen auch hierzulande bereits lokal an ihre Grenzen [26] und nachfragebedingt gibt es in den USA bereits Preissteigerungen [27]
- Da AKW-Kapazitäten nicht kurzfristig zur Verfügung stehen, kommen mobile Gasturbinen ohne Filter mit verheerender Klima- und Ökobilanz zum Einsatz, in den USA bereits heute und auch in Deutschland ist in naher Zukunft beim Ausbau eines Rechenzentrums an den Grenzen bestehender Netzkapazitäten der Einsatz von Gasturbinen geplant [28]
Demgegenüber besteht weiterhin großes Potenzial bei der Abwärmenutzung von Rechenzentren, bspw. sollen in einem geplanten Berliner Neubaugebiet 4.500 Wohnungen, 200 Gewerbeeinheiten sowie Kitas und Schulen künftig mit der Abwärme zweier Rechenzentren beheizt werden (jährlich ca. 6.000t CO2 Einsparung) [29], das Projekt BytesHeat stellt Tools [30] für zukünftige Projekte bereit und im Projekt DC2HEAT wird Abwärmenutzung mit KI optimiert [31]
Folgen: Ressourcen
- Wasserverbrauch „ist ein komplexes Thema, weil Rechenzentren auf drei verschiedene Weisen Wasser verbrauchen“ (Ralph Hintemann, s.o.):
- 1. braucht die Produktion der IT sehr viel Wasser, wozu es aber wenig Informationen und noch kaum Bewusstsein gibt [32]
- 2. indirekt über den Stromverbrauch der Rechenzentren, wenn Wasser über Kühltürme fossiler oder nuklearer Kraftwerke verdampft
- 3. in den Rechenzentren selbst, primär für effiziente Kühlung – der dortige Verbrauch kann enorm sein (>1 Mrd. Liter pro Jahr für ein einziges Rechenzentrum)
Daher ist relevant, ob es sich um Trinkwasser, Regenwasser oder Brauchwasser handelt und in welcher Gegend Wasser verbraucht wird. Eine Bloomberg-Recherche [33] zeigt, dass in den USA genau dort zusätzlich Wasser für KI-Zwecke genutzt wird, wo es dringend benötigt wird: 2/3 der seit 2022 errichteten oder geplanten Datenzenten befinden sich an Orten, die bereits unter Wassermangel leiden. Aber auch hierzulande zeichnen sich ähnliche Probleme ab: in Neuenhagen bei Berlin wurden 2023 trotz Versorger-Veto, welcher das Absinken des Grundwassers und Versorgungsengpässe befürchtete, Brunnen für ein geplantes Rechenzentrum genehmigt [34]. Eine durchschnittliche Konversation mit ChatGPT verbraucht ein Glas Wasser – pro Gespräch und Nutzer*in. [35]
- Kritische Rohstoffe und Schadstoffe bei der Hardwareproduktion:
- Zentrales Problem sind auch hier fehlende Daten, aber eine Interface-Studie [36] von 2024 illustriert die Komplexität und Dramatik des ökologischen Fußabdrucks der Halbleiterproduktion. Die Knappheit benötigter Rohstoffe, fragwürdige Herkunft seltener Erden sowie große Defizite bei Entsorgung und Recycling (s.u.) sind lange bekannt, aber weitere Herausforderungen werden immer größer.
- Zwar wird der exorbitante Wasserverbrauch der Chipindustrie (s.o.) inzwischen mehr thematisiert, doch die Problematik ist komplexer: Neben dem CO2-Fußabdruck von Produktion und Lieferketten müssen auch Schadstoffeinträge, insbesondere sogenannter Ewigkeitschemikalien (PFAS), in den Blick genommen werden. Studienautorin Julia Hess hat auf der AI Conference des Bundesumweltministeriums 2024 [37] veranschaulicht, dass mangelnde Datentransparenz eine umfängliche Bewertung und Differenzierung verschiedener Hardwaretypen behindert.
- Elektroschrott:
Selbst konservativ geschätzt wird der kumulierte Elektronikschrott allein aus Hardware für große KI-Sprachmodelle (LLMs) bis 2030 weltweit neun Millionen Tonnen betragen und in einem Szenario mit stärkerer Verbreitung generativer KI könnte das Volumen des durch LLMs generierten Elektroschrotts auf 16,1 Millionen Tonnen ansteigen [38]: „Zum Vergleich: Die Gesamtmenge an Elektroschrott, die 2022 kurz vor dem Feldzug von LLMs produziert wurde, betrug 62 Millionen Tonnen. Diese Menge würde 1,55 Millionen 40-Tonnen-Lkw füllen“.
Mögliche Lösungswege wurden bereits am Ende des letzten Fachbeitrags dargestellt. Wichtigste Hebel für nachhaltige KI sind demzufolge:
- mehr Transparenz für ökologische und ökonomische Kosten-Nutzen-Rechnung,
- zielgerichtete, kontextabhängige Modellauswahl und Green Coding,
- effizienzoptimierte Hardware im Bestand durch Wasserkühlung, spezifische Hardware je nach Use Case und Abwärmenutzung,
- neue Ansätze in Hardwarearchitektur, Chipdesign und -produktion für möglichst geringen Energie-, Wasser- und Rohstoffverbrauch im gesamten Lebenszyklus,
- mehr und besseres Recycling bzw. Nutzung von refurbished Hardware, wo sinnvoll,
- andere Anreize und Geschäftsmodelle für nachhaltige KI „by design“, damit durch die Einbeziehung ökologischer Kosten mehr Umwelteffizienz zu deutlicher Kostenersparnis führt,
- mehr Forschung zur gesamten Bandbreite nachhaltiger KI,
- sowie last but not least: im Bewusstsein der Herausforderungen eine neue Kulturtechnik informierter und reflektierter Anwendung von KI.
Entsprechend der Diskussion bei der AI Conference des Bundesumweltministeriums [39] müsste dafür eine ganzheitliche Politik
- Diskurse um „grüne KI“ mit Industrie und geopolitischen Debatten [40] verschränken,
- mit Blick auf die globale Dimension des Problems schneller und effizienter regulieren,
- Monopole einhegen, um Macht- und Konzentrationsfragen zu lösen,
- (aus Halbleiterperspektive) das Problem an der Wurzel und Stellschrauben in Design, Fertigung und Nutzung mitdenken und
- durch nachhaltige Innovationen Wettbewerbsfähigkeit ebenso fördern, wie das Wachstum von Ansätzen, die zeigen, dass und wie es anders gehen kann.
Statt im KI-Wettrüsten zwischen großen Technologiekonzernen und Wirtschaftsräumen den Anschluss finden zu wollen, liegt die Zukunft vielmehr darin, mehr Offenheit zu wagen: Offene Daten und (Innovations-)Modelle könnten dabei helfen, durch nachhaltige KI zukunftsfähige Lösungen und Geschäftsmodelle zu etablieren, die ökologisch wie ökonomisch längerfristig tragfähig sind. Zweifellos sind dazu viele Schritte auf vielen Ebenen zu gehen – umso wichtiger ist es, dass Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft gemeinsam daran arbeiten, bestehende Grenzen im Denken und Handeln zu überschreiten, damit ökologische und planetare Grenzen nicht überschritten werden.
Über den Autor
Reinhard Messerschmidt ist stellvertretender Auftragskoordinator und arbeitet als interdisziplinärer Sozialwissenschaftler und promovierter Philosoph seit 2017 zu Digitalisierung und Nachhaltigkeit mit Fokus auf KI und Technikgestaltung für das Gemeinwohl.
[2] https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
[3] https://epoch.ai/data/ai-models
[5] https://huggingface.co/blog/sasha/gpt-oss-energy
[7] https://arxiv.org/pdf/2509.00093
[9] https://www.interface-eu.org/publications/semiconductor-emission-explorer
[11] https://de.wikipedia.org/wiki/Jevons-Paradoxon
[12] https://www.darioamodei.com/post/on-deepseek-and-export-controls
[13] https://openrouter.ai/rankings
[14] https://epoch.ai/data-insights/llm-inference-price-trends
[16] https://katecrawford.net/atlas
[17] https://www.zeit.de/2025/12/ressourcen-ki-mineralien-knappheit-konflikt/seite-2
[18] https://www.theguardian.com/technology/2024/sep/15/data-center-gas-emissions-tech
[21] https://www.interface-eu.org/publications/semiconductor-emission-explorer
[24] https://www.tagesschau.de/ausland/amerika/usa-atomkraftwerk-microsoft-100.html
[27] https://www.levernews.com/biden-boosts-ai-despite-energy-dept-warning/
[30] https://www.bytes2heat.com/tools
[31] https://dc2heat.de
[32] https://www.interface-eu.org/publications/chip-productions-ecological-footprint
[33] https://www.bloomberg.com/graphics/2025-ai-impacts-data-centers-water-data/
[35] https://www.boell.de/de/2025/01/08/digitalisierung-kuenstliche-intelligenz-und-wasserverschwendung
[36] https://www.interface-eu.org/publications/chip-productions-ecological-footprint
[37] https://www.z-u-g.org/meldungen/ai-conference-des-bmuv-ki-als-chance-fuer-mehr-mehr-nachhaltigkeit/
[39] https://www.z-u-g.org/meldungen/ai-conference-des-bmuv-ki-als-chance-fuer-mehr-mehr-nachhaltigkeit/
[40] https://www.euro-stackreport.info/