Der Energieverbrauch von Künstlicher Intelligenz - Eine detaillierte Analyse der Forschung von Maximilian Dauner

1. Einleitung: Der wachsende Umweltimperativ der Künstlichen Intelligenz

Die rapide Integration von Künstlicher Intelligenz (KI) in wirtschaftliche, soziale und wissenschaftliche Bereiche markiert eine technologische Revolution. Doch hinter den beeindruckenden Fähigkeiten generativer KI-Modelle und Großer Sprachmodelle (Large Language Models, LLMs) verbirgt sich eine wachsende ökologische Herausforderung: ihr immenser Energieverbrauch. Diese Entwicklung positioniert den Energie-Fußabdruck der KI nicht mehr als eine technische Nischenfrage, sondern als einen strategischen Faktor von globaler Bedeutung, der Energienetze, Klimaziele und die zukünftige Ausrichtung der technologischen Entwicklung maßgeblich beeinflusst.

1.1. Kontextualisierung des KI-Energie-Fußabdrucks: Eine globale Perspektive

Der Energiebedarf der KI-Infrastruktur hat bereits heute eine makroökonomische Dimension erreicht. Aktuelle Schätzungen gehen davon aus, dass KI-Modelle und die dazugehörigen Rechenzentren jährlich etwa 29,3 Terawattstunden (TWh) Elektrizität verbrauchen. Um diese Zahl in einen Kontext zu setzen: Sie entspricht in etwa dem gesamten jährlichen Stromverbrauch von Nationen wie Irland, das 2023 rund 31,5 TWh verbrauchte. Diese Größenordnung verdeutlicht, dass KI kein marginaler, sondern ein signifikanter Verbraucher in den globalen Energienetzen ist.

Die Prognosen deuten auf eine dramatische Eskalation dieses Bedarfs hin. Die Internationale Energieagentur (IEA) prognostiziert, dass sich der weltweite Strombedarf von Rechenzentren bis 2030 auf rund 945 TWh mehr als verdoppeln könnte, wobei KI der Haupttreiber dieses Anstiegs sein wird.2 Diese prognostizierte Energiemenge übersteigt den gesamten heutigen Stromverbrauch Japans. Schon heute könnten spezialisierte KI-Hardwarekomponenten für 11 % bis 20 % des gesamten Stromverbrauchs von Rechenzentren verantwortlich sein. Dieser Nachfrageschub führt in vielen Industrieländern zu einer Trendumkehr nach Jahren stagnierenden oder sogar sinkenden Strombedarfs und stellt die Energieversorger vor erhebliche Herausforderungen.

1.2. Die Belastung nationaler Netze: Die Fallstudie USA

Die Vereinigten Staaten bieten ein anschauliches Beispiel für die konkreten Auswirkungen dieses Trends auf die nationale Energieinfrastruktur. Im Jahr 2023 entfielen bereits 4,4 % des gesamten US-Stromverbrauchs auf Rechenzentren. Angetrieben durch die KI-Expansion wird erwartet, dass dieser Anteil bis 2028 auf einen Wert zwischen 6,7 % und 12 % ansteigen wird. Dieses rasante Wachstum ist ein Hauptgrund dafür, dass die U.S. Energy Information Administration (EIA) ihre Prognosen für den nationalen Gesamtstromverbrauch nach oben korrigieren musste.

Die Konsequenzen sind weitreichend. Der steigende Energiebedarf macht KI zu einem strategischen Anliegen für die nationale Energiepolitik, die Netzstabilität und die Planung von Infrastrukturinvestitionen. Schätzungen zufolge werden allein in den USA bis 2030 rund 720 Milliarden US-Dollar für die Modernisierung des Stromnetzes erforderlich sein, um diese neue Nachfrage zu bewältigen.Diese Entwicklung offenbart eine fundamentale Spannung: Das exponentielle Wachstum des KI-Rechenbedarfs trifft auf das lineare, inkrementelle Wachstum der Energieinfrastruktur. Die langen Vorlaufzeiten für den Bau neuer Kraftwerke und Übertragungsleitungen könnten zu einem Engpass führen. Im schlimmsten Fall könnte dies kurz- bis mittelfristig eine erhöhte Abhängigkeit von fossilen Brennstoffen zur Deckung von Spitzenlasten erzwingen und somit die Klimaziele untergraben.Dies könnte eine neue geopolitische Dynamik schaffen, in der Regionen mit einem Überschuss an zuverlässiger und sauberer Energie zu „KI-Supermächten“ werden und massive Investitionen in Rechenzentren anziehen.

1.3. Einführung in Maximilian Dauners Forschung: Vom Makro zum Mikro

Vor diesem Hintergrund massiven, systemweiten Energiewachstums liefert die Forschung von Maximilian Dauner und Gudrun Socher eine entscheidende Untersuchung der granularen, anfragebasierten Energiekosten von LLMs.Ihre Studie „Energy costs of communicating with AI“, veröffentlicht in der Fachzeitschrift

Frontiers in Communication, schließt eine wichtige wissenschaftliche Lücke. Sie liefert die notwendigen empirischen Daten, um die Mechanismen zu verstehen, die den Energieverbrauch von Milliarden täglicher KI-Interaktionen antreiben. Indem sie vom globalen Maßstab auf die Ebene der einzelnen Anfrage zoomt, ermöglicht Dauners Arbeit eine fundierte Debatte über die Gestaltung nachhaltigerer KI-Technologien und die Verantwortung von Entwicklern und Nutzern gleichermaßen.

2. Die Energiekosten der KI-Kommunikation entschlüsseln: Eine Analyse der Studie von Dauner & Socher (2025)

Die Studie von Maximilian Dauner, einem Doktoranden an der Hochschule München, und seiner Co-Autorin Gudrun Socher stellt eine der ersten systematischen Quantifizierungen der Energiekosten dar, die während der Nutzungs- oder „Inferenz“-Phase von LLMs anfallen. Ihre methodische Strenge und die Transparenz ihres experimentellen Aufbaus bilden die Grundlage für die Glaubwürdigkeit ihrer weitreichenden Schlussfolgerungen.

2.1. Studienziele und Veröffentlichung

Das Hauptziel der Studie war es, die Umweltkosten von LLMs umfassend zu bewerten, indem eine direkte Verbindung zwischen der Leistungsfähigkeit (Genauigkeit), der internen Verarbeitungsweise (Token-Nutzung) und den daraus resultierenden Kohlenstoffemissionen hergestellt wird. Die Forschung wurde einer Peer-Review unterzogen und am 19. Juni 2025 in der international anerkannten Fachzeitschrift

Frontiers in Communication veröffentlicht, was ihren Ergebnissen wissenschaftliche Autorität verleiht. Damit wurde eine wichtige Lücke in der wissenschaftlichen Literatur geschlossen, die sich bisher nur begrenzt mit den Umweltauswirkungen der KI-Nutzung befasst hatte.

2.2. Ein robustes experimentelles Design

Die Stärke der Studie liegt in ihrem detaillierten und kontrollierten experimentellen Aufbau, der darauf ausgelegt war, reproduzierbare und vergleichbare Ergebnisse zu liefern.

  • Getestete Modelle: Die Forscher analysierten 14 verschiedene Open-Source-LLMs. Die Auswahl umfasste Modelle mit einer erheblichen Bandbreite an Komplexität, von 7 Milliarden bis zu 72 Milliarden Parametern. Zu den namentlich genannten Modellen gehörten LLaMa von Meta, DeepSeek, Cogito und Qwen von Alibaba. Ein entscheidender Aspekt der Methodik war die Beschränkung auf Open-Source-Modelle. Führende kommerzielle Modelle wie die ChatGPT-Reihe von OpenAI oder Claude von Anthropic waren für eine solch detaillierte interne Analyse nicht zugänglich. Diese erzwungene Wahl wirft ein Schlaglicht auf ein systemisches Transparenzproblem in der KI-Branche: Die Umweltauswirkungen der am weitesten verbreiteten Modelle bleiben einer unabhängigen wissenschaftlichen Überprüfung weitgehend entzogen.

  • Aufgabe und Benchmark: Jedes Modell wurde mit einem standardisierten Satz von 1.000 Fragen konfrontiert, der sich aus 500 Multiple-Choice- und 500 Freitextfragen zusammensetzte. Diese Fragen stammten aus dem MMLU-Benchmark (Massive Multitask Language Understanding), einem etablierten Standard zur Bewertung von Sprachmodellen. Um eine breite kognitive Belastung zu simulieren, deckten die Fragen fünf sehr unterschiedliche Fachgebiete ab: Philosophie, Weltgeschichte auf Gymnasialniveau, internationales Recht, abstrakte Algebra und Mathematik auf Gymnasialniveau.

  • Mess-Hardware und Framework: Alle Experimente wurden auf einer einzigen, lokal betriebenen NVIDIA A100 GPU mit 80 GB Speicher durchgeführt. Diese kontrollierte Umgebung eliminierte Störfaktoren und ermöglichte eine präzise Messung. Zur Quantifizierung des Energieverbrauchs setzten die Forscher das Perun-Framework ein. Perun ist ein speziell für das Energie-Benchmarking von Hochleistungsrechenanwendungen entwickeltes Python-Paket, das Hardware-Statistiken wie Lüftergeschwindigkeit, Temperatur und Spannung in Echtzeit überwacht, um den Energieverbrauch in Kilowattstunden (kWh) und die daraus resultierenden CO2-Emissionen zu berechnen.

  • Emissionsberechnung: Um die gemessenen kWh in eine global vergleichbare Umweltauswirkung umzurechnen, verwendeten die Autoren einen globalen durchschnittlichen Emissionsfaktor von 480 Gramm CO2-Äquivalent pro Kilowattstunde (gCO2/kWh). Dieser Wert wurde bewusst gewählt, da er die jüngsten globalen Trends hin zu einem höheren Anteil erneuerbarer Energien im Strommix widerspiegelt und somit eine realistische, wenn auch potenziell konservative, Schätzung der Emissionen ermöglicht.

2.3. Der Kernmechanismus: Die Rolle von „Tokens“ beim Energieverbrauch

Die Studie identifiziert die Generierung von „Tokens“ als den zentralen Mechanismus, der den Energieverbrauch antreibt. LLMs verarbeiten Sprache nicht als Wörter, sondern zerlegen sie in diese Tokens – numerische Repräsentationen von Wörtern oder Wortteilen. Jeder einzelne generierte Token erfordert Rechenleistung und verursacht somit einen Energieaufwand und Emissionen.

Die entscheidende Innovation der Studie von Dauner und Socher war die Unterscheidung zwischen zwei Arten von Tokens:

  • „Antwort-Tokens“: Dies sind die Tokens, die die endgültige, für den Benutzer sichtbare Antwort bilden.

  • „Denk-Tokens“: Dies sind die Tokens, die von komplexeren, „reasoning-enabled“ Modellen intern generiert werden, um ihre logischen Zwischenschritte zu formulieren und zu einer Lösung zu gelangen. Diese Tokens sind für den Nutzer unsichtbar, stellen aber einen erheblichen Teil der Rechenarbeit dar.

Die empirischen Daten zeigten einen dramatischen Unterschied: Während prägnante Modelle im Durchschnitt nur 37,7 Tokens pro Frage benötigten, generierten die „denkenden“ Modelle durchschnittlich 543,5 „Denk-Tokens“ pro Frage, um ihre Schlussfolgerungen herzuleiten. Diese Entdeckung hat weitreichende Konsequenzen für das Verständnis der KI-Energieeffizienz. Sie verlagert den Fokus von der reinen Länge der Ausgabe auf die Komplexität des internen Rechenprozesses. Bisher ging man oft davon aus, dass eine kurze Antwort „billiger“ sei als eine lange. Die Forschung zeigt jedoch, dass dies eine fehlerhafte Annahme ist. Ein Modell kann eine sehr kurze, prägnante Antwort geben, aber intern einen extrem energieintensiven „Denkprozess“ durchlaufen haben, um zu dieser Antwort zu gelangen. Die Energie wird also nicht primär für das „Sprechen“ (die Ausgabe), sondern für das „Denken“ (die interne Verarbeitung) verbraucht. Dies impliziert, dass der Weg zu höherer KI-Effizienz nicht nur über die Begrenzung der Ausgabelänge führt, sondern fundamental neue Architekturen erfordert, die komplexe Schlussfolgerungen mit weniger internen Rechenschritten - also weniger „Denk-Tokens“ - ziehen können.

3. Die Quantifizierung des Zielkonflikts: Eine vergleichende Leistungsanalyse von Großen Sprachmodellen

Die empirischen Ergebnisse der Studie von Dauner und Socher zeichnen ein klares Bild des Zielkonflikts zwischen der Genauigkeit eines LLMs und seiner ökologischen Nachhaltigkeit. Durch die Gegenüberstellung von Emissionsdaten und Leistungskennzahlen wird dieser Kompromiss greifbar und quantifizierbar.

3.1. Die umgekehrte Beziehung: Höhere Genauigkeit, höhere Emissionen

Das zentrale Ergebnis der Forschung ist der Nachweis einer direkten, inversen Beziehung: Modelle, die präzisere und zuverlässigere Antworten liefern, verbrauchen in der Regel deutlich mehr Energie und verursachen höhere Emissionen. Maximilian Dauner fasst dies prägnant zusammen: „Jeder zusätzliche Genauigkeitspunkt geht in der Regel mit deutlich höheren Kohlenstoffkosten einher“. In den extremsten Fällen kann ein fortschrittliches Modell, das auf komplexes Denken ausgelegt ist, bis zu 50-mal mehr Kohlenstoffemissionen für die Beantwortung einer Frage verursachen als ein einfacheres, wenn auch fehleranfälligeres Modell.

Die Studie liefert konkrete Datenpunkte, die diesen Trend untermauern:

  • DeepSeek R1 (Reasoning-Modell): Dieses Modell erreichte den zweithöchsten Genauigkeitswert im Test, war aber auch der größte Emittent. Für die Beantwortung der 1.000 Testfragen stieß es geschätzte 2.000 Gramm CO2 aus. Diese Energiemenge ist vergleichbar mit zwei Trocknerladungen Wäsche.

  • Cogito-70B (Reasoning-Modell): Mit einer Genauigkeit von 84,9 % war dieses Modell das präziseste im Testfeld. Der Preis dafür waren 1.340 Gramm CO2 Emissionen für die 1.000 Fragen.

  • Qwen-7B (Prägnantes Modell): Am anderen Ende des Spektrums befand sich dieses kleinere, auf kurze Antworten optimierte Modell. Es war mit nur 27,7 Gramm CO2 extrem sparsam, seine Leistung war jedoch mit einer Genauigkeit von unter 40 % unzureichend für anspruchsvolle Aufgaben.

Um die kumulativen Auswirkungen zu verdeutlichen, berechneten die Forscher, dass die Beantwortung von 600.000 Fragen mit dem leistungsstarken DeepSeek R1-Modell so viel CO₂ emittieren würde wie ein Hin- und Rückflug von London nach New York.

3.2. Der Einfluss der kognitiven Last: Das Thema ist entscheidend

Der Energieverbrauch eines Modells ist keine statische Größe, sondern hängt stark von der Art der gestellten Frage ab. Die Studie zeigte, dass die kognitive Last der Aufgabe ein wesentlicher Treiber für den Energieverbrauch ist. Fragen zu abstrakten Themen wie Philosophie oder höhere Mathematik zwangen die Modelle zu längeren „Denkprozessen“ und verursachten bis zu sechsmal höhere Emissionen als faktenbasierte Fragen zur Geschichte.

Ein besonders aufschlussreiches Ergebnis war, dass dieser erhöhte Rechenaufwand nicht zwangsläufig zu besseren Ergebnissen führte. Im Fachgebiet der abstrakten Algebra „dachten“ alle Modelle am längsten nach, erzielten aber gleichzeitig die niedrigste Genauigkeit. Dies deutet auf einen Bereich abnehmender Grenzerträge hin, in dem ein Mehr an investierter Energie nicht mehr zu einer proportionalen Steigerung der Leistung führt, sondern die Ineffizienz des Modells bei der Lösung bestimmter Problemklassen offenbart.

3.3. Ausnahmen von der Regel: Der Weg zur Optimierung

Obwohl der allgemeine Trend eindeutig ist, deckte die Studie entscheidende Ausnahmen auf, die belegen, dass der Zielkonflikt zwischen Genauigkeit und Nachhaltigkeit kein unumstößliches Naturgesetz ist. Diese Ausreißer sind von besonderer Bedeutung, da sie auf Optimierungspotenziale in der Modellarchitektur und -entwicklung hinweisen.

  • Effizienz bei hoher Leistung: Das Modell Cogito-70B erreichte eine leicht höhere Genauigkeit als DeepSeek R1, verbrauchte dabei aber mit 1.340 Gramm CO2 deutlich weniger Energie als die 2.000 Gramm von DeepSeek R1. Dies zeigt, dass selbst unter den leistungsstärksten Modellen erhebliche Effizienzunterschiede bestehen, die wahrscheinlich auf architektonische Finessen zurückzuführen sind.

  • Intelligente Standardmodelle: Die vielleicht wichtigste Ausnahme war das Standardmodell Qwen 2.5. Es erreichte eine Genauigkeit, die mit der des komplexen Reasoning-Modells Cogito-70B vergleichbar war, verursachte dabei aber weniger als ein Drittel der Kohlenstoffemissionen. Dieses Ergebnis ist ein starkes Argument gegen die Annahme, dass nur der „Brute-Force“-Ansatz des expliziten, token-intensiven Denkens zu hoher Leistung führen kann. Es deutet darauf hin, dass effizientere, implizite Denkprozesse entwickelt werden können, die eine hohe Genauigkeit ohne den exzessiven Energieaufwand der „Denk-Tokens“ erreichen.

Diese Ergebnisse werden in der folgenden Tabelle zusammengefasst, die einen direkten Vergleich der wichtigsten Kennzahlen ermöglicht und den Kernkonflikt sowie die Optimierungspotenziale visuell verdeutlicht.

Vergleichende Analyse des LLM-Energieverbrauchs und der Genauigkeit

Tabelle 1: Vergleichende Analyse des LLM-Energieverbrauchs und der Genauigkeit (Basierend auf Dauner & Socher, 2025)

Diese tabellarische Darstellung macht den Zielkonflikt unmittelbar ersichtlich. Sie ermöglicht die schnelle Identifizierung von Mustern, wie der Korrelation von Emissionen und Genauigkeit, aber auch von entscheidenden Ausreißern wie der Effizienz von Qwen 2.5. Sie transformiert die einzelnen Datenpunkte in ein kohärentes, analytisches Werkzeug, das die zentrale Argumentation der Forschung von Dauner untermauert und eine empirische Grundlage für die daraus abgeleiteten Empfehlungen liefert.

4. Das gesamte Spektrum der Umweltauswirkungen: Jenseits der Inferenzanfrage

Die Studie von Dauner und Socher liefert eine präzise und wertvolle Quantifizierung der Energiekosten während der Inferenzphase. Es ist jedoch von entscheidender Bedeutung zu erkennen, dass diese Kosten nur einen Teil des gesamten ökologischen Fußabdrucks von Künstlicher Intelligenz ausmachen. Eine ganzheitliche Betrachtung muss den gesamten Lebenszyklus eines KI-Modells umfassen – von der Herstellung der Hardware über das energieintensive Training bis hin zur laufenden Infrastruktur. Diese nicht gemessenen Faktoren deuten stark darauf hin, dass die aktuellen Schätzungen den wahren ökologischen Preis der KI-Revolution wahrscheinlich erheblich unterschätzen.

4.1. Die verkörperte Energie der Intelligenz: Die „Geburtskosten“ des Trainings

Bevor ein LLM eine einzige Nutzeranfrage beantworten kann, muss es einen enorm energieintensiven Trainingsprozess durchlaufen. Diese „Geburtskosten“ sind immens. Schätzungen für das Training eines Modells von der Größe von GPT-3 belaufen sich auf einen Verbrauch von 1.287 Megawattstunden (MWh) Elektrizität, was zur Emission von über 550 metrischen Tonnen CO2 führte.19 Dies entspricht den Lebenszeit-Emissionen von fünf durchschnittlichen Autos.19 Die Entwicklung schreitet rasant voran, und mit ihr der Energiebedarf: Das Training des Nachfolgemodells GPT-4 soll Schätzungen zufolge 50-mal mehr Energie verbraucht haben als das von GPT-3.22.

Diese Trainingsprozesse, die oft Wochen oder Monate dauern und Tausende von spezialisierten Prozessoren (GPUs) erfordern, werden von den entwickelnden Unternehmen selten transparent gemacht. Details zu den verwendeten Daten, der Rechenzeit und vor allem der Art der verbrauchten Energie (erneuerbar oder fossil) bleiben meist eine „Black Box“. Während die einmaligen Trainingskosten enorm sind, ist es wichtig, sie ins Verhältnis zu den laufenden Inferenzkosten zu setzen. Berichte aus der Industrie, wie von Google aus dem Jahr 2022, deuten darauf hin, dass über den gesamten Lebenszyklus eines Modells die kumulierten Kosten der Inferenz (60 % des Energieverbrauchs) die Trainingskosten (40 %) übersteigen können. Dies unterstreicht die schiere Skalierung der täglichen KI-Nutzung, bei der Milliarden von kleinen Anfragen in der Summe einen gewaltigen Energiebedarf erzeugen.

4.2. Der physische Fußabdruck: Kühlung von Rechenzentren und Wasserverbrauch

Die von Frameworks wie Perun gemessene Energie bezieht sich in der Regel auf den direkten Verbrauch der Rechenhardware wie GPUs. Dies ist jedoch nur ein Teil der Wahrheit. Rechenzentren sind komplexe Ökosysteme, die umfangreiche Kühlsysteme benötigen, um die von den Prozessoren erzeugte Abwärme abzuführen. Diese Kühlsysteme sind selbst massive Energieverbraucher und können den Energie-Fußabdruck der Serverinfrastruktur effektiv verdoppeln.

Darüber hinaus ist diese Kühlung extrem wasserintensiv. Der Aufstieg der KI hat zu einem drastischen Anstieg des Wasserverbrauchs bei großen Technologieunternehmen geführt: Microsoft meldete einen Anstieg von 34 %, Google von 20 %. Ein einzelnes geplantes Rechenzentrum in der Nähe von Phoenix, Arizona, sollte bis zu 56 Millionen Gallonen (ca. 212 Millionen Liter) Süßwasser pro Jahr verbrauchen. Da Rechenzentren oft in trockenen, aber sonnenreichen Regionen angesiedelt sind, entsteht ein direkter Konflikt zwischen den Anforderungen der digitalen Infrastruktur und den Wasserressourcen lokaler Gemeinschaften, was die ökologische Belastung über reine CO2-Emissionen hinaus erweitert.

4.3. Die Materialkosten: Von der Mine bis zur Mülldeponie

Der ökologische Fußabdruck der KI beginnt lange bevor der erste Strom fließt. Er ist in der Hardware selbst „verkörpert“. Die Herstellung der hochspezialisierten Chips (GPUs, TPUs), die das Rückgrat der KI bilden, ist ein oft übersehener, aber massiver Faktor.

  • Ressourcenabbau: Die Produktion erfordert den Abbau von Seltenen Erden und anderen Mineralien wie Lithium und Kobalt. Dieser Prozess ist energieintensiv, umweltschädlich und führt oft zu Abholzung und Wasserverschmutzung.

  • Herstellung: Die Halbleiterfertigung selbst ist einer der energieintensivsten Industrieprozesse. Im Jahr 2021 emittierte die globale Halbleiterindustrie eine Menge an CO2-Äquivalenten, die mit der gesamten Luftfahrtindustrie oder dem jährlichen Fußabdruck von Ländern wie Finnland vergleichbar ist.

  • Elektronikschrott (E-Waste): Der schnelle Innovationszyklus in der KI führt zu einer beschleunigten Veralterung der Hardware. Dies treibt ein wachsendes Problem mit Elektronikschrott an. Schätzungen gehen davon aus, dass der Aufstieg der LLMs bis 2030 zu 2,5 Millionen Tonnen E-Schrott führen könnte. Weniger als ein Viertel des weltweiten Elektronikschrotts wird ordnungsgemäß recycelt, was zur Freisetzung von giftigen Schwermetallen und anderen Schadstoffen in die Umwelt führt.

4.4. Das Transparenzdefizit und das „Black-Box“-Problem

Die Summe dieser Faktoren – undurchsichtige Trainingskosten, unberücksichtigte Infrastrukturkosten und verkörperte Emissionen – führt zu einer systemischen Unterschätzung des wahren ökologischen Fußabdrucks der KI. Dies wird durch das von Dauners Studie aufgedeckte Transparenzdefizit bei kommerziellen Modellen noch verschärft. Da die Betreiber der größten und meistgenutzten KI-Systeme ihre internen Daten nicht offenlegen, bleibt ein erheblicher Teil des globalen KI-Energieverbrauchs der unabhängigen wissenschaftlichen und öffentlichen Prüfung entzogen.

Diese Informationsasymmetrie stellt eine fundamentale Barriere für eine genaue Umweltbilanzierung dar. Sie bedeutet, dass politische Entscheidungsträger, Forscher und die Öffentlichkeit ihre Bewertungen auf unvollständige Daten stützen müssen. Die Konzentration auf den messbaren Energieverbrauch während der Nutzung (den „Fluss“) ignoriert die massiven, vor- und nachgelagerten Umweltkosten, die im Lebenszyklus der Hardware und Infrastruktur gebunden sind (den „Bestand“). Eine wirklich nachhaltige KI-Politik kann sich daher nicht allein auf den Kauf von erneuerbaren Energien zur Kompensation des Betriebsverbrauchs beschränken. Sie muss einen umfassenden Lebenszyklus-Ansatz (Lifecycle Assessment, LCA) verfolgen, der Transparenz und Rechenschaftspflicht für die gesamten Kosten von der Herstellung bis zur Entsorgung fordert. Dies erfordert einen Paradigmenwechsel hin zu Prinzipien der Kreislaufwirtschaft in der KI-Hardwareindustrie, um nicht nur den Betrieb, sondern auch die Herstellung und Stilllegung von KI-Systemen nachhaltig zu gestalten.

5. Einen Kurs für nachhaltige KI abstecken: Strategien zur Minderung und Optimierung

Die Analyse des erheblichen und wachsenden Energieverbrauchs von KI ist kein Selbstzweck, sondern die notwendige Grundlage für die Entwicklung wirksamer Gegenmaßnahmen. Die Forschung von Maximilian Dauner und anderen Experten zeigt einen mehrschichtigen Lösungsweg auf, der das Verhalten der Nutzer, die technologische Innovation der Entwickler und strategische Weichenstellungen durch die Industrie und Politik umfasst. Das übergeordnete Ziel ist die Etablierung einer „KI-Kompetenz für Nachhaltigkeit“, bei der alle Akteure mit dem Wissen und den Werkzeugen ausgestattet werden, um umweltbewusste Entscheidungen zu treffen.

5.1. Die Befähigung der Nutzer: Förderung der „KI-Nachhaltigkeitskompetenz“

Ein erheblicher Teil der Emissionen kann durch bewusstere Nutzungsentscheidungen auf individueller Ebene reduziert werden. Die Forschung liefert hierzu konkrete, praktische Empfehlungen:

  • Bewusster Gebrauch: Nutzer sollten reflektieren, wann der Einsatz eines leistungsstarken KI-Modells wirklich notwendig ist. Das Vermeiden von trivialen oder rein unterhaltsamen Anwendungen, wie der Generierung von Bildern, um sich selbst in eine „Actionfigur“ zu verwandeln, kann in der Summe einen signifikanten Beitrag leisten.

  • Effiziente Prompt-Gestaltung: Die Art der Fragestellung hat direkte Auswirkungen auf den Energieverbrauch. Durch die Anforderung kurzer und prägnanter Antworten (z. B. durch Zusätze wie „nur ein Wort“, „in Aufzählungszeichen“ oder „unter zwei Sätzen bleiben“) kann die Generierung unnötiger „Antwort-Tokens“ reduziert werden, was insbesondere bei den gesprächigen Reasoning-Modellen wirksam ist.

  • Die richtige Modellgröße wählen: Anstatt standardmäßig das größte und leistungsfähigste Modell zu verwenden, sollten Nutzer das kleinste Modell wählen, das für die jeweilige Aufgabe ausreichend ist. Dauner formuliert die Kernfrage: „Ist es immer notwendig, das größte Modell für einfache Fragen zu verwenden? Oder kann ein kleines Modell auch einfache Fragen beantworten, und wir können dadurch CO₂-Emissionen reduzieren?“. Das Leitprinzip sollte sein, „das richtige Modell für die richtige Aufgabe zu wählen“.

  • Nutzungszeitpunkt: Ähnlich wie bei der Reduzierung des Klimaanlagenverbrauchs an heißen Tagen kann auch die Nutzung von KI zu nachfrageschwachen Zeiten (z. B. nachts) dazu beitragen, die Belastung der Stromnetze und der Kühlsysteme in Rechenzentren zu verringern.

Diese Betonung des Nutzerverhaltens deutet auf eine notwendige Entwicklung hin: die Schaffung einer „KI-Kompetenz für Nachhaltigkeit“. Es geht darum, den Endnutzer nicht als passiven Konsumenten, sondern als aktiven Teil der Lösung zu sehen. Indem Nutzer die Energieauswirkungen ihrer Anfragen verstehen, können sie ihren Beitrag zur Reduzierung des CO2-Fußabdrucks von KI leisten. Zukünftige KI-Schnittstellen könnten dies durch Echtzeit-Feedback zum CO2-Verbrauch oder durch „Öko-Modi“ unterstützen, die automatisch effizientere Einstellungen wählen.

5.2. Das Versprechen algorithmischer und architektonischer Effizienz

Parallel zu Verhaltensänderungen auf Nutzerseite sind technologische Innovationen entscheidend, um die KI von Grund auf nachhaltiger zu gestalten.

  • Algorithmische Optimierung: Dauner und seine Kollegen arbeiten aktiv an der Entwicklung eines Algorithmus, der automatisch das schlankste und effizienteste LLM auswählt, das für eine bestimmte Anfrage voraussichtlich eine zuverlässige Antwort liefern kann. Dieser Ansatz könnte die Emissionen potenziell um eine Größenordnung reduzieren, indem er die Auswahl des „gerade-groß-genug“-Modells automatisiert.

  • Öffentliche Benchmarking-Tools: Die Transparenz und Vergleichbarkeit von Modellen ist ein Schlüsselfaktor für die Optimierung. Forscher haben öffentliche Tools wie ML.Energy entwickelt, die eine standardisierte Messung, einen Vergleich und eine Optimierung des Energieverbrauchs von KI-Modellen unter realistischen Bedingungen ermöglichen. Solche Leaderboards und Benchmarks schaffen einen Anreiz für Entwickler, nicht nur auf Genauigkeit, sondern auch auf Effizienz zu optimieren, um den „goldenen Punkt“ zwischen Leistung und Nachhaltigkeit zu finden.

  • Modelloptimierungstechniken: Etablierte Methoden wie Quantisierung (Reduzierung der numerischen Präzision von Modellparametern) und Pruning (Entfernen unnötiger Modellverbindungen) werden zunehmend auf große Sprachmodelle angewendet. Diese Techniken können die Modellgröße und den Rechenaufwand erheblich reduzieren, ohne die Leistung wesentlich zu beeinträchtigen, und tragen so direkt zur Energieeinsparung bei.

5.3. Imperative für Industrie und Politik für einen systemischen Wandel

Individuelle und technologische Bemühungen müssen durch einen unterstützenden Rahmen von Industrie und Politik ergänzt werden, um systemische Veränderungen zu bewirken.

  • Transparenz und Berichterstattung: Es besteht ein dringender Bedarf an obligatorischen, standardisierten Umweltberichten für kommerzielle KI-Modelle, ähnlich einer „Nährwerttabelle“. Diese sollten den gesamten Lebenszyklus abdecken, einschließlich Trainingsenergie, Inferenzkosten und dem CO2-Fußabdruck der zugrunde liegenden Infrastruktur. Internationale Normen wie ISO 42001 (KI-Managementsysteme) und ISO 14001 (Umweltmanagementsysteme) bieten bestehende Rahmenwerke, die als Grundlage für solche Anforderungen dienen können.

  • Ökologisierung der Infrastruktur: Es reicht nicht aus, den Energieverbrauch durch den Kauf von Zertifikaten für erneuerbare Energien auf Jahresbasis auszugleichen. Der Goldstandard muss die Versorgung von Rechenzentren mit zuverlässiger, rund um die Uhr verfügbarer, kohlenstofffreier Energie sein, die lokal erzeugt wird. Dies erfordert eine engere Zusammenarbeit zwischen Technologieunternehmen und Energieversorgern.

  • Paradigmenwechsel in der Entwicklung: Die Branche muss sich vom Mantra „größer ist besser“ verabschieden. Anstatt auf immer gigantischere Allzweckmodelle zu setzen, sollte die Entwicklung eines vielfältigen Ökosystems von kleineren, hochspezialisierten und energieeffizienten Modellen gefördert werden, die für spezifische Aufgaben optimiert sind.

Diese Lösungsansätze können eine positive Rückkopplungsschleife erzeugen. Informierte Nutzer schaffen eine Marktnachfrage nach nachhaltigen KI-Optionen. Entwicklerwerkzeuge wie ML.Energy ermöglichen es den Anbietern, auf diese Nachfrage zu reagieren und die Effizienz ihrer Modelle zu messen und zu bewerben. Regulierungs- und Standardisierungsinitiativen verankern diese Nachfrage im Markt und machen Umweltleistung zu einer obligatorischen Kennzahl. Auf diese Weise wird Nachhaltigkeit von einem Kostenfaktor zu einem Wettbewerbsvorteil, der eine neue Welle von Innovationen anstößt, die auf algorithmischer Eleganz und Effizienz statt auf reiner Rechenkraft basieren.

6. Fazit: Die Gestaltung eines nachhaltigen Pfades für die Künstliche Intelligenz

Die umfassende Analyse des Energieverbrauchs von Künstlicher Intelligenz, insbesondere durch die wegweisende Forschung von Maximilian Dauner, führt zu einer unausweichlichen Schlussfolgerung: Der aktuelle Entwicklungspfad der KI, der primär auf Leistungsmaximierung ausgerichtet ist, steht in einem fundamentalen Konflikt mit den globalen Nachhaltigkeitszielen. Die Versöhnung dieser technologischen Revolution mit den planetaren Grenzen erfordert einen dringenden und tiefgreifenden Wandel in Design, Nutzung und Regulierung.

6.1. Rekapitulation der wichtigsten Erkenntnisse

Die Forschung von Maximilian Dauner liefert den empirischen Beleg für einen signifikanten Zielkonflikt zwischen der Genauigkeit und der Nachhaltigkeit von Großen Sprachmodellen. Die Studie zeigt, dass die Komplexität eines Modells, quantifiziert durch die Generierung von internen „Denk-Tokens“, der primäre Treiber für den Energieverbrauch und die damit verbundenen Kohlenstoffemissionen während der Nutzung ist. Höhere Leistung wird oft mit erheblich höheren Umweltkosten erkauft. Gleichzeitig verdeutlicht die Analyse, dass diese messbaren Inferenzkosten nur die Spitze des Eisbergs sind. Der wahre ökologische Fußabdruck der KI umfasst den gesamten Lebenszyklus, einschließlich des energieintensiven Trainings, der Herstellung und Entsorgung der Hardware sowie des Betriebs der unterstützenden Infrastruktur wie Kühlung – Kosten, die oft intransparent und unberücksichtigt bleiben. Der kumulative Effekt von Milliarden täglicher KI-Interaktionen, multipliziert mit diesen umfassenden Lebenszykluskosten, macht die KI zu einem bedeutenden globalen Umweltproblem.

6.2. Die Betonung der Bedeutung von Energieeffizienz

Die Ergebnisse unterstreichen die Notwendigkeit, das Streben nach technologischem Fortschritt in der KI mit ökologischer Verantwortung in Einklang zu bringen. Dies erfordert einen Paradigmenwechsel: Energieeffizienz darf nicht länger ein sekundäres Optimierungsziel sein, sondern muss zu einem zentralen Designprinzip werden, das von Anfang an gleichberechtigt neben Leistungsfähigkeit und Genauigkeit steht. Das Mantra „immer größer, immer genauer“ muss durch einen differenzierteren Ansatz ersetzt werden, der auf die Entwicklung eines vielfältigen Ökosystems von „gerade-groß-genug“-Modellen setzt, die für spezifische Aufgaben optimiert sind. Die Erreichung einer „grüneren KI“ erfordert einen vielschichtigen Ansatz, der Verhaltensänderungen auf Nutzerebene, systemische Innovationen im Modelldesign und in der Infrastruktur sowie eine algorithmische Optimierung umfasst.

6.3. Zukunftsausblick

Die zukünftige Lebensfähigkeit und die gesellschaftliche Akzeptanz der Künstlichen Intelligenz werden zunehmend von ihrer Umweltverträglichkeit abhängen. Ein ungebremstes Wachstum des Energie- und Ressourcenbedarfs der KI wird nicht nur den Klimawandel verschärfen und die Energienetze an ihre Grenzen bringen, sondern könnte auch zu öffentlichem Widerstand und strengen regulatorischen Eingriffen führen. Die „soziale Betriebserlaubnis“ für die weitere Entwicklung und Skalierung der KI steht auf dem Spiel.

Daher ist ökologische Nachhaltigkeit kein optionales Add-on für die KI, sondern ein integraler Bestandteil ihrer langfristigen Entwicklungsfähigkeit und gesellschaftlichen Integration. Fortgesetzte Forschung an energieeffizienten KI-Architekturen, eine transparente und verpflichtende Berichterstattung über die Emissionen des gesamten KI-Lebenszyklus und die Entwicklung von Werkzeugen, die eine nachhaltige KI-Nutzung ermöglichen und anleiten, sind entscheidend, um die Umweltauswirkungen dieser transformativen Technologie zu mindern. Die Arbeit von Maximilian Dauner und seinen Kollegen ist ein grundlegender und wegweisender Schritt in eine neue Ära der „nachhaltigen KI“, in der technologische Brillanz und ökologische Verantwortung untrennbar miteinander verbunden sein müssen.

Quelle

BRIEF RESEARCH REPORT article

Energy costs of communicating with AI

Front. Commun., 19 June 2025

Sec. Science and Environmental Communication

Volume 10 - 2025 | https://doi.org/10.3389/fcomm.2025.1572947

Weiter
Weiter

KI im Holzbau: So reduzierst du 90 % deiner Bürozeit: Förderanträge, Behördenpost & Angebote auf Autopilot