
Eine einzige ChatGPT-Anfrage verbraucht zehnmal mehr Energie als eine Google-Suche. Klingt nach einer Kleinigkeit? Multiplizieren Sie das mit Milliarden Anfragen pro Tag. Addieren Sie die Energie für das Training der Modelle. Rechnen Sie die Kühlung der Rechenzentren dazu. Plötzlich reden wir über den Energieverbrauch ganzer Länder.
Die KI-Revolution hat ein Energieproblem. Und es wächst schneller als die Modelle selbst.
1.050 Terawattstunden — so viel Strom werden KI-Rechenzentren laut Prognosen bis 2026 verbrauchen. Das ist mehr als der gesamte Stromverbrauch Japans. Mehr als Deutschland, Frankreich und Spanien zusammen.
Die Entwicklung ist atemberaubend: US-Rechenzentren verbrauchten 2023 rund 183 Terawattstunden. Bis 2030 werden es 426 TWh sein — eine Verdopplung in sieben Jahren. Allein der KI-Anteil treibt dieses Wachstum.
Und es ist nicht nur Strom. Der CO2-Fussabdruck der KI-Branche liegt 2025 bei geschätzten 32,6 bis 79,7 Millionen Tonnen — vergleichbar mit den jährlichen Emissionen von Belgien oder der Tschechischen Republik. Der Wasserverbrauch für die Kühlung: 312 bis 764 Milliarden Liter jährlich. Das entspricht dem Wasserverbrauch von Dänemark.
Um es greifbar zu machen: Der Stromverbrauch für das Training eines einzigen großen Sprachmodells wie GPT-4 entspricht dem Jahresverbrauch von etwa 1.000 US-Haushalten. Und das ist nur das Training — die tägliche Nutzung durch Millionen Anwender verbraucht ein Vielfaches davon.
Der Energieverbrauch von KI teilt sich in zwei Phasen: Training und Inferenz (die tatsächliche Nutzung).
Training ist der energieintensivere Prozess pro Durchlauf: Tausende von Hochleistungs-GPUs arbeiten wochen- oder monatelang, um ein Modell auf Milliarden von Datenpunkten zu optimieren. GPT-4 soll auf über 20.000 Nvidia-A100-GPUs trainiert worden sein — jede einzelne verbraucht bis zu 400 Watt. Rechnen Sie die Kühlung, Netzwerkinfrastruktur und Redundanz dazu, und Sie verstehen, warum ein einziger Trainingslauf Millionen kosten kann.
Inferenz — also jede einzelne Nutzeranfrage — verbraucht weniger Energie pro Vorgang. Aber durch die Masse der Anfragen übertrifft der Gesamtverbrauch der Inferenz den des Trainings bei Weitem. ChatGPT allein verarbeitet geschätzt 100 Millionen Anfragen täglich. Jede Anfrage aktiviert Milliarden von Parametern.
Dazu kommt ein physikalisches Problem: Kühlung. GPU-Cluster erzeugen enorme Hitze. Traditionelle Luftkühlung reicht nicht mehr — immer mehr Rechenzentren setzen auf Flüssigkühlung oder werden in kalten Regionen gebaut. Aber auch Kühlung verbraucht Energie. Es ist ein Teufelskreis.
Im Januar 2025 kündigten Donald Trump und Sam Altman das Stargate-Projekt an: 500 Milliarden Dollar für zehn neue KI-Rechenzentren in den USA. Jedes einzelne benötigt rund 5 Gigawatt — das entspricht der Leistung von fünf großen Kernkraftwerken. Pro Rechenzentrum.
Im selben Jahr gab Google bekannt, 75 Milliarden Dollar in KI-Infrastruktur zu investieren. Microsoft und Meta ziehen mit Investitionen in ähnlicher Grössenordnung nach. Insgesamt fließen 2025 über 300 Milliarden Dollar in neue Rechenzentren — vorwiegend für KI.
Das Paradox: Dieselben Unternehmen, die sich öffentlich zur Klimaneutralität verpflichtet haben, bauen die energieintensivste Infrastruktur der Menschheitsgeschichte. Google musste 2024 einräumen, dass seine Treibhausgasemissionen seit 2019 um 48 Prozent gestiegen sind — trotz Milliardeninvestitionen in erneuerbare Energien. Der Grund: KI-Workloads wachsen schneller als die Energieeffizienz.
Die Unternehmen verweisen auf Investitionen in Solar- und Windenergie, auf langfristige Power Purchase Agreements, auf Forschung zu Kernfusion. Das sind reale Bemühungen. Aber die ehrliche Antwort ist: Derzeit wächst der KI-Energieverbrauch schneller, als erneuerbare Energien nachkommen.
Die Kosten der KI-Infrastruktur verteilen sich nicht gleichmäßig. Bestimmte Regionen tragen eine überproportionale Last.
Irland ist ein extremes Beispiel: Rechenzentren könnten bis 2026 bis zu 32 Prozent des gesamten Stromverbrauchs des Landes ausmachen. In einem Land, das bereits mit Engpässen im Stromnetz kämpft, hat die Regierung Moratien für neue Rechenzentren in der Region Dublin verhängt.
In den USA prognostiziert der Netzbetreiber PJM Interconnection — zuständig für 65 Millionen Menschen in 13 Bundesstaaten — bis 2027 einen Engpass von 6 Gigawatt. Das hat konkrete Folgen: In Maryland und Ohio steigen die Stromrechnungen privater Haushalte um 16 bis 18 Dollar pro Monat. Reale Menschen zahlen für den Energiehunger der KI-Branche.
Auch in Deutschland wird der Bau neuer Rechenzentren — etwa in Frankfurt, dem größten Rechenzentrums-Hub Europas — zunehmend kontrovers diskutiert. Die Stadt hat Bebauungspläne eingefroren und diskutiert über Obergrenzen. Die Frage, wer die Kosten für Netzausbau und Energieversorgung trägt, ist ungeklärt.
Die gute Nachricht: Es gibt Gegenstrategien. Und einige davon sind nicht nur umweltfreundlicher, sondern auch besser.
Kleinere, effizientere Modelle zeigen, dass größer nicht immer besser bedeutet. Metas Llama 3.2 erreicht mit 1 Milliarde Parametern Ergebnisse, für die frühere Modelle 10 Milliarden brauchten. Mistral und andere europäische KI-Unternehmen setzen gezielt auf schlanke Architekturen, die weniger Energie benötigen.
Modelldestillation komprimiert das Wissen großer Modelle in kleinere, effizientere Versionen. Ein destilliertes Modell kann 90 Prozent der Leistung bei 10 Prozent der Rechenkosten liefern — das ist nicht nur ein Umweltargument, sondern ein knallhartes Kostenargument.
Erneuerbare Energien für Rechenzentren sind ein Wachstumsfeld. Microsoft investiert in Kernenergie, Google in Geothermie. Aber der ehrliche Blick zeigt: Diese Investitionen kompensieren derzeit den Mehrverbrauch nicht vollständig. Es braucht beides — effizientere Modelle und sauberere Energie.
Es gibt ein starkes Argument für europäische KI in diesem Kontext: Kleinere, fokussierte Modelle, die für spezifische Aufgaben optimiert sind, verbrauchen einen Bruchteil der Energie von General-Purpose-Giganten wie GPT-4. Eine KI-Textanalyse, die genau eine Sache richtig gut kann, ist nicht nur präziser — sie ist auch nachhaltiger.
Sie müssen kein KI-Entwickler sein, um Einfluss zu nehmen. Als Nutzer von KI-Tools treffen Sie Entscheidungen, die Wirkung haben.
Die KI-Branche steht vor einer unbeqümen Wahrheit: Ihre beeindruckendsten Innovationen haben einen ökologischen Preis, den die meisten Marketingabteilungen lieber verschweigen würden. Aber Verschweigen ändert nichts an den Zahlen.
Die Lösung liegt nicht darin, KI abzuschaffen — das wäre weder realistisch noch sinnvoll. Die Lösung liegt in Effizienz. In Modellen, die mit weniger mehr erreichen. In Rechenzentren, die mit erneuerbarer Energie betrieben werden. In Unternehmen, die bewusst entscheiden, wann KI sinnvoll ist — und wann nicht.
Die nachhaltigste KI ist die, die das Problem mit den wenigsten Ressourcen löst. Das ist kein Kompromiss. Es ist die Definition von Intelligenz.
deepsight setzt auf schlanke, spezialisierte Modelle für Textanalyse — effizient und in Europa gehostet. Mehr erfahren.
