Und warum es nicht dauernd an ist hängt vielleicht mit der Frage zusammen, warum für KI jetzt extra neue Kernkraftwerke gebaut werden.
Um diese Kritik einzuordnen.
KI erfordert viel Rechenleistung und diese erfordert viel Energie.
Aber wenn wir wollen, können wir uns das als Gesellschaft leisten, denn relativ zu anderem Energiebedarf (z.B. Verkehr) ist das immer noch sehr wenig. Es ist nur aktuell so, dass dort, wo man gerne Rechenzentren bauen möchte, nicht die Energie verfügbar ist. Und man möchte die Rechenzentren in Monaten errichten, nicht in Jahren.
Ein NVidia GB200 Superchip (das ist aktuell das Beste auf dem Markt) braucht ca. 2700W, davon steckt man 36 in ein 19" Rack, wodurch wir bei ca. 100kW ankommen. 8 Racks montiert man in SuperPOD genannten Containern, die nach oben abgeschätzt 1MW brauchen, weil da auch noch Kühlung, Überwachung, Feuerschutz und was sonst noch so zu einem Rechenzentrum gehören, dranhängt. Läuft die Anlage 24/7 durch (und alles andere wäre unwirtschaftlich, denn so ein SuperPOD kostet in der Größenordnung von $100 Mio), verbraucht das ca. 9GWh pro Jahr.
Das entspricht der Leistung einer kleinen Onshore-3MW-Windkraftanlage bei angenommenen 3000 Betriebsstunden (typischer Wert). Deren Baupreis von ca. $10 Mio spielt bei den Hardware-Kosten eigentlich kaum eine Rolle. In Deutschland gibt es höchstens das Problem, dass die Genehmigung extrem lange dauert und außerdem zu viele den Lügen von AfD und Co aufsitzen und Windenergie ablehnen.
Um jetzt schnell Energie zu bekommen, will man keine langen Genehmigungsverfahren. X.AI hat daher für Colossus 2 ein stillgelegtes Gaskraftwerk wieder in Betrieb genommen, nachdem sie Turbinen in Europa gekauft und in die USA verschifft haben, weil auch der Bau dieser Turbinen Jahre gedauert hätte. Gas zu verbrennen ist natürlich Scheiße für das Klima. Daher hat sich Microsoft ein altes AKW gekauft und will das wieder in Betrieb nehmen. Neu bauen (Google hat solche Pläne) ist bei geschätzten 10 Jahren Bauzeit keine Option. Und ehrlicherweise ist ein bestehendes Kraftwerk zu verwenden besser für das Klima, den dann fällt kein CO2 beim Bau an, und ansonsten ist Kernkraft CO2-neutral. Erkauft man sich natürlich mit dem Betriebsrisiko, das bequem auf die Allgemeinheit abgewälzt wird. Dafür kann ein AKW 1 TWh im Jahr produzieren, was für 100 SuperPODs reicht und dem entspricht, was man auch gerne so in einem Giga-Rechenzentrum verbauen möchte.
Aber was bekommen wir jetzt für die Energie einer Windkraftanlage?
576 GPUs mit ca. 3 ExaFLOPs Rechenleistung (FP8) und 41472 ARM-Kerne als Beifang, plus 108 TB VRAM und 17 TB RAM für die CPUs.
Die GPU-Leistung entspricht dabei ca. 83.000 RTX 3090 Consumer-Grafikkarten (je 36 TeraFLOPS), wenn ich mich nicht in den Einheiten vertan habe. Und ja, es gibt inzwischen bessere Grafikkarten, aber die Rechenleistung variiert nicht so stark.
Würden damit jetzt 83.000 Leute non-stop GTA6 spielen, verbraucht das 290 GWh im Jahr. Das ist mehr als 30x so energieverschwenderisch wie der SuperPOD. Und es gibt weit mehr Leute da draußen, die GTA6 spielen werden – wobei die es natürlich nicht 8760 Stunden im Jahr machen. Es soll aber auch nur ein Beispiel sein, dass wir für andere Dinge weit aus mehr Energie verbrauchen. Über 15 Mio Leute haben sich z.B. Baldurs Gate 3 gekauft und vielleicht im Schnitt 100h gespielt (Abschätzung nach unten). Das entspricht 600 GWh, wenn man 400W für die Grafikkarte zugrunde legt. Und dann kommt da noch der Strom für den Rechner selbst dazu. Mit der Energie kann ich auch 66 SuperPODs betreiben.
Was bedeuten 3 ExaFLOPS? Das sind 3000 PetaFLOPs. Eine KI-Chat-Anfrage liegt in der Größenordnung von 1 PetaFLOP.
Sagen wir, es dauert 6 sek, diese zu berechnen. Manchmal wartet man Minuten, aber da laut OpenRouter das Gros der Anfragen zum Bereich "Roleplay" gehören, wo man also mit der KI zum Spaß chattet, wo meist sofort die Antworten kommen, nehme ich mal 10 Anfragen pro Minute an. Ich glaube, in der Praxis geht da mehr, aber so haben wir eine worst case Abschätzung.
Mein SuperPOD kann damit 1.800.000 Anfragen pro Stunde beantworten, bzw. knapp 16 Mrd pro Jahr.
Was kostet also eine Anfrage? Will ich die Kosten in 5 Jahren (weil man inzwischen schon den Nachfolger BG300 bei Nvidia bestellen kann, obwohl Leute noch gar nicht ihre BG200 bekommen haben) wieder drin haben und meine Investition von $110 Mio mit 25% Rendite zurück bekommen, kostet jede Anfrage 0,172 Cent.
Und der Energiebedarf? 0,56 Wh (9GWh/16Mrd) gemäß meiner kruden Rechnung.
Google selbst behauptet übrigens, dass eine Anfrage bei ihnen 0,24 Wh kostet, was glaubwürdig ist, Gemini auf ihre Spezialchips abgestimmt ist und sie ihre Flash-Modelle nicht ohne Grund so nennen. Auch Amazon behauptet, ihre Inferentia Architektur halbiert die Kosten.
Ich schreibe an diesem Text bereits über eine Stunde und das Licht ist an: 5x4,9W Energiesparlampen macht 24,5Wh oder 44 KI-Anfragen.
Und wenn ich meinen CO2-Footprint klein halten will? Nutze auf jeden Fall nicht Grok! (Nutze am besten gar nix von Musk) Eher etwas, das bei Microsoft gehostet wird, Claude oder Mistral oder ChatGPT. Wie der Footprint bei Google ist, weiß ich nicht. Aber definitiv nicht so schlecht wie bei Musks Unternehmen. Microsoft wollte ja eigentlich schon 2025 Klimaneutral sein und hat das Ziel nach hinten geschoben, weil KI. Tja.
Wenn du noch ein Auto mit Verbrennungsmotor hast, verbrauchst du pro KM das Äquivalent von 600-800 Wh. Und der CO2-Ausstoß ist in jedem Fall höher als bei allem, was Strom erzeugt. Und von Feinstaub wollen wir gar nicht erst reden. Daher ist das hier eine Abschätzung nach unten: Spare also 1 KM Fahrt ein und du kannst dir ohne schlechtes Gewissen 1.200 KI-Anfragen gönnen.
Weil Elektroautos effizienter sind, müsstest du hier auf 3 KM Fahrt verzichten.
Eine Flugreise hin und zurück von Frankfurt nach London hat pro Person eine Energieäquivalenz von ~700kWh (basierend auf dem Energiegehalt des Kerosins und der Angabe der Lufthansa, dass 5,47L/100km pro Passagier verbraucht werden). Dafür kann ich 1,2 Mio KI-Anfragen stellen. Dazu kommt, die CO2-Bilanz bei Kerosin ist in jedem Fall um ein vielfaches schlechter als bei allem, was Strom erzeugt. Wer täglich 1h mit einer KI chattet und 2 Anfragen pro Minute schafft (man muss das ja auch noch lesen und antworten) kann das jetzt 27 Jahre lang machen. Oder einmal nach London fliegen. Ist eine tolle Stadt.
Falls jemand das tatsächlich alles gelesen hat, Danke
Ich hatte jedenfalls Spaß daran, die Zahlen mal herauszusuchen, weil immer mal wieder die Diskussion aufkommt, dass KI so viel Energie verschwendet, ohne dass das irgendwie belegt wird. Und es wird nicht einfacher dadurch, dass sich Infrastruktur-Anbieter sehr bedeckt halten, was den Energieverbrauch angeht und die Flagship-Modellanbieter aufgehört haben, die Größe ihre Modell anzupreisen und auch inzwischen alles Agenten sind, die mehr machen, als einfach eine Antwort errechnen. Und die Technik macht natürlich auch Fortschritte, sodass Zahlen von vor einem Jahr nicht unbedingt mehr gelten müssen.
Ein interessanter Aspekt ist auch, dass KI-Antworten, die Zeit sparen, damit auch Energie sparen. Wenn ich z.B. statt 8h vor meinem Rechner zu sitzen, der sagen wir mal 800Wh dabei verbraucht, jetzt nur 4h brauche, weil ich die in 10min generierte KI-Antwort schneller überprüfe als ich sie selbst schreiben könnte, haben wir 56Wh für die KI-Antwort (hochgerechnet) minus 400Wh für die gesparte Zeit, also 344Wh Energie gespart. Dafür kann ich dann 500m mit dem Auto fahren…