Energieverbrauch von KI: Woher soll der Strom für KI kommen?

Datum16.10.2025 17:53

Quellewww.zeit.de

TLDRDer Artikel thematisiert den hohen Energieverbrauch von KI und die Suche nach Geschäftsmodellen der Unternehmen. OpenAI und andere Tech-Konzerne investieren in große Rechenzentren und bauen eigene Gaskraftwerke, um den Energiebedarf zu decken. Mit der Zusammenarbeit mit Walmart und der Entwicklung neuer Funktionen versucht OpenAI, Monetarisierung zu etablieren. Gleichzeitig warnen Experten vor der Verbreitung von minderwertigen KI-Inhalten im Internet. Zudem wurden Fortschritte bei der Entwicklung von KI-generierten Videos und Bildern festgestellt, neugestartet von Google und OpenAI.

InhaltOpenAI versucht sich an Geschäftsmodellen. Unternehmen bauen Gaskraftwerke für ihre Riesen-KIs. Was Sora 2 kann, kann Googles Veo 3.1 jetzt auch. Der KI-Newsletter Sie lesen den KI-Newsletter "Natürlich intelligent" vom 16. Oktober 2025. Um den Newsletter jeden Donnerstag per Mail zu erhalten, melden Sie sich hier an. Schon Ende vergangenen Jahres sollen mehr KI-generierte Artikel im Internet veröffentlicht worden sein als von Menschen geschriebene. Das will die Agentur Graphite herausgefunden haben.  Es ist nicht einfach, zuverlässig zu messen, ob ein Text von einer KI stammt, daher ist eine gewisse Skepsis bei solchen Untersuchungen angebracht. Aber zumindest in der Tendenz scheinen sich gerade viele Menschen einig: Das Internet vermüllt durch KI immer mehr.  Oder, wie Mario Sixtus es in einem wortgewaltigen Essay formuliert: "Das Internet des Jahres 2025 ersäuft jeden Tag mehr in mit KI erzeugtem Bullshit, in sogenanntem AI-Slop, in Fake-Videos, Fake-Bildern und vor allem in fliegenfänger-esquen Texten: endlos lang, schmierig klebrig, frei von Sinn und Botschaft, nur aus dem einzigen Zweck in der Welt, die letzten noch lebenden Wesen im Raum anzulocken und sie so lange festzuhalten, bis sie verenden."  An verschiedenen Stellen haben wir in den vergangenen Wochen und Monaten geschrieben, dass KI-Unternehmen auf der Suche nach einem Geschäftsmodell sind. Denn praktisch alle geben deutlich mehr Geld für Entwicklung und Betrieb der Technik aus, als sie derzeit einnehmen. Große Techkonzerne wie Google und Meta haben Geld aus ihren anderen Geschäften, reine KI-Firmen wie OpenAI oder Anthropic haben Milliarden US-Dollar von Investoren bekommen. In beiden Fällen soll irgendwann das Geld natürlich wieder reinkommen. Insbesondere der ChatGPT-Macher OpenAI probiert gerade viele unterschiedliche Dinge aus, wohl auch, um zu sehen, was besonders lukrativ ist.   Dazu gehört etwa die Idee, ChatGPT für externe App-Entwickler zu öffnen. Apps wie Spotify oder Booking sollen direkt innerhalb des Chatbots bedient werden können. Wer daran auf welche Weise Geld verdient – dazu wollten die OpenAI-Führungskräfte in San Francisco vergangene Woche zwar wenig Konkretes sagen. Man wolle aber mit verschiedenen Ideen zur Monetarisierung herumexperimentieren. Selbst Werbung in ChatGPT erteilte OpenAI-CEO Sam Altman keine Absage, wenn er auch sagte, man gehe mit "großer Vorsicht an Werbung heran".  Eine weitere Ankündigung, mit der OpenAI möglicherweise zahlende Kunden gewinnen und binden möchte, ist, dass der Bot bald erotische Inhalte generieren dürfen soll. Pornografie im Internet ist bekanntlich ein großer Markt mit einer zahlungskräftigen Kundschaft. Elon Musk hat schon länger einen "Spicy"-Modus in seiner KI Grok eingebaut. Nun zieht OpenAI nach.  Und dann ist da die Nachricht, dass OpenAI mit Walmart zusammenarbeiten wird. Der weltgrößte Handelskonzern betreibt vor allem in den USA riesige Supermärkte und einen Onlineshop. Der wird in Zukunft mit ChatGPT verknüpft und man soll direkt aus dem Bot heraus einkaufen können: Lebensmittel, Elektronik, Kleidung – Dinge des alltäglichen Bedarfs eben. Auch andere, kleinere Shops werden dabei mitmachen und zahlen eine Gebühr an OpenAI.  Interessant daran ist auch, wie positiv eine Zusammenarbeit mit OpenAI mittlerweile selbst auf große Konzerne abstrahlt: Der Aktienkurs von Walmart stieg seit der Ankündigung um knapp sieben Prozent auf ein neues Allzeithoch. Dass KI viel Energie braucht, ist schon lange klar. Beim Training der Modelle und für jede Abfrage von Nutzern müssen Hochleistungschips rechnen und gekühlt werden. Neuerdings beziffern KI-Firmen die Größe ihrer geplanten Rechenzentren sogar damit, wie viel Strom diese verbrauchen. Gemessen wird in Gigawatt. Ein Gigawatt, das ist ungefähr so viel Strom, wie ein durchschnittliches Kernkraftwerk produziert.   Eine kleine Auswahl der Gigawatt-Angebereien der vergangenen Wochen: Im vergangenen Jahr habe man "zwei Gigawatt neue Kapazität" zugebaut, schrieb Microsoft-CEO Satya Nadella Ende September, verbunden mit der Ankündigung, bis zum nächsten Jahr das größte Rechenzentrum der Welt bauen zu wollen. Ein einzelnes Rechenzentrum mit der Leistung von fünf Gigawatt will der Facebook-Konzern Meta bauen. Und die größten Superlative kommen natürlich mal wieder von OpenAI. Gigawattweise Rechenkapazität will die Firma gleich mit mehreren Partnern aufbauen: je zehn Gigawatt mit den Chipherstellern Nvidia und Broadcom und noch einmal sechs mit deren Konkurrenz AMD. All das wirft die Frage auf: Woher soll der ganze Strom eigentlich kommen? Eine aktuelle Recherche des Wall Street Journal zeigt: Zunehmend bauen die KI-Firmen ihre eigenen Kraftwerke. Mit Energie vor allem aus fossilen Brennstoffen: Meta etwa setzt bei einem Datencenter in Ohio auf Erdgas, ebenso der erste Teil des gigantischen Infrastrukturprojekts Stargate von OpenAI und Oracle. Auch die Rechenzentren von Elon Musks KI-Firma xAI in Tennessee nutzen Gasturbinen. Sogar die Produktion von Kohlestrom in den USA ist laut einem Bericht des Mediums The Register wegen des Bedarfs der Rechenzentren um 20 Prozent gestiegen. Von erneuerbaren Energien hingegen will man in den USA offenbar nicht mehr viel wissen. KI-Bosse wie Sam Altman argumentieren, die KI werde uns dann schon dabei helfen, die Klimakrise zu lösen. Bleibt nur zu hoffen, dass sie recht haben. Denn bisher sieht es so aus, als ginge die Rechenleistung vor allem für Spaßvideos, Shoppingempfehlungen und Erotikchats drauf. Zugegeben, nach dem vorangegangenen Absatz fröhlich über Video-KI zu schreiben, mag etwas merkwürdig erscheinen. Aber es ist, bei allem Stromverbrauch, eben doch beeindruckend, wie schnell deren Ergebnisse besser werden. Nachdem OpenAI mit Sora 2 vor Kurzem für viel Aufsehen gesorgt hat, hat nun Google eine Zwischenversion seines Modells Veo veröffentlicht. Statt Veo 3 können Nutzerinnen und Nutzer in Googles Tool Flow (und in Drittanbieter-Apps) nun Veo 3.1 verwenden. Das klingt wie ein kleiner Schritt, und in gewisser Hinsicht ist es das wohl auch. Nach wie vor generiert das Modell acht Sekunden lange Clips, inklusive Audiospur. Insbesondere Letzteres war im Mai, als Google Veo 3 vorstellte, eine echte Neuheit. Veo 3.1 soll vor allem Verbesserungen in der Bild- und Tonqualität bringen und sich genauer an Anweisungen halten, heißt es von Google Deepmind. Außerdem gibt es nun verschiedene Varianten des Modells: eine, die auf Schnelligkeit optimiert ist und eine, die länger braucht, aber dafür mehr Qualität liefern soll. Für einen kurzen Test habe ich ein Video von einer Flasche generieren lassen, aus der Wasser in ein Glas mit Eiswürfeln gegossen wird. Ich habe den gleichen Prompt verwendet, den ich auch schon einmal mit Veo 3 verwendet hatte. Mein Eindruck ist: Das neue Video wirkt tatsächlich noch ein bisschen realistischer. Solche Szenen sind für KI eine Herausforderung, weil Menschen einen beinahe unbewussten Blick dafür haben, wie fließendes Wasser und Lichtspiegelungen in Eiswürfeln aussehen. Beim Veo-3-Video dürften viele Betrachter noch das Gefühl haben, dass mit dem Wasser irgendetwas nicht stimmt, zumindest beim mehrfachen Anschauen. Im Veo-3.1-Video, so mein Eindruck, fließt das Wasser natürlicher, auch wenn die Unterschiede subtil sind. Ein ähnlich gutes Ergebnis erzielt Sora 2. Natürlich enthalten auch manche Veo-3.1-Videos Fehler, ebenso wie Sora-2-Clips. Aber so langsam sind wir wohl tatsächlich in einer Realität angekommen, in der man sich zumindest bei kurzen Videos ohne Kontext einfach nicht mehr sicher sein kann.