Selecteer taal

Dutch

Down Icon

Selecteer land

Spain

Down Icon

Hoeveel energie verbruikt AI? De mensen die het weten, zeggen het niet.

Hoeveel energie verbruikt AI? De mensen die het weten, zeggen het niet.
Steeds meer onderzoeken proberen een cijfer te plakken op energieverbruik en AI, terwijl de bedrijven achter de populairste modellen hun CO2-uitstoot geheim houden.
Foto: Bloomberg/Getty Images

"Mensen zijn vaak nieuwsgierig naar hoeveel energie een ChatGPT-query verbruikt", schreef Sam Altman , CEO van OpenAI , vorige week in een lange blogpost . De gemiddelde query, schreef Altman, verbruikt 0,34 wattuur aan energie: "Ongeveer wat een oven in iets meer dan een seconde verbruikt, of een energiezuinige gloeilamp in een paar minuten."

Voor een bedrijf met 800 miljoen wekelijkse actieve gebruikers (en dat aantal groeit nog steeds ) wordt de vraag hoeveel energie al deze zoekopdrachten verbruiken steeds urgenter. Experts zeggen echter dat Altmans cijfers niet veel betekenen zonder meer publieke context van OpenAI over hoe het tot deze berekening is gekomen – inclusief de definitie van wat een 'gemiddelde' zoekopdracht is, of er wel of geen beeldgeneratie bij zit, en of Altman wel of niet extra energieverbruik meetelt, zoals het trainen van AI-modellen en het koelen van de servers van OpenAI.

Sasha Luccioni, klimaatmanager bij AI-bedrijf Hugging Face, hecht dan ook niet al te veel waarde aan Altmans cijfers. "Hij had het zelf kunnen verzinnen", zegt ze. (OpenAI reageerde niet op een verzoek om meer informatie over hoe ze tot dit cijfer zijn gekomen.)

Nu AI ons leven overneemt, belooft het ook onze energiesystemen te transformeren en de CO2-uitstoot te verhogen, terwijl we juist proberen klimaatverandering te bestrijden. Een nieuwe en groeiende hoeveelheid onderzoek probeert nu harde cijfers te geven over hoeveel CO2 we daadwerkelijk uitstoten met al ons AI-gebruik.

Deze inspanning wordt bemoeilijkt door het feit dat grote spelers zoals OpenAi weinig milieu-informatie openbaar maken. Een analyse die deze week door Luccioni en drie andere auteurs ter beoordeling is ingediend, onderzoekt de noodzaak van meer transparantie over het milieu in AI-modellen. In Luccioni's nieuwe analyse gebruiken zij en haar collega's gegevens van OpenRouter , een ranglijst van verkeer van grote taalmodellen (LLM), om te concluderen dat 84 procent van het LLM-gebruik in mei 2025 betrekking had op modellen zonder enige openbaarmaking van milieu-informatie. Dat betekent dat consumenten overwegend kiezen voor modellen waarvan de milieu-impact volledig onbekend is.

"Ik vind het verbijsterend dat je een auto kunt kopen en weet hoeveel kilometer hij per gallon verbruikt, maar dat we al die AI-tools dagelijks gebruiken en absoluut geen efficiëntiecijfers, emissiefactoren, niets hebben", zegt Luccioni. "Het is niet verplicht, het is niet wettelijk vastgelegd. Gezien de huidige klimaatcrisis zou het bovenaan de agenda van regelgevers overal moeten staan."

Door dit gebrek aan transparantie, zegt Luccioni, wordt het publiek blootgesteld aan schattingen die nergens op slaan, maar die als heilig worden beschouwd. Je hebt bijvoorbeeld misschien gehoord dat een gemiddelde ChatGPT-aanvraag tien keer zoveel energie kost als een gemiddelde Google-zoekopdracht. Luccioni en haar collega's ontlenen deze bewering aan een publieke opmerking van John Hennessy, de voorzitter van Alphabet, het moederbedrijf van Google, uit 2023.

Een bewering van een bestuurslid van een bedrijf (Google) over het product van een ander bedrijf waarmee hij geen relatie heeft (OpenAI) is op zijn best zwak – maar uit Luccioni's analyse blijkt dat dit cijfer keer op keer wordt herhaald in de pers en beleidsrapporten. (Terwijl ik dit stuk schreef, kreeg ik een pitch met precies deze statistiek.)

"Mensen hebben een spontane opmerking opgepikt en er een echte statistiek van gemaakt die het beleid en de manier waarop mensen naar dit soort dingen kijken, beïnvloedt", zegt Luccioni. "Het echte kernprobleem is dat we geen cijfers hebben. Dus zelfs de berekeningen op de achterkant van een servet die mensen kunnen vinden, worden vaak als de gouden standaard beschouwd, maar dat is niet het geval."

Een manier om een ​​kijkje achter de schermen te nemen voor nauwkeurigere informatie, is door te werken met open-sourcemodellen. Sommige techgiganten, waaronder OpenAI en Anthropic, houden hun modellen bedrijfseigen, wat betekent dat externe onderzoekers hun energieverbruik niet onafhankelijk kunnen verifiëren. Andere bedrijven maken echter delen van hun modellen openbaar, waardoor onderzoekers hun uitstoot nauwkeuriger kunnen meten.

Een studie, gepubliceerd donderdag in het tijdschrift Frontiers of Communication, evalueerde 14 open-sourcemodellen voor grote talen, waaronder twee Meta Llama-modellen en drie DeepSeek-modellen, en ontdekte dat sommige tot wel 50 procent meer energie verbruikten dan andere modellen in de dataset die reageerden op vragen van de onderzoekers. De 1000 benchmarkvragen die aan de LLM's werden voorgelegd, bevatten vragen over onderwerpen zoals geschiedenis en filosofie op de middelbare school; de helft van de vragen was geformuleerd als meerkeuzevragen, met slechts één-woordantwoorden beschikbaar, terwijl de andere helft was geformuleerd als open vragen, wat een vrijere opzet en langere antwoorden mogelijk maakte. Redeneermodellen, zo ontdekten de onderzoekers, genereerden veel meer denktokens – metingen van intern redeneren die in het model werden gegenereerd tijdens het produceren van het antwoord, wat een kenmerk is van meer energieverbruik – dan meer beknopte modellen. Deze modellen waren, misschien niet verrassend, ook nauwkeuriger bij complexe onderwerpen. (Ook hadden ze moeite met de beknoptheid: tijdens de fase van de meerkeuzevragen bijvoorbeeld, gaven de complexere modellen vaak antwoorden met meerdere tokens, ondanks de expliciete instructie om alleen te antwoorden uit het aanbod van gegeven opties.)

Maximilian Dauner, promovendus aan de Hogeschool voor Toegepaste Wetenschappen in München en hoofdauteur van de studie, zegt dat hij hoopt dat het gebruik van AI zich zal ontwikkelen tot een manier om na te denken over hoe we energiezuinigere modellen efficiënter kunnen inzetten voor verschillende vragen. Hij ziet een proces voor zich waarbij kleinere, eenvoudigere vragen automatisch worden doorgestuurd naar energiezuinigere modellen die nog steeds nauwkeurige antwoorden geven. "Zelfs kleinere modellen kunnen echt goede resultaten behalen bij eenvoudigere taken, en stoten daarbij niet zo'n enorme hoeveelheid CO2 uit", zegt hij.

Sommige techbedrijven doen dit al. Google en Microsoft hebben eerder aan WIRED laten weten dat hun zoekfuncties waar mogelijk kleinere modellen gebruiken, wat ook snellere antwoorden voor gebruikers kan betekenen. Maar over het algemeen hebben modelaanbieders weinig gedaan om gebruikers aan te sporen minder energie te verbruiken. Hoe snel een model een vraag beantwoordt, heeft bijvoorbeeld een grote impact op het energieverbruik – maar dat wordt niet uitgelegd wanneer AI-producten aan gebruikers worden gepresenteerd, zegt Noman Bashir, Computing & Climate Impact Fellow bij het Climate and Sustainability Consortium van MIT.

"Het doel is om al deze informatie zo snel mogelijk te verstrekken, zodat je hun platform niet hoeft te verlaten", zegt hij. "Als ChatGPT je na vijf minuten ineens een reactie geeft, ga je naar een andere tool die je wel direct een reactie geeft."

Er zijn echter talloze andere overwegingen om rekening mee te houden bij het berekenen van het energieverbruik van complexe AI-query's. Het is namelijk niet alleen theoretisch – de omstandigheden waaronder query's in de praktijk worden uitgevoerd, zijn van belang. Bashir wijst erop dat fysieke hardware een verschil maakt bij het berekenen van emissies. Dauner voerde zijn experimenten uit op een Nvidia A100 GPU, maar Nvidia's H100 GPU – die speciaal is ontworpen voor AI-workloads en die volgens het bedrijf steeds populairder wordt – is veel energie-intensiever.

Fysieke infrastructuur speelt ook een rol als het om emissies gaat. Grote datacenters hebben koelsystemen, verlichting en netwerkapparatuur nodig, die allemaal meer energie verbruiken; ze draaien vaak volgens dagcycli, met een pauze 's nachts wanneer er minder vraag is. Ze zijn ook aangesloten op verschillende soorten netwerken – netwerken die overwegend op fossiele brandstoffen draaien versus netwerken die op hernieuwbare energiebronnen draaien – afhankelijk van hun locatie.

Bashir vergelijkt studies die kijken naar emissies van AI-query's zonder rekening te houden met de behoeften van datacenters met het optillen van een auto, gas geven en het tellen van de omwentelingen van een wiel als manier om een ​​brandstofefficiëntietest uit te voeren. "Je houdt geen rekening met het feit dat dit wiel de auto en de passagier moet dragen", zegt hij.

Misschien wel het meest cruciaal voor ons begrip van de uitstoot van AI is dat open-sourcemodellen zoals die welke Dauner in zijn onderzoek gebruikte, slechts een fractie vertegenwoordigen van de AI-modellen die consumenten tegenwoordig gebruiken. Het trainen van een model en het updaten van geïmplementeerde modellen kost enorm veel energie – cijfers die veel grote bedrijven geheim houden. Het is bijvoorbeeld onduidelijk of de gloeilampstatistiek over ChatGPT van Altman van OpenAI alle energie meerekent die nodig is om de modellen te trainen die de chatbot aandrijven. Zonder verdere openbaarmaking mist het publiek simpelweg veel van de informatie die nodig is om te begrijpen hoeveel impact deze technologie op de planeet heeft.

"Als ik een toverstaf had, zou ik het verplicht stellen voor elk bedrijf dat een AI-systeem in productie neemt, waar dan ook ter wereld, in welke toepassing dan ook, om koolstofgetallen openbaar te maken", zegt Luccioni.

Paresh Dave leverde een bijdrage aan de berichtgeving.

wired

wired

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow