AI's energieverslaving bedreigt de klimaatdoelstellingen
Nieuw onderzoek schat dat AI nu al verantwoordelijk is voor 20% van het elektriciteitsverbruik van datacenters, dit jaar oplopend tot 50%.
Published on May 25, 2025

Medeoprichter van Media52 en hoogleraar Journalistiek, bouwt aan IO+, events en Laio, met focus op commerciële kansen—en blijft schrijven voor IO+.
Kunstmatige intelligentie (AI) zorgt voor een revolutie in onze wereld en maakt alles mogelijk, van virtuele assistenten tot geavanceerde data-analyses. Maar achter de slimme algoritmen schuilt een groeiende zorg: het enorme energieverbruik dat nodig is om deze systemen te trainen en te laten werken. AI is slim, maar is het ook duurzaam als het net zoveel stroom verbruikt als een land? Zelfs met de knapste koppen achter het systeem zijn stroomuitval en black-outs misschien dichterbij dan we denken.
Watt Matters in AI
Dit artikel maakt deel uit van onze Watt Matters in AI serie. Watt Matters in AI is ook een conferentie die tot doel heeft het potentieel van AI met aanzienlijk verbeterde energie-efficiëntie te verkennen. In de aanloop naar de conferentie publiceert IO+ artikelen die de huidige situatie en mogelijke oplossingen beschrijven. Tickets voor de conferentie op 26 november 2025 zijn te vinden op wattmattersinai.eu.
View Watt Matters in AI SeriesRecent onderzoek van Alex de Vries-Gao, oprichter van Digiconomist, benadrukt de escalerende energiebehoefte van AI. Zijn studie, gepubliceerd in Joule, schat dat AI momenteel verantwoordelijk is voor zo'n 20% van het wereldwijde elektriciteitsverbruik van datacenters, wat tegen het einde van dit jaar zou kunnen stijgen tot bijna 50%. Deze groei wordt voornamelijk aangedreven door de wijdverbreide acceptatie van grote taalmodellen zoals ChatGPT, die enorme rekenkracht vereisen.
Om dit in perspectief te plaatsen: het trainen van één groot AI-model kan evenveel elektriciteit verbruiken als het jaarlijkse verbruik van honderden huishoudens, aldus De Vries-Gao. Zijn analyse suggereert dat AI in 2025 tot 82 terawattuur zou kunnen verbruiken, wat overeenkomt met het jaarlijkse elektriciteitsverbruik van Zwitserland. Toch is het trainen van de modellen slechts een klein deel van het probleem. Het grotere verhaal is nu, zeggen MIT Technology Review-journalisten James O'Donnell en Casey Crownhart, wat er na de training gebeurt: inferentie – het realtime proces van het reageren op vragen van gebruikers. “Inferentie is waar het grootste deel van het energieverbruik nu plaatsvindt”, aldus O'Donnell. “Onderzoekers vertelden ons dat 80 tot 90% van de elektriciteit die AI-modellen vandaag de dag verbruiken, naar inferentie gaat, niet naar training.”
Gevolgen voor duurzaamheidsdoelstellingen
De snelle groei van het energieverbruik van AI vormt een grote uitdaging voor duurzaamheid. Techgiganten zoals Google hebben een sterke stijging van de uitstoot van broeikasgassen gemeld, met een stijging van 48% sinds 2019, wat hun doelstellingen voor klimaatneutraliteit bemoeilijkt. Het energie-intensieve karakter van AI belast niet alleen de elektriciteitsnetten, maar vergroot ook de afhankelijkheid van fossiele brandstoffen, wat de inspanningen om klimaatverandering tegen te gaan ondermijnt.
Een van de kritieke punten die De Vries-Gao aanstipt, is het gebrek aan transparantie in de rapportage over het energieverbruik van AI. Zonder nauwkeurige gegevens is het moeilijk om de milieu-impact nauwkeurig te beoordelen of effectieve mitigatiestrategieën te implementeren. Deskundigen zoals Sasha Luccioni van Hugging Face benadrukken het belang van openbaarmaking door bedrijven om de energievoetafdruk van AI te begrijpen en te beheren.
Watt Matters in AI: d conferentie
Watt Matters in AI is een initiatief van Mission 10-X, in samenwerking met de Rijksuniversiteit Groningen, de Universiteit Twente, de Technische Universiteit Eindhoven, Radboud Universiteit en het Convention Bureau Brainport Eindhoven. IO+ is verantwoordelijk voor marketing, communicatie en de organisatie van de conferentie.
Meer informatie op de website van de conferentie.
Naar een duurzame toekomst voor AI
Het aanpakken van het energieverbruik van AI vereist een veelzijdige aanpak, concludeert De Vries-Gao. Het verbeteren van de energie-efficiëntie van AI-modellen, investeren in hernieuwbare energiebronnen voor datacenters en het implementeren van regelgevingskaders voor transparantie zijn essentiële stappen. Bovendien kan het rekening houden met de milieu-impact tijdens het ontwerp en de implementatie van AI-systemen helpen om technologische vooruitgang af te stemmen op duurzaamheidsdoelstellingen.
Naarmate AI zich verder ontwikkelt, is het cruciaal om een evenwicht te vinden tussen de voordelen ervan en onze verantwoordelijkheid voor het milieu. Door de verborgen energiekosten van AI te onderkennen en aan te pakken, kunnen we ervoor zorgen dat innovatie niet ten koste gaat van de gezondheid van onze planeet.
Veel van de artikelen in onze Watt Matters in AI serie gaan in op de potentiële oplossingen, bijvoorbeeld in hardware, software, gedrag of regelgeving.
