Hoe kunnen we AI duurzaam trainen en gebruiken?

De wereld is gefascineerd door de mogelijkheden van AI, met name de geavanceerde taalmodellen van Chat-GPT. Ineens lijken we in een stroomversnelling te zijn geraakt. Al die servers die in een koortsachtig tempo werken om de dorst naar kunstmatige intelligentie te lessen, vragen echter wel om een enorme hoeveelheid rekenkracht, energie en water.  

De vooruitgang is niet tegen te houden, en waarom zouden we dat willen? Het opent deuren naar mogelijkheden die ons leven aangenamer maken. Toch is dit hét moment om goed na te denken over hoe we al die slimme AI kunnen trainen en inzetten, zonder onze planeet verder te belasten. Want dat kan. En ook als bedrijf kun je daar aan bijdragen door een bewuste keuze te maken.  

De CO2-uitstoot van een training van een AI-model

Om je een idee te geven waar we het over hebben: de training van GPT-3 vereiste 1.3 gigawatt uur aan elektriciteit, wat gelijk staat aan het verbruik van 121 huishoudens in Amerika per jaar. Hiervoor was 700.000 liter water nodig, dezelfde hoeveelheid als in een koeltoren van een kernreactor gaat. De training creëerde 502 ton CO2-uitstoot, het equivalent van de uitstoot van 110 Amerikaanse auto in een jaar.  

GPT-4 zal vele malen meer uitstoot veroorzaken. Niet alleen qua training maar ook in verbruik: GPT-3 kan 2.048 tokens per aanvraag verwerken, GPT-4 maar liefst 32.000. Dat vereist exponentieel meer rekenkracht en dus energie en water. Hoeveel weten we niet, omdat OpenAI en Microsoft niet heel transparant zijn hierin. Analisten van MorganStanley zeggen niet verbaasd te zijn als de training van GPT-4 gelijk zou staan aan de totale CO2-uitstoot van een klein land. Omdat we niet weten waar het AI-model is getraind, kunnen experts het waterverbruik niet inschatten. Het maakt nogal een verschil of dat in de USA is gebeurd of in het minder energie-efficiënte datacenter in Azië. In het laatste geval kost de training namelijk drie keer zoveel water.  

Hoeveel flessen water kost een ChatGPT-aanvraag?

En dan hebben we het alleen nog maar over de training. Volgens onderzoekers is dat slechts 40% van het energieverbruik ten opzichte van het daadwerkelijk verbruik van de AI-modellen. Een gemiddeld gesprek met Chat-GPT komt in feite neer op het leeggooien van een grote fles vers water, volgens recent onderzoek. Gezien de populariteit van Chat-GPT zijn dat heel veel flessen water die een behoorlijke impact hebben op de watervoorraad van moeder Aarde.

Ook de grote cloudproviders merken de toename aan rekenkracht en energieverbruik. Google meldde in 2021 dat kunstmatige intelligentie 10 tot 15% van het totale elektriciteitsverbruik van het bedrijf uitmaakte: zo’n 2,3 terawattuur. Dat is ongeveer evenveel elektriciteit als alle huizen in een stad ter grootte van Atlanta in 1 jaar verbruiken. Met de ontwikkelingen sinds 2021 zal dit verbruik wel flink zijn toegenomen.

Energievreter nr. 3: wat doet dit AI-model?

Behalve training en verbruik is er een derde trend in AI die energie vraagt. AI wordt steeds meer een black box omdat het zelflerend is. Daarom zal mechanistische interpretatie nodig zijn om te ontcijferen wat de AI-modellen doen. Aangezien die modellen steeds ingewikkelder worden, vereist die interpretatie ook steeds meer rekenkracht. We hebben dus niet alleen energie nodig om AI slimmer te maken maar ook om bij te houden wat er nu precies gebeurt.  

Hoe gaan we AI verantwoord gebruiken?

De ontwikkeling van AI is niet te stoppen. De training en het gebruik van AI zal een steeds grotere voetprint veroorzaken als we hier geen slimme keuzes in maken. Zolang er geen restricties van bovenaf worden opgelegd waar we AI wel en niet voor mogen gebruiken, moet je als bedrijf zelf bewuste keuzes maken. Een belangrijk verschil in de duurzaamheid van AI is via welk datacenter de AI wordt getraind en verbruikt. Zo heeft een datacenter dat zijn elektriciteit haalt uit een kolen- of aardgas veel hogere emissies dan een datacenter dat stroom haalt uit zonne- of windparken.

OpenAI en Microsoft zijn zich bewust van de impact. Een woordvoerder van OpenAI zegt in een verklaring dat ze samen met Azure (Microsoft), waarop ChatGPT draait, bewust eraan werken om de voetprint van de ontwikkeling en het gebruik van ChatGPT zo klein mogelijk te houden. Het is echter niet duidelijk hoe moederbedrijf Microsoft de CO2-emmissie meet, omdat hier nog geen standaarden voor zijn.  

Lees hier meer over de noodzaak voor Europese standaard meetmethodes voor CO2-uitstoot.

Bovendien blijkt dat, ondanks alle goede bedoelingen, het de grote cloudaanbieders vaak nog niet lukt om de warmte die ze opwekken, te hergebruiken.  

Meer IT-verbruik maar dan zonder voetprint

Wil je als bedrijf duurzaamheid echt integreren in je bedrijfsmodel, dan moet je ook je IT-verbruik meenemen in je plannen, inclusief de verwachte toename vanwege AI. Door te kiezen voor een groene cloudprovider minimaliseer je het energie- en waterverbruik van AI-training en -verbruik.  

Leafcloud, de groenste cloudprovider van Nederland, biedt CO2-negatieve clouddiensten aan en hergebruikt 85% van de energie. We plaatsen onze servers in gebouwen (Leafsites) waar we direct aansluiten op de warmwatervoorziening. Onze servers draaien op groene energie, die we vervolgens hergebruiken voor warm tapwater in het gebouw. Een keer energie voor twee doelen dus. Plus, geen nieuwbouw en geen verloren warmte omdat deze ver moet reizen.  

Zo besparen we per Leafsite jaarlijks tot 1.691 ton CO2-uitstoot. Met de toename in AI wordt het belang hiervan alleen maar groter. Hoe meer bedrijven zich aansluiten op dit concept en hun modellen duurzaam trainen, des te groter het verschil dat we samen maken. Bovendien hoef je als bedrijf met het Leafcloud concept niet in te leveren op je IT-verbruik om toch duurzaam te zijn!  

Meer weten over onze clouddiensten? Mail of bel ons, dan bekijken we samen de mogelijkheden en wat het verschil in CO2-uitstoot is voor jouw bedrijf.