Nvidia, het bedrijf dat praktisch een monopolie heeft op de computersystemen die worden gebruikt voor diensten als ChatGPT, kondigde onlangs aan om de productie voor hun hardware volgend jaar verder op te voeren. De opkomst van kunstmatige intelligentie (AI) heeft namelijk geleid tot een boost in de vraag naar hun GPU's. Die ontwikkeling heeft consequenties, zowel financieel als voor het milieu. Als we iets hebben geleerd van de CO2-uitstoot door fossiele brandstoffen en hoe moeilijk het is om zaken terug te draaien, dan is het nu de hoogste tijd om te werken aan duurzame AI-training en -toepassing. In deze blog kijken we naar de consequenties voor datacenters maar ook hoe je zelf impact hebt op de milieubelasting van AI.
Nieuwe infrastructuur voor datacenters
Jensen Huang, Nvidia’s CEO, verwacht dat datacenters de komende 4 jaar ruim $1 triljoen moeten investeren om hun infrastructuur aan te passen, om goed om te gaan met de vereisten die AI stelt. Het gros van deze kosten zullen Amazon, Google, Microsoft en Meta dragen. En daartoe zijn ze graag bereid. Mark Zuckerberg zei daarover: “Investments that we've made over the years in AI, including the billions of dollars we've spent on AI infrastructure, are clearly paying off across our ranking and recommendation systems and improving engagement and monetization.”. Kortom, het levert genoeg op. Ze kunnen ook niet achterblijven want dan verliezen ze de concurrentiestrijd. Volgens Huang zitten datacenters op dit moment in een transitieproces. Er zijn op hetzelfde moment 2 ontwikkelingen gaande: accelerated computing en generative AI. De eerste ontwikkeling maakt de tweede mogelijk. Accelerated computing is meer kosten- en energie-effectief, legt hij uit. Maar staat dit in verhouding met de vraag naar AI nu en in de toekomst? Want inmiddels heeft AI een nare bijsmaak. De training van AI-modellen en alle -aanvragen zuipen energie en water. In hoeverre gaan de hyperscalers dat compenseren?
Milieu-impact van AI
Jaren hebben de hyperscalers digitalisering als een milieuvriendelijke optie gepresenteerd. Maar de energieverslindende GPU's die worden gebruikt om AI-modellen te trainen in nieuwe datacenters verbruiken enorme hoeveelheden elektriciteit en water. Het datacenter-imperium van Amazon in Noord-Virginia kan meer elektriciteit verorberen dan het hele elektriciteitsnet dat de elektriciteitsmaatschappij van hun thuisstad Seattle beheert. De datacenters van Google verbruikten in 2022 5,2 miljard liter water, een stijging van 20% ten opzichte van een jaar eerder. En ook Meta's Llama 2-model heeft grote dorst. Zeker omdat de nieuwe datacenters in het hete en droge Arizona gebouwd worden. Om dit te compenseren doen de grote partijen toezeggingen. Microsoft belooft dat hun datacenters in Arizona meer dan de helft van het jaar geen water zullen gebruiken. En Google heeft als doel gesteld om tegen 2030 120% van het zoetwater dat hun kantoren en datacenters gebruikt, aan te vullen. Of accelerated computing echt energie-effectiever is, is de vraag. Een rapport van Cowen spreekt dit tegen. Zij schatten in dat AI vijf keer meer energie vraagt van datacenters dan traditionele computing. Volgens Shaolei Ren, een onderzoeker bij UC Riverside, verbruikt een reguliere cloudserver 300 tot 500 watt en een AI-server met Nvidia GPU's 2 kilowatt. Kortom, AI wordt een steeds groter gevaar voor het milieu, als we niet nu werken aan een duurzame benadering van AI.
Voorwaarden voor duurzame AI
We kunnen er niet omheen dat AI een ontwikkeling is die niet meer terug te draaien is. Dat is ook niet wenselijk, want het kan ook bijdragen aan een betere en duurzame toekomst. Om AI zelf duurzaam te maken, zijn een aantal zaken vereist:
- Effectievere training van AI-modellen die minder water en energie vereist.
- Een standaardmeetmethode voor CO2-uitstoot, en onafhankelijke auditing, zodat bedrijven datacenters kunnen vergelijken op milieubelasting.
- Rapportageverplichting over andere milieuvervuilende metrics voor datacenters.
- Stimulans (financieel) om duurzamer te opereren voor datacenters en bedrijven.
- Afspraken over toepassingen van AI bij bedrijven en organisaties: wanneer zijn de baten hoger dan de kosten?
- Kritische beoordeling waar nieuwe AI-datacenters worden gebouwd. Zijn nieuwe datacenters nodig? En hoe is de watervoorziening in die gebieden? Vereist een datacenter op een dorre plek als Arizona niet nog meer water dan een gebied waar meer regen valt?
Een duurzaam datacenter bestaat al!
De techreuzen worden vooral gestimuleerd door hun waarde op de beurzen. Zolang aandeelhouders meer kijken naar geld dan naar duurzaamheid, en de overheid geen regels oplegt, zal voor hen de motivatie onvoldoende zijn om duurzaam te opereren. Daarom willen we beleidsmakers en aandeelhouders oproepen om duurzaamheid te waarderen en te beoordelen. En er bestaan goede alternatieven! Leafcloud bijvoorbeeld, is een cloudprovider dat servers plaatst in bestaande gebouwen met een centrale warmtevoorziening. Op die manier kan praktisch alle restwarmte worden hergebruikt als warm tapwater. Dat betekent minder fossiele brandstoffen voor de gebruikers en (groene) energie die twee keer wordt gebruikt: een keer als input voor de servers en de tweede keer voor het warme water voor bewoners. Dus én minder energie én minder uitstoot. Bovendien is er geen nieuwbouw nodig, wat ook nog eens voor minder CO2-uitstoot zorgt. Het kan dus wel. Daarom willen we iedereen oproepen om na te denken over duurzame AI-training en -toepassing. Niet alleen beleidsmakers en aandeelhouders, maar ook bedrijven. Hebben jullie bijvoorbeeld intern afspraken over waar AI wel en niet voor gebruikt mag worden? Kan het misschien bewuster? En hoe groen is jullie cloudprovider?