Trainen van AI-systemen vergt enorme hoeveelheden elektriciteit en water

Nieuws

De ecologische kosten van artificiële intelligentie

Trainen van AI-systemen vergt enorme hoeveelheden elektriciteit en water

Trainen van AI-systemen vergt enorme hoeveelheden elektriciteit en water
Trainen van AI-systemen vergt enorme hoeveelheden elektriciteit en water

IPS / Thomson Reuters News Foundation / Adam Smith

23 augustus 2023

Nu kunstmatige intelligentie zich in een razend tempo ontwikkelt, staan 's werelds grootste techbedrijven steeds meer onder druk om de milieu- en klimaatimpact ervan aan te pakken. AI-systemen zoals ChatGPT verbruiken namelijk grote hoeveelheden elektriciteit en water.

CommScope (CC BY-NC-ND 2.0)

Datacenters zijn grote energieverbruikers. © CommScope (CC BY-NC-ND 2.0)

Techgiganten zoals Amazon, Google en Microsoft verlenen lippendienst aan de transitie naar een koolstofarme economie, maar klimaatexperts zeggen dat de sector niet voldoende doet om het immer stijgende verbruik van stroom en water in te dammen.

In het laatste milieurapport van Google werd bijvoorbeeld duidelijk dat het bedrijf in 2022 5,6 miljard liter water verbruikt heeft. Dat is een stijging van 1,3 miljard liter ten opzichte van 2021 en 2,2 miljard ten opzichte van 2020. Het verbruik in 2022 komt overeen met ongeveer 10 dagen water voor de hele stad Londen.

Ook de broeikasgasemissies van Google, afkomstig van de inkoop van stroom en warmte, zijn met 37 procent gestegen tussen 2021 en 2022.

Dit is hoe de opmars van AI bijdraagt aan het wereldwijde watertekort en de opwarming van de aarde.

Hoeveel water heeft AI nodig?

De ontwikkeling van AI heeft geleid tot een enorme toename in watergebruik. Bij het trainen van AI-modellen worden enorme hoeveelheden gegevens ingevoerd in algoritmen. Die zogenaamde Large Language Models (LLM’s) hebben grote hoeveelheden rekenkracht nodig, en vereisen dus krachtige hardware.

De ontwikkeling van AI heeft geleid tot een enorme toename in watergebruik.

Microsoft verbruikte in 2022 bijna 1,7 miljard liter water voor zijn activiteiten, een stijging van ongeveer 34 procent ten opzichte van 2021. Dat staat te lezen het meest recente milieurapport van het bedrijf

Uit recent onderzoek van de University of California in april bleek dat alleen al het trainen van GPT-3, het taalmodel dat werd gebruikt om ChatGPT aan te drijven, in Microsofts Amerikaanse datacenters 700.000 liter zoet water verbruikte.

‘ChatGPT moet een fles water van 500 ml “drinken” voor een eenvoudige conversatie van ruwweg 20-50 vragen en antwoorden, afhankelijk van wanneer en waar ChatGPT wordt ingezet’, schreven de onderzoekers.

‘Deze cijfers zullen waarschijnlijk veelvoudig toenemen voor de onlangs gelanceerde GPT-4, dat werkt op een veel groter taalmodel’, zo staat er te lezen.

Het intensieve watergebruik van de technologische industrie komt op een moment dat de wereldwijde vraag stijgt en de voorraden slinken.

De Verenigde Naties hebben voorspeld dat de behoefte aan water in 2030 zo’n 40 procent groter zal zijn dan het aanbod. Het aantal mensen dat leeft in steden met waterschaarste zal stijgen van 930 miljoen in 2016 tot naar schatting 1,7 tot 2,4 miljard in 2050.

Google is van plan om een datacenter te bouwen in de Uruguayaanse hoofdstad Montevideo. Dit voedt de angst over het waterverbruik aangezien het land te kampen heeft met de ergste droogte in 74 jaar.

Een woordvoerder van de zoekgigant vertelt ons dat het ‘datacenterproject zich nog in de verkennende fase bevindt en dat ons technische team actief werkt met de steun van de nationale en lokale autoriteiten om dit in goede banen te leiden’.

Tegen 2030 wil het bedrijf 120 procent van het zoetwater dat het verbruikt aanvullen door te investeren in projecten die bronnen, rivieren of meren herstellen of behouden. In 2022 werd nog maar 6 procent aangevuld, aldus het rapport.

Waarom vereist AI zoveel energie?

Het ontwikkelen van AI-systemen kost steeds meer rekenkracht, waardoor het energieverbruik en de daarmee gepaard gaande CO2-uitstoot toeneemt.

Het ontwikkelen van AI-systemen kost steeds meer rekenkracht, waardoor het energieverbruik en de daarmee gepaard gaande CO2-uitstoot toeneemt.

OpenAI, dat samenwerkt met Microsoft aan ChatGPT en andere AI-modellen, schat dat de hoeveelheid rekenkracht die wordt gebruikt bij het trainen van de grootste modellen meer dan 300.000 keer zo groot is geworden in vergelijking met 2012.

Amazon, Microsoft, Google en Meta hebben hun gecombineerde energieverbruik tussen 2017 en 2021 meer dan verdubbeld, tot ongeveer 72 terawattuur (TWh) in 2021, volgens het Internationaal Energieagentschap (IEA). Dat komt overeen met ongeveer een kwart van alle energie die het Verenigd Koninkrijk in 2022 verbruikte.

De ICT-sector stoot tussen 2 en 4 procent uit van de totale CO2-uitstoot wereldwijd, volgens onderzoek uit 2020 van Lancaster University.

‘Dat is niet onbelangrijk, maar het is ook niet apocalyptisch… het is een “middelgroot probleem”’, schreef Anne Pasek, een klimaatonderzoeker aan de Canadese Trent University, in een onlangs gepubliceerd online magazine over datacenters.

‘Maar hoe je het ook bekijkt, als de sector gelijke tred wil houden met de bredere klimaatverplichtingen van het Klimaatakkoord van Parijs, zal het roer om moeten en de uitstoot moeten verminderen’, voegde ze eraan toe. ‘Dat vereist een verandering van normen en gewoonten - zowel bij consumenten als bij spelers in de sector.’

Wat zijn de mogelijke oplossingen?

Het is mogelijk dat AI minder gebruikt wordt eens bedrijven klaar zijn met het experimenteren met nieuwe instrumenten zoals ChatGPT, zegt Ayse Coskun, een professor technologie aan de Boston University.

‘Bedrijven moeten verantwoording afleggen, we hebben meer transparante rapportage van CO2-impact nodig en meer innovatie om het hele energiesysteem te optimaliseren.’

Ze zouden dan kunnen bepalen voor welke gebieden complexe modellen nodig zijn en waar eenvoudigere modellen volstaan, zegt ze.

‘Mensen beginnen daarover na te denken: Moet ik echt met een grote hamer op deze kleine spijker slaan, of kan ik misschien ook gewoon een schroevendraaier gebruiken’, legt Coskun uit.

Toch zijn er misschien radicalere benaderingen nodig om ervoor te zorgen dat bedrijven zich ontwikkelen in lijn met de klimaatdoelstellingen, zeggen experts.

‘We moeten energie-efficiëntie en een lagere CO2-voetafdruk niet langer zien als een “toegevoegde waarde”, maar als een eerste vereiste voor elk computersysteem, vooral voor grootschalige datacenters’, voegt Coskun eraan toe.

‘Bedrijven moeten verantwoording afleggen, we hebben meer transparante rapportage van CO2-impact nodig en meer innovatie om het hele energiesysteem te optimaliseren.’

Dit artikel is oorspronkelijk verschenen bij IPS-partner Thomson Reuters News Foundation.