OpenAI-sjef Sam Altman tok nylig til sosiale medier for å minne omverdenen på at mennesker selv er energikrevende skapninger. I en kortfattet, men omdiskutert uttalelse, påpekte Altman at det også krever store mengder energi å oppdra og utdanne et menneske — et innlegg som tydelig var ment som et svar på den tiltagende kritikken mot kunstig intelligensindustriens enorme strømforbruk, ifølge TechCrunch.

Hva koster det å trene en AI-modell?

Tallene for energiforbruket til store språkmodeller er betydelige. Trening av GPT-3, som har 175 milliarder parametere, skal ha krevd anslagsvis 1 287 MWh strøm og generert rundt 502 tonn CO₂-ekvivalenter. Det tilsvarer det årlige strømforbruket til omtrent 130 amerikanske husholdninger.

For GPT-4, som er langt mer kompleks, er anslaget dramatisk høyere: over 50 000 MWh, med et karbonavtrykk som potensielt er ti til hundre ganger større enn forgjengeren, ifølge tilgjengelig forskningsdata.

50 000 MWh
Anslått strømforbruk for GPT-4-trening
502 tonn
CO₂-ekvivalenter fra GPT-3-trening

I tillegg til selve treninga er det løpende driftsforbruket betydelig. Hvert enkelt søk til ChatGPT bruker anslagsvis 0,34 Wh. Hvis tjenesten håndterer én milliard forespørsler daglig, gir det et årlig forbruk på rundt 124 GWh — pluss vannforbruk til kjøling.

Altman: Det krever også mye energi å trene et menneske

Hva koster det å «trene» et menneske?

Altmans poeng er ikke helt uten grunnlag, selv om det er vanskelig å sette presise tall på det. Ifølge Det internasjonale energibyrået (IEA) vil et barn født på 1950-tallet forårsake rundt 350 tonn CO₂ i løpet av livet. For barn født på 2020-tallet, under et netto null-scenario innen 2050, er anslaget nede i 34 tonn CO₂.

Verdens gjennomsnittlige energiforbruk per person lå i 2018 på 79 gigajoule per år — i USA var det nærmere 284 gigajoule. Over et helt liv summerer dette seg til svært store tall.

Det krever også mye energi å trene et menneske.

Direkte sammenligninger mellom menneskelig livsløpsenergi og AI-trening er metodisk krevende, ettersom datakildene måler svært ulike ting. Menneskelig energibruk inkluderer mat, transport, bolig, helsetjenester og forbruksvarer over flere tiår, mens AI-trening er en avgrenset, industriell prosess.

Altman: Det krever også mye energi å trene et menneske

En defensiv, men ikke meningsløs sammenligning

Kritikere vil hevde at Altmans innlegg er et retorisk grep for å avlede oppmerksomheten fra en industri med raskt voksende klimaavtrykk. Det er ikke urimelig: energiforbruket til datasentre globalt øker kraftig i takt med AI-boom-en, og sektoren står overfor tiltagende press fra både myndigheter og investorer.

Energiforbruket til AI-sektoren vokser raskere enn noen effektiviseringsgevinster klarer å kompensere for

Samtidig peker Altmans innlegg på en legitim pointe i den bredere debatten: energiforbruk alene er ikke nødvendigvis et argument mot en teknologi, men spørsmålet om nytte kontra kostnad er relevant å stille — for menneskelig aktivitet så vel som for kunstig intelligens.

Forskere arbeider med å gjøre trening av AI-modeller mer effektivt. Rammeverk som Zeus, utviklet ved University of Michigan, skal kunne redusere energibehovet med opptil 75 prosent uten ny maskinvare, og modelkomprimering kan gi innsparinger på opp til 44 prosent.

Debatten fortsetter

Altmans utspill er symptomatisk for en industri som i økende grad tvinges til å forsvare sitt ressursbruk overfor en skeptisk offentlighet. At OpenAIs toppsjef velger å trekke paralleller til menneskelig energibruk fremfor å presentere konkrete klimaplaner, vil neppe dempe kritikken — men det setter søkelys på at energidebatten rundt AI er langt mer kompleks enn enkle overskrifter ofte tilsier.