Energiforbruget til AI eksploderer: Her er tre bud på bekæmpelse af teknologiens skjulte bagside
Generativ AI
Imens udviklingen af kunstig intelligens buldrer derudad, EU vedtager AI-regler, og regeringen nedsætter en digital taskforce til at udbrede teknologien i samfundet, arbejder forskere både i Danmark og udlandet for at løse en ufortalt konsekvens af udviklingen.
Nemlig det enorme energiforbrug til udvikling og drift af de store sprogmodeller, der ligger bag tjenester som ChatGPT og Dall-E.
En enkelt prompt i ChatGPT kan for eksempel kræve samme mængde energi som op til 40 iPhone-opladninger, og derfor arbejder forskere rundt om i verden på højtryk for at finde ud af, hvordan virksomheder som Meta, Google og OpenAI, der står bag store sprogmodeller, kan nedbringe energiforbruget.
Månedlige energirapporter
Raghavendra Selvan forsker i maskinlæring på Datalogisk Institut ved Københavns Universitet (DIKU), og hans hold har gang i et forsøg, hvor personer tilknyttet KU får månedlige rapporter om, hvor meget energi deres computer har brugt.
»Vi prøver det af med et pilotprojekt pÃ¥ DIKU, blandt andet fordi vi har computerressourcerne til det. Vi vil gerne sende brugerne mÃ¥nedlige opdateringer om deres computeres klimaaftryk for at se, om det ændrer deres adfærd,« siger han og tilføjer:
»Jeg synes, at den information bør præsenteres for dem (forbrugerne, red.). Det er helt fint, at vi er spændte pÃ¥ den nye teknologi, men der er behov for, at brugerne har alle oplysningerne.«
Han uddyber, at håbet på sigt er, at virksomheder som OpenAI, der står bag AI-systemerne DALL-E og ChatGPT, vil implementere en funktion, der viser brugerne en notifikation om energiforbruget ved at indsende en prompt.
»Jeg tror, at det kan være med til at ændre brugernes adfærd, for lige nu er de oplysninger fuldstændig skjulte. De ved ikke, hvor meget energi det koster bÃ¥de at drifte og træne de her modeller,« lyder det fra forskeren.
Er det din fornemmelse, at virksomhederne overhovedet er interesserede i det? De er nok meget fokuserede på eksempelvis systemernes kvalitet.
»Og det er ogsÃ¥ helt fint. Der er nok behov for regulering, sÃ¥ ansvaret ikke kun ligger hos brugerne, og sÃ¥ virksomhederne ikke kan slippe af sted med at være uigennemsigtige.«
Mindre nøjagtige modeller
I USA oplever Amin Karbasi, der er professor i datalogi ved Yale University, en velvilje fra en af verdens største tech-virksomheder, Google. Han samarbejder med tech-giganten for at gøre sprogmodeller mere energieffektive – blandt andet ved at gøre dem mindre nøjagtige.
Det kan lyde spøjst, at Google arbejder på en løsning for at gøre systemer mindre nøjagtige, men ifølge professoren er det ofte tilstrækkeligt.
»Det er ofte godt nok i forhold til, at systemet skal kunne generere det næste ord i en sætning og for, at det sker korrekt. Meget ofte har man ikke brug for de nøjagtige beregninger,« siger han og uddyber:
»MÃ¥den, vi gør det pÃ¥, er, at man beder computeren om at lave anslÃ¥ede beregninger i stedet for nøjagtige beregninger, og det kan nedbringe antallet (af beregninger, red.) rigtig meget.«
Det er især træningen af AI-modellerne, der skal bruge en enorm mængde energi på grund af de mange beregninger, de kræver for at kunne lære. Så hvis man nedbringer antallet af beregninger, kan man energieffektivisere hele processen – også driftsfasen, uddyber han.
Risikerer det ikke at sænke kvaliteten af outputtet?
»Ideen med det er, at der er nogen, der har trænet en model – for eksempel Llama fra Google. Det kræver rigtig lang tid og meget energi at træne den og kan koste flere hundredtusinder dollar. Hvis man vil have den til at lave anslÃ¥ede beregninger, kan det sænke kvaliteten af outputtet med mÃ¥ske fire procent. Men hvis man gÃ¥r tilbage og træner systemet en lille smule mere for at kompensere for de anslÃ¥ede beregninger, løser det problemet med kvaliteten.«
Professoren opfordrer også til, at udviklere i træningsfasen af nye systemer overvejer, hvor meget data, man egentlig skal bruge for at få et fornuftigt resultat. Nogle datasæt kan nemlig indeholde »ekstremt meget støj,« eksempelvis hvis der er kopier af data i sættet.
»MÃ¥ske har vi ikke behov for at træne modellerne pÃ¥ al den tilgængelige data. MÃ¥ske er det tilstrækkeligt at træne pÃ¥ en lille del af den, og sÃ¥ har vores undersøgelse vist, at det stadig er muligt at fÃ¥ systemer af den samme kvalitet.«
Leaderboard gør brugeren klogere
Ligesom Raghavendra Selvan på DIKU arbejder to p.hd.-studerende på University of Michigan også på at gøre slutbrugerne klogere på energiforbruget ved store sprogmodeller.
Jae-Won Chung har sammen med Jiachen Liu lavet et såkaldt ‘leaderboard’ over store sprogmodeller, hvor man kan se, hvor meget energi det kræver, hver gang man beder systemerne om at generere et svar på en prompt.
For eksempel bruger Googles system Llama 13b ifølge leaderboardet 631,57 joule hver gang, man beder det om at lave et svar på en prompt. Til sammenligning kræver en fuld iPhone 15-opladning omkring 74 gange så meget energi – altså 46.728 joule, ifølge mediet Macworld.
»Vores overordnede mÃ¥l er at gøre folk mere opmærksomme pÃ¥ prisen ved at bruge de her systemer og fremme en mere bæredygtig AI-udvikling,« forklarer Jiachen Liu og bliver bakket op af Jae-Won Chung, der tilføjer:
»Vores leaderboard er, sÃ¥ vidt jeg ved, det første, der ogsÃ¥ mÃ¥ler pÃ¥ sprogmodellers energiforbrug. Brugere kan taste deres prompter og fÃ¥ to forskellige modeller til at svare. SÃ¥ kan brugeren selv sammenligne kvaliteten af svarene, og hvor meget energi de to systemer har brugt pÃ¥ at generere dem. Vi vil gerne give brugerne mulighed for at mærke forskellen og forstÃ¥, at energiforbrug er noget, man bør være ekstra opmærksom pÃ¥.«
Det har dog ikke været let at lave oversigten, da forskerne skal bruge adgang til oplysninger om AI-virksomhedernes hardware for at kunne beregne energiforbruget, forklarer Jae-Won Chung:
»For eksempel kører OpenAI sine systemer i Microsofts Azure, og den infrastruktur kan vi ikke fÃ¥ indsigt i for at beregne energiforbruget. Vi kan kun mÃ¥le pÃ¥ modeller, hvor virksomhederne bag er mere gennemsigtige omkring infrastrukturen.«
Behov for konkrete AI-mål
Selvom alle forskerne på hver deres måder arbejder på at gøre forbrugeren mere opmærksom på sprogmodellernes energiforbrug, så fremhæver Raghavendra Selvan en anden pointe.
For lige nu bruger mange for eksempel ChatGPT for sjov; prøver teknologien af og sender prompter af sted, der måske ikke vil redde verden, men i højere grad er underholdning. Og det er helt i orden, for ansvaret skal ikke kun ligge hos forbrugeren, understreger forskeren.
AI-virksomhederne har et ansvar for at have fokus på den skjulte pris ved udviklingen, og lovgivere har et ansvar for at finde ud af, hvad vi egentlig vil bruge teknologien til.
»At systemerne mÃ¥ske lige nu bruges til at genere mindre fornuftigt indhold er ikke nødvendigvis et argument for at diskvalificere dem i udviklingen, for det er stadig nyt. Og det lægger ansvaret over pÃ¥ brugerne, og det er jeg ikke enig i. Men jeg mener dog, at fokus pÃ¥ at opskalere de her modeller og samtidig kaste sÃ¥ meget energi efter projekterne uden at have et klart og konkret mÃ¥l for, hvad vi vil bruge det til, er lidt bekymrende,« lyder det fra Raghavendra Selvan.