Postoje inovativna rešenja koja koriste otpadnu toplotu data centara za grejanje stambenih zgrada i smanjenje njihovog ekološkog otiska
Napredak u AI komponentama povećava efikasnost, ali često rezultira povećanom potrošnjom zbog širenja primena
Jedan upit ChatGPT-u putem modela GPT-4o troši oko 0,43 Wh struje, što za 700 miliona upita dnevno predstavlja godišnji utrošak energije ekvivalentan potrošnji 35.000 američkih domaćinstava, količini pijaće vode dovoljnoj za potrebe 1,2 miliona ljudi i emisiji ugljen-dioksida koju bi neutralisala šuma veličine Čikaga.
Svaka interakcija sa ChatGPT-jem zasnovana je na ogromnoj fizičkoj infrastrukturi: serverima koji gutaju električnu energiju, rashladnim sistemima koji troše vodu, čipovima izrađenim od retkih metala, kablovima od bakra i silicijumskih pločica koji spajaju sve te procese u jedinstvenu mrežu, navodi se u najnovijem broju biltena Makroekonomske analize i trendovi (MAT) u analiza "AI i globalna trka za energijom, vodom i metalima".
Paradoksalno, veštačka inteligencija je istovremeno najveći potrošač i najveća nada energetske tranzicije, navela je autorka analize Katarina Stančić.
Dok AI (veštačka inteligencija) sistemi gutaju ogromne količine električne energije, oni nude i alate koji mogu pomoći da se ta energija koristi racionalnije.
Već danas, algoritmi optimizovani za energetske mreže mogu precizno da predviđaju proizvodnju iz vetra i sunca, da balansiraju fluktuacije potrošnje u realnom vremenu, pa čak i da automatski preusmeravaju višak energije tamo gde je najpotrebniji.
U industriji, veštačka inteligencija analizira procese grejanja, hlađenja i transporta kako bi smanjila gubitke, dok se u gradovima koristi za upravljanje saobraćajem, osvetljenjem i javnim zgradama stvarajući prve obrise "pametne energetske infrastrukture".
AI može postati i deo rešenja
Postoje i kreativna rešenja koja pokušavaju da ublaže ekološki otisak samih data centara.
U Helsinkiju i Stokholmu, toplota koja nastaje radom servera preusmerava se u sisteme daljinskog grejanja i koristi za zagrevanje stambenih zgrada.
Na Islandu, gde je hlađenje prirodno olakšano klimom, energija se gotovo u potpunosti dobija iz geotermalnih izvora, pa data centri tamo funkcionišu kao deo zatvorenog energetskog kruga.
Drugim rečima, AI može postati i deo rešenja, a ne samo deo problema.
Jevonsov paradoks
Međutim, sa svakim talasom tehničke efikasnosti u istoriji dolazio je i isti fenomen koji ekonomisti nazivaju Jevonsov paradoks: što je nešto efikasnije, to ga više koristimo.
Kada su motori postali štedljiviji, automobili su postali češći. Kada su računari postali pristupačniji, broj korisnika je eksplodirao
Isto se sada događa i sa veštačkom inteligencijom - novi čipovi, poput Nvidia Blackwell serije ili TPU procesora - Google, obavljaju više operacija nego ikada ranije, ali to samo otvara vrata još većem broju aplikacija, korisnika i tržišta.
Rezultat je kontradiktoran: sistem postaje "pametniji", ali ukupna potrošnja energije i resursa nastavlja da raste.
Data centri troše kao Velika Britanija
Procene Međunarodne agencije za energetiku (IEA) pokazuju da data centri troše oko 1,5 odsto svetske električne energije, što je ekvivalent potrošnji cele Velike Britanije.
Samo mali deo te energije danas odlazi direktno na AI, ali taj udeo eksponencijalno raste.
Do kraja decenije, potražnja za električnom energijom u data centrima mogla bi da se udvostruči i to najviše zahvaljujući veštačkoj inteligenciji.
(Izvor: Tanjug)