Az AI-boom mögött hatalmas titkot rejt: óriási mennyiségű elektromos áramot igényel. Minden chatbot, generált kép és AI-ajánlás mögött olyan adatközpontok állnak, amelyek több energiát fogyasztanak, mint amennyire az elektromos hálózatot tervezték. A kereslet gyorsabban növekszik, mint az infrastruktúra fejlődése, így az energia, nem az algoritmusok, lett az AI-korszak meghatározó szűk keresztmetszete.
A számok riasztóak: A Goldman Sachs elemzése szerint az AI-vezérelt adatközpontok energiaigénye 2030-ra 160%-kal emelkedhet. A növekedést két fő tényező okozza: egyrészt a nagy AI-modellek betanítása hatalmas GPU-klasztereket igényel, másrészt a betanított modell használata (inference) - amikor milliókat szolgál ki - exponenciálisan skálázódik. Ahogy az AI mainstreambe kerül, az inference munkaterhelés már meghaladja a betanítási folyamatokat.
A modern hiperskálájú AI-adatközpontok kis városok áramfogyasztásával egyenértékű energiát használnak. A Microsoft, Google és Amazon olyan létesítményeket épít, amelyek több száz megawattot fogyasztanak. Az AI-munkaterhelések a hagyományos számítástechnikától eltérően 24/7 extrém nagy sűrűségben futnak. Egy virális AI-eszköz indítása például azonnal hirtelen terhelést okozhat a hálózaton - egy olyan állandóan bekapcsolt igénymintát, amelyet korábban soha nem kellett ekkora léptékben kezelni.
A vezető technológiai óriások nem várnak a hálózat felzárkózására. A Microsoft, Google és Meta (Facebook) mind hosszú távú, évtizedekre szóló energiavásárlási szerződéseket (Power Purchase Agreements, PPA) kötöttek. Néhányan saját energiaforrásokat építenek. Az energiapiac már nem csak reagál az AI-ra, hanem az AI alakítja át az egész szektort.
A vállalkozók számára ez azt jelenti, hogy az elektromos áram költsége az AI-adatközpontok miatt növekszik. Azok a vállalkozók, akik figyelmen kívül hagyják ezt a tényt, saját veszélyükre teszik. Az energia-szűk keresztmetszet valóságos korlátja lett az AI-innováció méretezhetőségének, és ez minden iparágra hatással lesz.
