Sztuczna inteligencja miała być rewolucją również pod kątem efektywności. Tymczasem, wsłuchując się w głos ekspertów, coraz częściej przypomina energetycznego potwora, który wysysa prąd szybciej, niż sieci energetyczne są w stanie to udźwignąć. Głos w tej sprawie zabrał Chris Kelly, były dyrektor ds. prywatności i główny prawnik Facebooka. W rozmowie z CNBC stwierdził wprost. Branża AI musi nauczyć się zużywać mniej energii, bo obecny kierunek jest po prostu nie do utrzymania.
AI potrzebuje więcej prądu niż całe miasta. Sieci energetyczne zaczynają pękać
– Ludzki mózg działa na 20 watach. Tymczasem firmy AI budują centra danych potrzebujące miliardów watów – podkreślił. Problem nie jest teoretyczny. We wrześniu Nvidia oraz OpenAI ogłosiły plany budowy centrów danych, które mają potrzebować co najmniej 10 gigawatów mocy. To poziom zużycia porównywalny z:
- rocznym zapotrzebowaniem 8 milionów amerykańskich gospodarstw domowych,
- lub maksymalnym letnim zużyciem Nowego Jorku w 2024 roku.
A to przecież dopiero sam początek AI-owej rewolucji. Operator największej sieci energetycznej w USA, PJM Interconnection, prognozuje, że do 2030 roku centra danych będą potrzebować dodatkowych 30 gigawatów mocy. To horrendalna liczba.
Niepokój branży wzrósł po premierze darmowego modelu językowego od chińskiego DeepSeek. Firma twierdzi, że stworzenie modelu kosztowało mniej niż 6 milionów dolarów. To zaledwie ułamek tego, co wydają amerykańscy giganci. Kelly spodziewa się, że chińskie firmy AI będą coraz większą konkurencją. Zwłaszcza dzięki modelom open source. Tym bardziej że administracja Donald Trump zatwierdziła niedawno sprzedaż chipów Nvidia H200 do Chin.
Rachunki za prąd już rosną. I to szybko
Boom na centra danych zaczyna boleśnie uderzać w zwykłych ludzi. Według najnowszych danych:
- ceny prądu dla gospodarstw domowych wzrosły o 20% w Illinois,
- 12% w Ohio,
- 9% w Virginii
Wszystkie te stany są hubami dla AI. Konsumenci obsługiwani przez sieć PJM zapłacą 16,6 mld dolarów w latach 2025–2027, by „zagwarantować przyszłe dostawy energii” dla planowanych centrów danych. – Już dziś tak naprawdę płacimy rachunki za „jutro”. To jest trochę przerażające – przyznaje Abe Silverman, były prawnik regulatora energetycznego w New Jersey.
Co jeśli prognozy się nie sprawdzą?
Eksperci ostrzegają, że popyt może być przeszacowany. Deweloperzy często analizują kilka lokalizacji jednocześnie, co oznacza, że część projektów jest liczona podwójnie. Jeśli AI nie urośnie tak szybko, jak zakładają prognozy, rachunek i tak zostanie po stronie odbiorców.
Wniosek Kelly’ego jest prosty. Kolejnej fazy wyścigu AI nie wygra się największymi modelami, tylko największą efektywnością. A jeśli branża tego nie zrozumie, prąd – dosłownie – stanie się jej największym wrogiem.