W świecie sztucznej inteligencji, gdzie każda milisekunda i każdy dolar na energię mają znaczenie, Alibaba właśnie zrobiła coś, co może zachwiać pozycją Nvidii — nie tylko na chińskim rynku, ale i globalnie. W ramach działu chmurowego, Alibaba Cloud zaprezentowała system o nazwie Aegaeon, który, jak twierdzą jego twórcy, pozwala zmniejszyć zapotrzebowanie na karty graficzne Nvidii nawet o 82%.
To nie jest drobna optymalizacja – to technologiczny przewrót. System został przetestowany przez ponad trzy miesiące w środowisku produkcyjnym Alibaba Cloud, obsługując modele językowe sięgające 72 miliardów parametrów.
W praktyce tam gdzie wcześniej potrzeba było 1192 procesorów graficznych Nvidia H20, teraz wystarcza… 213. Aegaeon to więcej niż algorytm – to nowa filozofia zarządzania mocą obliczeniową. W świecie, w którym zachodnie firmy prześcigają się w budowie coraz większych farm GPU, Alibaba postanowiła pójść w przeciwnym kierunku: lepiej wykorzystać to, co już ma.
Nowe podejście do sztucznej inteligencji
Podstawą Aegaeon jest dynamiczne dzielenie zasobów — tzw. auto-scaling na poziomie tokenów. Oznacza to, że jedna karta graficzna może w czasie rzeczywistym obsługiwać kilka modeli AI naraz, przełączając się między nimi w trakcie generowania odpowiedzi. Efekt? Jedna GPU potrafi teraz wspierać nawet siedem modeli jednocześnie, zamiast dwóch czy trzech, jak w innych rozwiązaniach.
Alibaba twierdzi, że dzięki temu udało się zredukować opóźnienia w przełączaniu między modelami aż o 97%. Dla firm rozwijających chatboty, systemy rekomendacji czy analizy języka oznacza to jedno — znacznie tańsze i szybsze wdrożenia.
Cios w czuły punkt Nvidii
Choć Nvidia wciąż pozostaje królem układów AI, szczególnie w segmencie inference (czyli uruchamiania gotowych modeli), to dominacja sprzętowa nie gwarantuje już przewagi. Alibaba pokazuje, że inteligentne oprogramowanie może zniwelować deficyt chipów, co ma szczególne znaczenie w Chinach – kraju objętym amerykańskimi restrykcjami eksportowymi.
Ironia losu polega na tym, że układ H20, stworzony przez Nvidię specjalnie z myślą o obejściu amerykańskich ograniczeń dla rynku chińskiego, dziś sam trafia pod lupę regulatorów w Pekinie z powodu domniemanych „luk bezpieczeństwa”. W międzyczasie Huawei i Cambricon przyspieszają prace nad własnymi układami GPU, a Pekin coraz wyraźniej naciska na samowystarczalność technologiczną.
W takim kontekście Aegaeon może okazać się narzędziem strategicznym, nie tylko komercyjnym. To sposób na uniezależnienie się od amerykańskiego sprzętu bez rezygnacji z mocy obliczeniowej.
Szersza gra o przyszłość AI
Trudno oprzeć się wrażeniu, że Alibaba, niegdyś postrzegana głównie jako e-commerce’owy gigant, coraz odważniej wchodzi w rolę innowatora infrastruktury AI. Podobnie jak Amazon Web Services dekadę temu, Alibaba Cloud zaczyna kreować standardy, które mogą wyznaczać kierunek rozwoju branży.
Aegaeon został już wdrożony w platformie Bailian, gdzie obsługuje m.in. modele językowe Qwen – chiński odpowiednik ChatGPT, skierowany do klientów korporacyjnych. W praktyce, to właśnie tam rozgrywa się cichy, ale znaczący pojedynek między amerykańską potęgą sprzętową a chińską finezją w optymalizacji oprogramowania.
Jeśli system Alibaba Cloud faktycznie działa tak, jak sugerują dane z testów, to Nvidia powinna zacząć się martwić nie tylko o rynek chiński. Bo prawdziwa rewolucja w AI niekoniecznie musi nadejść wraz z nowym chipem. Może przyjść z linii kodu, napisanego po cichu w Hangzhou.
I to może być pierwszy moment, w którym Zachód zobaczy, że przewaga w sztucznej inteligencji nie zależy już od krzemu – lecz od tego, jak sprytnie się go wykorzysta.