Koncern Nvidia zaprezentował swoje najnowsze osiągnięcia dedykowane rozwojowi AI. Ich deklarowane, fantastyczne osiągi mają stanowić nową jakość w dziedzinie narzędzi wykorzystujących sztuczną inteligencję. Oferowane możliwości wydają się fantastyczne – jeśli w istocie potwierdzą swoje parametry w praktyce, na co oczywiście potrzeba czasu.
Pierwsza z nowości, superkomputer DGX SuperPOD, będzie w założeniu stanowił „uniwersytet” dla sztucznych inteligencji, zdolny kształcić je w sposób nieosiągalny dla innych urządzeń, nawet tych najnowszych i najwydajniejszych.
Nvidia twierdzi, że superkomputer ten zdolen jest bezproblemowo przetwarzać modele o bilionach parametrów, karmiąc je ogromnymi strumieniami informacji, na podstawie których procesy inferencyjne botów będą je poddawać treningowi na ogromną skalę. Ma on także nie mieć szczególnych kłopotów z utrzymywaniem ogromnego obciążenia obliczeniowego przez wybitnie długi czas.
DGX SuperPOD zaprojektowano wedle koncepcji rack-scale architecture, co w nader swobodnym tłumaczeniu można zapewne ująć jako architekturę stelażową. Dysponuje on mogącą jawić się nieco abstrakcyjnie mocą obliczeniową rzędu 11,5 ExaFLOPS, czyli 11 500 000 000 000 000 000 FLOPS (floating point operations per second).
Do zarządzania tym nieskąpym potencjałem ma 240 Terabajtów pamięci operacyjnej, zaś działania wykonywać będzie z dokładnością na poziomie FP4. Całość wymaga chłodzenia cieczą. Co istotne – na tym nie koniec. Architektura komputera umożliwiać ma bowiem swobodne dodawanie kolejnych bloków wyposażenia i dalsze podnoszenie możliwości urządzenia.
Zobacz też: Tim Cook miał oszukać inwestorów. Apple zapłaci niemal pół miliarda
Nvidia u wrót do przyszłości
Elementem, który stać ma za tak wybujałymi parametrami tego superkomputera ma być zaś druga nowość, jaką Nvidia się pochwaliła. To hiperwydajny, także dedykowany AI chip GB200 „Grace Blackwell”. Chip ów, jak nazwa może niektórym sugerować, zawiera w sobie 36 zaprojektowanych wedle architektury Arm procesorów (CPU) „Grace”, a także 72 procesory graficzne (GPU) „Blackwell”.
Całość połączona ma być superszybkimi łączami NVLink o przepustowości 800 Gb/s. Konfiguracja chipu, w szczególności hybrydowe zestawienie jednostek CPU i GPU ma zapewnić możliwie największą wydajność w toku obsługi operacji szkolenia AI. Praca właśnie tych jednostek ma odpowiadać za ogromną moc obliczeniową komputera DGX SuperPOD.
Chipy specjalnie zaprojektowano przy tym pod kątem możliwości bezproblemowego ich dodawania w ramach otwartej architektury ramowej tegoż superkomputera. O obydwu tych innowacjach – a także, może przede wszystkim – ich zastosowania i potencjale, które otwierają, traktował w swoim wystąpieniu w poniedziałek prezes koncernu Nvidia, Jensen Huang.
Zobacz też: Nie tylko Google: jaskrawa dyskryminacja białych osób – „drobnym” problemem także…
Za bajerem firmy sznurem
Z twierdzeniami o potencjalne w logiczny sposób zgadza się cała gromada koncernów Big Tech-u, z których po nowy produkt Nvidii ustawiła się już cała kolejka. Firma Oracle planuje zintegrować i wykorzystać „Grace Blackwell” do obsługi swoich platform OCI Compute oraz OCI Supercluster.
Microsoft w przewidywalny sposób widzi zastosowanie dla niego w swoim systemie usług w chmurze Azure. To samo planuje jego konkurent w dziedzinie chmury, Amazon Web Systems, a także Google, również oferujący rozwiązania w tej kwestii. Wszystkie te firmy od razu ogłosiły wsparcie dla sprzętu, który właśnie wprowadza Nvidia – mimo faktu, że starają się opracowywać też własne rozwiązania w tej dziedzinie.
W oczywisty sposób spodziewane jest, że chcąc nie chcąc (aby nie pozostać w tyle za konkurencją) po „Grace Blackwell” sięgnąć też będą musiały OpenAI, xAI, Dell czy Facebook vel Meta. A to dopiero początek – można podejrzewać, jakie działania mogą podjąć podmioty w stylu Huawei’a, aby chipy te „przypadkowo” i pomimo embarga znalazły się także u nich.
Zobacz też: Odkryto nowe pola naftowe. Exxon liczy na miliardy baryłek (i dolarów)
Baterie AA mogą nie wystarczyć…
Złośliwi zaczęli już wskazywać na oczywiste konsekwencje wyśrubowanych ponad miarę parametrów nowych chipów i superkomputera. Na przykład, sugerując jako źródło zasilania dla tego ostatniego zwykły, niewinny i nierzucający się w oczy reaktor nuklearny.
Ciekawe tylko, co na to konkurencja. Która – oby – pracuje nad odpowiadającym sprzętem. Byłoby to o tyle wskazane, że nieformalny quasi-monopol Nvidii pośród najwyższej klasy sprzętu elektronicznego do obsługi AI nie jest bynajmniej niczym pozytywnym. Państwo z Intela, AMD czy TSMC – nie godzi się jechać na dotacjach rządowych, wypada pokazać także swoje nowości…
Może Cię zainteresować: