Era al CES 2022 all'inizio di quest'anno quando NVIDIA ha svelato alcune delle sue novità per ciò che ha presentato oggi, i suoi nuovi server basati sulla piattaforma Grace, l'ultima in fatto di HPC e AI. Ed è che questi server ridefiniranno tutti i settori del mercato in cui entrano, da allora NVIDIA ha mostrato il Centro dati HGX Grace modelli che prevede di includere e... Con oltre 12,000 core e 1 TB di RAM, saranno il riferimento da battere.
Diverse aziende metteranno a disposizione dei propri clienti uno qualsiasi dei quattro tipi di server progettati da NVIDIA: ASUS, Foxconn, GIGABYTE, OCT, Supermicro e Wiwynn, dove la loro personalizzazione eleverà i quattro tipi di modelli Huang a oltre una dozzina di server aziendali diversi. Arriveranno tra un anno, il 2023, ma abbiamo già sul tavolo il cuore e la massima configurazione di tutti loro: HGX Grazia CPU Superchip e Grace Hopper Superchip.
NVIDIA HGX Grace: il mostruoso server con 12,096 Core
Come sempre i dettagli che non vengono detti sono i più importanti, poiché rivelano dati che l'azienda non vuole mostrare anche se sono davanti a noi. I server di tipo HGX Grace rappresentano il più grande passo da gigante in questo mondo che si ricordi.
Trasporteranno la CPU NVIDIA Grace Superchip, ovvero due processori collegati in modo coerente tramite NVLink C2C basati su ARM Neoverso V9 e progettato per l'infrastruttura AI e HPC. Consiste quindi in ciò che NVIDIA chiama un modulo CPU-CPU e ha per ogni PCB che lo integra non meno di Nuclei 144 con Memoria LPDDR5X fino a 1 TB per rack e una larghezza di banda non inferiore a 1 TB / s .
Tutto consumato watt 500 ed essere in grado di raffreddare con aria o acqua. La cosa più impressionante qui è che NVIDIA consente server con un massimo di 84 nodi per rack, il che è enorme 12,096 Core in totale. Considerando che l'HGX Grace è 1.5 volte più veloce del DGX A100 per cominciare, possiamo già immaginare la bestia che il team verde ha creato.
HGX Grace Hopper: CPU e GPU su un PCB
Questo tipo di server punta sulla seconda opzione di NVIDIA. Ed è che qui non abbiamo due CPU, ma CPU e GPU sullo stesso substrato, che comunicano ancora tramite NVLink C2C in modo da avere un modello di memoria coerente ad alte prestazioni che sarà interconnesso a 900 GB / s essendo 7 volte più veloce del bus PCIe 5.0.
Ciò che NVIDIA ha creato è il server multitasking definitivo, in grado di funzionare con qualsiasi stack software dell'azienda, sia per HPC, AI o Omniverse , quindi è multiforme. Lo schema da seguire è semplice qui con questi HGX grazia tramoggia server, ognuno integrerà a 4nm GPU Hopper con una CPU Grace, dove ognuna avrà la propria memoria, la prima non meno di 80 GB di HBM3 e la seconda 512 GB di LPDDR5X a disposizione.
Questo aggiunto alla larghezza di banda totale ci darebbe 3.5 TB / s con un consumo totale di watt 1000 per rack e con possibilità di essere raffreddato ad aria o ad acqua. NVIDIA lo assicura Nodi 42 per rack può essere installato in HGX Grace Hopper.
Progettazioni di server e il tuo portfolio
Ci saranno quattro design specifici a seconda del carico di lavoro di cui i produttori potrebbero aver bisogno, dove all'interno di questi quattro tipi ognuno può configurarli e personalizzarli in base alle proprie esigenze, il che lascia una vasta gamma di vantaggi e prezzi:
- Tramoggia di tolleranza di NVIDIA HGX i sistemi per l'addestramento AI, l'inferenza e l'HPC sono disponibili con Grace Hopper Superchip e NVIDIA BlueField-3.
- Grazia NVIDIA HGX Sistemi per HPC e Supercomputing: presentano un design solo CPU con GPU Grace CPU Superchip, BlueField-3 e NVIDIA.
- NVIDIA OVX i sistemi per gemelli digitali e carichi di lavoro collaborativi sono dotati di Grace CPU Superchip, BlueField-3 e NVIDIA.
- NVIDIA CGX i sistemi per la grafica e il cloud gaming sono dotati di CPU Grace Superchip, BlueField-3 e GPU NVIDIA A16.
Come previsto, non sono stati ancora svelati i prezzi, dato che siamo a un anno dal suo lancio ufficiale, quindi c'è da aspettarsi che in questo lasso di tempo NVIDIA rivelerà i costi, che sicuramente non saranno economici.