Notebookcheck Logo

Nvidia svela la GPU di calcolo H100 Hopper e le architetture superchip Grace

La GPU H100 sarà lanciata nel Q3 2022. (Fonte: Nvidia)
La GPU H100 sarà lanciata nel Q3 2022. (Fonte: Nvidia)
L'Hopper H100 è la prima GPU di Nvidia con specifiche PCIe 5.0 e supporto per HBM3 VRAM. Questo modello è fino a 6 volte più veloce nei carichi di lavoro FP e offre una scalabilità notevolmente superiore rispetto ai modelli Ampere della generazione precedente. Nvidia sta anche progettando di rilasciare un superchip Hopper GPU + Grace CPU e persino un doppio superchip Grace.

Le GPU Hopper H100 AI e HPC di Nvidia sono state appena presentate al GTC insieme ai superchip Grace. Come sempre, i modelli di GPU di calcolo sono altamente scalabili, e Nvidia offre varie soluzioni multi-GPU per soddisfare le diverse esigenze dei data center. Una singola GPU H100 Tensor Core, d'altra parte, è dotata di miglioramenti significativi rispetto alla 2020 Ampere A100 soprattutto nel reparto operazioni FP.

Prima di tutto la GPU H100 è fabbricata su Nodi a 4 nm di TSMC e ha un die di 814 mm² (14 mm² più piccolo dell'A100). Questo modello è il primo di Nvidia a disporre di PCIe 5.0 e c'è anche un fattore di forma SXM che è più veloce. La GPU stessa comprende non meno di 80 miliardi di transistor, il che rappresenta un aumento di quasi il 50% rispetto alla A100. Dispone anche di 132 cluster GPU con 16896 core CUDA per lo standard SXM e 14592 core CUDA per lo standard PCIe 5.0, più che raddoppiando il conteggio dalla generazione precedente

La cache L2 è aumentata da 40 MB a 50 MB, ma il bus di memoria rimane lo stesso a 5120 bit, e la capacità di memoria è impostata su 80 GB HBM3 con 3 o 2 TB/s di larghezza di banda a seconda del fattore di forma. La versione SXM ha 528 core Tensor e richiede 700 W, mentre la versione PCIe ha solo 456 core Tensor ed è limitata a 350 W TGP-wise. Nvidia sostiene che 20x GPU H100 possono sostenere l'equivalente dell'intero traffico Internet mondiale, ma la nuova architettura può essere scalata fino a centinaia e persino migliaia di cluster DGX che saranno utilizzati nei futuri supercomputer

Per quanto riguarda le prestazioni FP, la GPU H100 può elaborare 4 PFLOPS di FP8 (6x su A100), 2 PFLOPS di FP16 (3x su A100), 1 PFLOPS di TF32 (3x su A100) e 60 TFLOPS di FP64/FP32 (3x su A100). Miglioramenti simili possono essere ottenuti con i calcoli Tensor Core FP.

Nvidia sta anche progettando di rilasciare una Grace Hopper superchip che combina una GPU H100 e una CPU Grace collegate insieme con un NVLink da 900 GB/s. Allo stesso modo, ci sarà anche un superchip Grace che combina due CPU Grace che offrono 144 core ARM, 1 TB/s LPDDR5x e 396 MB di cache on-chip. Questo superchip Grace può essere accoppiato con un massimo di otto GPU Hopper, ma tali configurazioni non saranno disponibili prima del Q3 2023. Le GPU Hopper di Nvidia, invece, inizieranno a essere distribuite nel terzo trimestre del 2022.

 

Compra la GPU di calcolo Nvidia Tesla v100 16GB su Amazon

H100 PCIe (Fonte: Nvidia)
H100 PCIe (Fonte: Nvidia)
H100 SXM (Fonte: Nvidia)
H100 SXM (Fonte: Nvidia)
Confronti con la GPU Ampere A100 (Fonte: Nvidia)
Confronti con la GPU Ampere A100 (Fonte: Nvidia)
Specifiche SXM vs PCIe in sintesi (Fonte: Nvidia)
Specifiche SXM vs PCIe in sintesi (Fonte: Nvidia)
Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2022 03 > Nvidia svela la GPU di calcolo H100 Hopper e le architetture superchip Grace
Bogdan Solca, 2022-03-23 (Update: 2022-03-23)