Notebookcheck Logo

NVLink Fusion estende il tessuto di elaborazione a bassa latenza a CPU e acceleratori di terze parti

Nvidia apre NVLink Fusion al più ampio ecosistema di silicio. Nella foto: L'ufficio Endeavor di Nvidia (Fonte: Nvidia)
Nvidia apre NVLink Fusion al più ampio ecosistema di silicio. Nella foto: L'ufficio Endeavor di Nvidia (Fonte: Nvidia)
NVLink Fusion di Nvidia porta il suo tessuto di calcolo NVLink a bassa latenza ed elevata larghezza di banda fuori dal chip, sotto forma di un piccolo chiplet. Offre una larghezza di banda fino a 14 volte superiore a quella di una corsia PCIe, preservando l'accesso semantico alla memoria tra i dispositivi.

Nvidia ha presentato NVLink Fusion, un'interfaccia a livello di chip che estende il tessuto NVLink proprietario dell'azienda oltre i suoi processori. Annunciato al Computex 2025, il nuovo silicio consente alle CPU di terze parti e agli acceleratori personalizzati di condividere lo stesso percorso a bassa latenza ed elevata larghezza di banda che già collega le GPU Nvidia all'interno delle "fabbriche di AI" su scala rack

NVLink Fusion sposta la tecnologia da una connessione da scheda a scheda a un piccolo chiplet che i progettisti possono collocare accanto ai propri die di calcolo. Il collegamento si basa ancora sulla segnalazione PCIe familiare, ma offre una larghezza di banda fino a 14 volte superiore a quella di una corsia PCIe standard, preservando l'accesso semantico alla memoria tra i dispositivi. Questo tessuto scale-up integra i prodotti Spectrum-X Ethernet e Quantum-X InfiniBand di Nvidia, che gestiscono il traffico scale-out tra i rack.

Diversi partner hanno già aderito. MediaTek, Marvell, Alchip, Astera Labs, Cadence e Synopsys forniranno ASIC personalizzati, blocchi IP o servizi di progettazione che utilizzano il nuovo protocollo. Per quanto riguarda le CPU, Fujitsu prevede di abbinare il suo prossimo processore Monaka da 2 nm e 144 core a NVLink Fusion, mentre Qualcomm collegherà l'interfaccia alla sua CPU server basata su Arm. Entrambi i fornitori mirano a inserire i loro chip nei sistemi di riferimento su scala rack di Nvidia senza rinunciare all'accesso diretto alla GPU.

Gli operatori di cloud hyperscale possono mescolare queste parti abilitate a NVLink Fusion con le CPU Grace di Nvidia CPU Grace di Nvidia e GPU di classe Blackwelle poi unire le isole di GPU di grandi dimensioni attraverso il networking a 800 Gb/s. Il risultato è un percorso modulare verso cluster che abbracciano migliaia o addirittura milioni di acceleratori senza le penalizzazioni delle prestazioni tipiche dei progetti solo PCIe.

Dando in licenza un pezzo fondamentale del suo stack, Nvidia si posiziona come tessuto connettivo per l'hardware AI eterogeneo, piuttosto che come fornitore a scatola chiusa. I concorrenti che hanno lottato per eguagliare la larghezza di banda di NVLink possono ora cavalcarla, ma devono farlo all'interno del più ampio quadro software e di rete di Nvidia.

Fonte(i)

Nvidia (in inglese)

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2025 05 > NVLink Fusion estende il tessuto di elaborazione a bassa latenza a CPU e acceleratori di terze parti
Nathan Ali, 2025-05-20 (Update: 2025-05-20)