Samsung rompe la barriera dei 16 Gbps con la rivelazione di HBM4E al GTC 2026

Samsung ha utilizzato l'Nvidia GTC 2026 per presentare in anteprima la sua roadmap di memorie AI del prossimo passo, con HBM4E che ha fatto la sua prima apparizione alla fiera insieme alla HBM4 recentemente commercializzata dall'azienda. L'azienda ha dichiarato che HBM4 è ora in produzione di massa per la piattaforma Nvidia Vera Rubin, mentre HBM4E è stata presentata come il suo successore a più alta larghezza di banda per i carichi di lavoro dei data center di prossima generazione.
Samsung mette HBM4 e HBM4E al centro del suo messaggio al GTC
Al centro dello stand GTC 2026 di Samsung c'è l'HBM4, che l'azienda ha dichiarato essere ora in produzione di massa e progettato per la piattaforma Vera Rubin di Nvidia. Samsung ha dichiarato che la memoria offre una velocità di elaborazione standard di 11,7 Gbps, superiore alla linea di base del settore di 8 Gbps che ha citato, e può essere portata a 13 Gbps.
La più recente HBM4E è la rivelazione più lungimirante. Samsung ha detto che mostrerà la parte per la prima volta al GTC 2026, con obiettivi di prestazioni di 16 Gbps per pin e 4,0 TB/s di larghezza di banda. L'azienda mostrerà anche la tecnologia di incollaggio ibrido del rame, che, a detta dell'azienda, consentirà ai futuri stack HBM di raggiungere 16 strati o più, riducendo al contempo la resistenza termica di oltre il 20% rispetto all'incollaggio a compressione termica.
L'annuncio amplia anche il posizionamento di Samsung nell'infrastruttura Nvidia
Samsung sta utilizzando l'annuncio della memoria per posizionarsi come fornitore più ampio per l'infrastruttura AI incentrata su Nvidia, piuttosto che solo come fornitore di HBM. Nella sezione separata del suo stand dedicata a Nvidia, Samsung ha detto che sta mettendo in evidenza anche la memoria per server SOCAMM2 e lo storage SSD PM1763 progettato per i sistemi Nvidia AI, mentre l'SSD PM1753 viene mostrato come parte dell'architettura di riferimento BlueField-4 STX di Nvidia per l'infrastruttura di storage accelerato su Vera Rubin.
Samsung ha detto che SOCAMM2 è già in produzione di massa e lo ha descritto come un modulo di memoria server a basso consumo basato su DRAM e destinato all'infrastruttura AI di prossima generazione. Per quanto riguarda l'archiviazione, l'azienda ha detto che PM1763 utilizza PCIe 6.0 per trasferimenti più veloci e capacità più elevate, mentre PM1753 è stato pensato per l'efficienza energetica e le prestazioni del sistema per i carichi di lavoro di inferenza.
Samsung lega il lancio alla fabbrica AI e alle ambizioni AI locali
Oltre alla memoria dei data center, Samsung sta utilizzando il GTC 2026 per evidenziare il modo in cui le sue operazioni di produzione e di semiconduttori si collegano allo stack software AI di Nvidia. L'azienda ha detto che intende utilizzare il calcolo accelerato di Nvidia e le librerie Omniverse per scalare i suoi sforzi di AI Factory e accelerare la produzione basata sul digital-twin nelle sue operazioni di memoria, logica, fonderia e packaging avanzato.
Samsung ha anche utilizzato l'annuncio per parlare dell'hardware AI locale. Al GTC, l'azienda ha detto che presenterà la NAND PM9E3 e PM9E1 per Nvidia DGX Spark, oltre alla memoria LPDDR5X e LPDDR6 per dispositivi mobili premium e edge-AI. Samsung ha detto che LPDDR5X può raggiungere fino a 25 Gbps per pin con un consumo energetico ridotto fino al 15%, mentre LPDDR6 punta a 30-35 Gbps per pin con l'aggiunta di funzioni di gestione energetica per i futuri carichi di lavoro edge-AI.
Fonte(i)
I nostri Top 10
» Top 10 Portatili Multimedia
» Top 10 Portatili Gaming
» Top 10 Portatili Gaming Leggeri
» Top 10 Portatili da Ufficio e Business economici
» Top 10 Portatili Premium da Ufficio/Business
» Top 10 Portatili sotto i 300 Euro
» Top 10 Portatili sotto i 500 Euro
» Top 10 dei Portatili Workstation
» Top 10 Subnotebooks
» Top 10 Ultrabooks
» Top 10 Convertibili
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Smartphones






