Finalizzato lo standard di memoria HBM4: maggiore bandwidth, efficienza e capacità per IA e HPC

JEDEC ha ratificato lo standard HBM4, nuova memoria ad alta larghezza di banda progettata per IA e HPC. Con velocità fino a 2 TB/s e maggiore efficienza, sarà adottata da NVIDIA e AMD nei futuri acceleratori in arrivo dal 2026.
di Manolo De Agostini pubblicata il 17 Aprile 2025, alle 15:34 nel canale MemorieHBM
La JEDEC Solid State Technology Association ha ufficialmente ratificato le specifiche della memoria HBM4 (High Bandwidth Memory 4) con la pubblicazione del documento JESD238, segnando un ulteriore passo avanti nel campo delle memorie per l'intelligenza artificiale, il calcolo ad alte prestazioni (HPC) e i datacenter di nuova generazione.
Rispetto alla precedente generazione HBM3, lo standard HBM4 introduce miglioramenti sostanziali in termini di bandwidth, efficienza energetica, flessibilità progettuale e capacità per stack. Grazie a una velocità di trasferimento che arriva fino a 8 Gb/s su un'interfaccia a 2048 bit, HBM4 può raggiungere una larghezza di banda aggregata di 2 TB/s.
Tra le principali novità vi è il raddoppio dei canali indipendenti per stack, che passano da 16 a 32, ognuno con due pseudo-canali per aumentare la parallelizzazione e l'accesso simultaneo ai dati. Un'altra innovazione cruciale è la separazione tra i bus command e data, utile per migliorare la concorrenza nelle operazioni multicanale e ridurre la latenza.
Sul fronte energetico, il nuovo standard supporta tensioni variabili per VDDQ (0,7V, 0,75V, 0,8V, 0,9V) e VDDC (1V o 1,05V), permettendo ai produttori di bilanciare prestazioni e consumi in base alle rispettive esigenze. HBM4 mantiene inoltre la retrocompatibilità con i controller HBM3, favorendo una transizione più semplice verso la nuova tecnologia senza necessità di revisioni hardware radicali.
Per quanto riguarda la capacità, HBM4 prevede configurazioni da 4 a 16 die per stack, con densità di 24 o 32 Gbit, raggiungendo un massimo di 64 GB per "cubo". L'integrazione di Directed Refresh Management (DRFM) migliora la protezione contro attacchi Rowhammer e rafforza le caratteristiche RAS (Reliability, Availability, Serviceability).
"La rapida evoluzione delle piattaforme di calcolo ad alte prestazioni richiede innovazioni sia in termini di banda che di capacità", ha dichiarato Barry Wagner, direttore del marketing tecnico di NVIDIA e presidente del sottocomitato HBM presso la JEDEC. "HBM4 rappresenta un salto in avanti necessario per supportare IA e applicazioni accelerate".
"HBM4 segna uno sviluppo critico nell'innovazione delle memorie ad alta larghezza di banda, e fornisce le prestazioni e la scalabilità richieste dalle future generazioni di carichi IA", ha affermato Joe Macri di AMD.
Samsung, SK hynix e Micron stanno lavorando alacremente per creare memorie HBM4 che rispondano alle necessità del settore. NVIDIA ha già reso noto che si servirà delle nuove memorie a partire dalla seconda parte del 2026 con gli acceleratori di IA basati su GPU Rubin. Anche AMD dovrebbe fare altrettanto con le soluzioni Instinct MI400 basate su architettura "CDNA-Next".
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".