Supercomputer, ecco quali sono i più potenti al mondo: il giapponese Fugaku allunga

Il supercomputer giapponese Fugaku si riconferma il più potente al mondo, anche grazie a un aggiornamento hardware. Nvidia domina la scena sul fronte degli acceleratori e AMD riesce a raddoppiare la presenza delle sue CPU nei nuovi sistemi nel giro di sei mesi.
di Manolo De Agostini pubblicata il 17 Novembre 2020, alle 15:41 nel canale SistemiIl giapponese Fugaku si riconferma il supercomputer più potente al mondo, secondo la cinquantaseiesima edizione della classifica TOP500. Non solo rimane in vetta, ma grazie all'aumento del numero di processori Fujitsu A64FX (su base ARM), con un passaggio da 7,29 milioni a 7,63 milioni di core, fa segnare un nuovo record di potenza, ben 442 petaflops secondo HPL (High Performance Computing Linpack Benchmark). Fugaku è tre volte più potente del sistema numero due in classifica, il Summit realizzato da IBM, che si ferma a 148,8 petaflops grazie a 4356 nodi - ciascuno con due CPU Power9 a 22 core e sei acceleratori Nvidia Tesla V100. Terzo in classifica è nuovamente Sierra con 94,6 petaflops (4320 nodi ognuno con due CPU Power9 e quattro Nvidia Tesla V100).
Quarta posizione per il cinese Sunway TaihuLight (93 petaflops), basato sui processori "locali" Sunway SW26010, e quinta per il Selene, un Nvidia DGX A100 SuperPOD installato proprio nel quartier generale dell'azienda statunitense. Il supercomputer compie un balzo in avanti di due posizioni rispetto a giugno, grazie un miglioramento sempre basato su CPU AMD EPYC e GPU Nvidia A100, per una potenza di 63,4 petaflops.
Ci sono due nuovi ingressi nella top 10, in settima posizione il "JUWELS Booster Module", un sistema BullSequana realizzato da Atos e installato al Forschungszentrum Jülich (FZJ) in Germania. Al suo interno trovano spazio CPU EPYC e GPU Nvidia A100 per una potenza di 44,1 petaflops che lo rende il sistema più potente in Europa. Questo supercomputer fa parte di un'architettura modulare, tanto che in 44esima posizione c'è il JUWELS Module basato su CPU Xeon.
Il secondo supercomputer a entrare nella top 10 si chiama Dammam-7, ed è installato in Arabia Saudita: questo sistema HPE Cray CS-Storm, si basa su CPU Intel Gold Xeon e GPU NVIDIA Tesla V100, per 22,4 petaflops di potenza, giusto quelli necessaria a far scivolare il Marconi-100 installato nel centro ricerche CINECA di Casalecchio di Reno in undicesima posizione. Dammam-7 è il secondo supercomputer commerciale più potente al mondo, dopo l'HPC5 di Eni che è ottavo grazie a una potenza di calcolo 35,5 petaflops figlia di CPU Intel Xeon Gold e GPU Nvidia Tesla V100.
Da rilevare alcuni aspetti: 149 sistemi in totali usano un acceleratore o coprocessore, tre in più rispetto a sei mesi fa. Di questi, 140 usano soluzioni Nvidia. Per quanto concerne invece i microprocessori, Intel continua a dominare con oltre il 90% dei sistemi dotati di chip Xeon o Xeon Phi, anche se il numero di sistemi con CPU AMD è raddoppiato nel giro di sei mesi e ora se ne contano 21 (tenendo conto anche del "derivato cinese Hygon"). Nella classifica troviamo inoltre dieci sistemi con CPU IBM Power e cinque su base ARM.
La Cina continua a guidare in termini di unità, con 212 supercomputer nella lista, ma gli Stati Uniti conducono per potenza aggregata con 668,7 petaflops rispetto ai 564 petaflops cinesi. Il Giappone, principalmente grazie al numero uno Fugaku, raggiunge una potenza totale di 593,7 petaflops.
9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infonon lo avrei mai pensato
Da un punto di vista dell'utilizzo (lato utente) un sistema omogeneo e' molto meno complicato rispetto ai sistemi ibridi. I sistemi ibridi hai le CPU e le GPU e devono essere programmate in maniera differente, inoltre le GPU hanno vantaggi ma anche limitazioni: vantaggi hanno memorie molto veloci, svantaggi, hanno quantitativi molto limitati rispetto alla memoria centrale del nodo. Inoltre le GPU danno il meglio di se in algebra densa. I valori di TFLOPS delle GPU sono generalmente riferiti ai valori di picco in DGEMM (moltiplicazione matrice-matrice in doppia precisione) per una particolare dimensione della matrice, prossima a saturare la memoria della GPU. Fuori da quelle condizioni le prestazioni decrescono molto piu' velocemente che non le CPU.
Quindi programmi sul nodo, e poi aggreghi i nodi in MPI, chiedendo al gestore delle code un certo numero di processori. Raramente ci sono sistemi "logici" che aggregano tutto e li usi in maniera trasparente.
Sarebbe interessante avere qualche altro riscontro che non il semplice risultato del Linpack RMax.
Va ricordato che il primo sistema EXAFLOPS distribuito e' stato raggiunto a marzo/aprile di quest'anno ed era la potenza computazionale del folding@home orientato al covid.
Visto che parlate di potenza computazionale aggregata per paese, sarebbe interessante conoscere il valore della potenza aggregata dell'Unione Europea (tra Marconi-ITA, Julich-GER, MareNostrum-SPA, un centinaio di petaflops penso li spuntiamo, i francesi ce ne hanno?).
cala di tre zeri..
Ho corretto; magari fossero 250 Exaflops, grazie.
Da un punto di vista dell'utilizzo (lato utente) un sistema omogeneo e' molto meno complicato rispetto ai sistemi ibridi. I sistemi ibridi hai le CPU e le GPU e devono essere programmate in maniera differente, inoltre le GPU hanno vantaggi ma anche limitazioni: vantaggi hanno memorie molto veloci, svantaggi, hanno quantitativi molto limitati rispetto alla memoria centrale del nodo. Inoltre le GPU danno il meglio di se in algebra densa. I valori di TFLOPS delle GPU sono generalmente riferiti ai valori di picco in DGEMM (moltiplicazione matrice-matrice in doppia precisione) per una particolare dimensione della matrice, prossima a saturare la memoria della GPU. Fuori da quelle condizioni le prestazioni decrescono molto piu' velocemente che non le CPU.
Quindi programmi sul nodo, e poi aggreghi i nodi in MPI, chiedendo al gestore delle code un certo numero di processori. Raramente ci sono sistemi "logici" che aggregano tutto e li usi in maniera trasparente.
Sarebbe interessante avere qualche altro riscontro che non il semplice risultato del Linpack RMax.
Va ricordato che il primo sistema EXAFLOPS distribuito e' stato raggiunto a marzo/aprile di quest'anno ed era la potenza computazionale del folding@home orientato al covid.
Visto che parlate di potenza computazionale aggregata per paese, sarebbe interessante conoscere il valore della potenza aggregata dell'Unione Europea (tra Marconi-ITA, Julich-GER, MareNostrum-SPA, un centinaio di petaflops penso li spuntiamo, i francesi ce ne hanno?).
eh ma piano piano stanno arrivando anche a colmare quel gap; con le A100 da 80GB appena presentate si puo arrivare a 640GB su singolo nodo con 8 GPU e a 1,2 TB di HBM2 condivise con gli HGX e gli nVSwitch da 16 GPU.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".