Jetson AGX Orin, il nuovo cervello di NVIDIA per i robot è fino a 6 volte più potente

Jetson AGX Orin, il nuovo cervello di NVIDIA per i robot è fino a 6 volte più potente

NVIDIA ha annunciato Jetson AGX Orin, una board di sviluppo per diversi settori embedded, tra cui la robotica e l'ambito sanitario, che grazie a 12 core Arm e una GPU Ampere offre fino a 6 volte più potenza di calcolo rispetto alla precedente Jetson AGX Xavier.

di pubblicata il , alle 09:41 nel canale Sistemi
AmpereNVIDIAJetson
 

NVIDIA ha annunciato Jetson AGX Orin, una nuova board (o come lo definisce l'azienda "supercomputer IA") dedicata al mondo della robotica, delle auto autonome, dei dispositivi medici e "altre forme di computing embedded" che si preannuncia fino sei volte più potente rispetto all'attuale Jetson AGX Xavier.

Il SoC Orin di NVIDIA (17 mld di transistor) è dotato di 12 core Arm Cortex-A78AE "Hercules" con clock fino a 2 GHz, 32 GB di memoria LPDDR5 collegata tramite un bus a 256 bit (bandwidth di 204 GB/s) e una GPU Ampere con 2048 CUDA core che opera a 1 GHz. Il SoC contiene anche due Deep Learning Accelerators (DLA), un acceleratore per la computer vision e si appoggia a 64GB di storage eMMC 5.1.

"In settori come la robotica, l'assistenza sanitaria, la vendita al dettaglio, i trasporti e altri comparti essenziali la domanda di potenza di calcolo continua a crescere", ha affermato Deepu Talla, vicepresidente e direttore generale per l'embedded e l'edge computing di NVIDIA. "Jetson AGX Orin risponde a questa esigenza, consentendo agli 850.000 sviluppatori Jetson e alle oltre 6.000 aziende che costruiscono prodotti commerciali basati su di esso di creare soluzioni autonome e applicazioni di intelligenza artificiale che una volta sembravano impossibili".

Secondo NVIDIA, Jetson AGX Orin ha un TDP impostabile tra 15 e 50 Watt, ed è in grado di raggiungere (al massimo TDP) 200 TOPS con calcoli INT8 legati al machine learning. Il modulo (100 x 87 mm come la board precedente, con cui è "pin compatibile") e il kit per sviluppatori saranno disponibili dal Q1 2022 - gli interessati possono riceve una notifica registrandosi presso questa pagina.

9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Pino9010 Novembre 2021, 09:45 #1
Conosco bene la vecchia Xavier... un mostriciattolo! Peccato per la complessità dell'hardware che lo rende difficile da usare.
Est®emo10 Novembre 2021, 17:23 #2
Questo nuovo hardware mi fa ben sperare per una futura consolle nintendo portatile, molto più potente.
cdimauro11 Novembre 2021, 06:36 #3
Originariamente inviato da: Pino90
Conosco bene la vecchia Xavier... un mostriciattolo! Peccato per la complessità dell'hardware che lo rende difficile da usare.

Ma non vedo più da tempo core ARM basati su Project Denver: ormai nVidia utilizza le classiche IP ARM.

Si vede che ha abbandonato il suo core ARM.

/OT
Pino9011 Novembre 2021, 08:35 #4
Originariamente inviato da: cdimauro
Ma non vedo più da tempo core ARM basati su Project Denver: ormai nVidia utilizza le classiche IP ARM.

Si vede che ha abbandonato il suo core ARM.

/OT


Ho lavorato con i proci famiglia Carmel con GPU Volta. Delle bestie di processori per l'epoca ma NVIDIA ha fatto di tutto per complicare il più possibile la vita degli sviluppatori: già solo arrivare a caricare il kernel era un delirio fra partizioni protette e contro partizioni (non ti dico cos'è calcolare un hash ad un livello così basso), ma poi ad esempio anche la gestione del boot del core R5 safety che in teoria si fa in 30 righe era resa molto difficile dalle scelte di NVIDIA (se fatta fuori dall'ambiente ubuntu consigliato).
Praticamente uscire dalla pessima distro ubuntu che davano a disposizione era davvero dura, se poi come nel mio caso dovevi scrivere il bootloader toccava fare un giro a Lourdes. Mancavano tante cose fra cui il supporto a KVM o Xen, le patch RT che dovetti portare con una versione custom del kernel e tante altre cose che resero poco popolari quelle soluzioni.

Credo che sia anche per questo che sono tornati verso architetture più standard, eccetto ovviamente la parte video. Certo è che è stato un lavoraccio ma anche un piacere scrivere per quelle CPU, in 35W erano dei piccoli mostri per l'epoca.
cdimauro12 Novembre 2021, 07:07 #5
Originariamente inviato da: Pino90
Ho lavorato con i proci famiglia Carmel con GPU Volta. Delle bestie di processori per l'epoca ma NVIDIA ha fatto di tutto per complicare il più possibile la vita degli sviluppatori: già solo arrivare a caricare il kernel era un delirio fra partizioni protette e contro partizioni (non ti dico cos'è calcolare un hash ad un livello così basso), ma poi ad esempio anche la gestione del boot del core R5 safety che in teoria si fa in 30 righe era resa molto difficile dalle scelte di NVIDIA (se fatta fuori dall'ambiente ubuntu consigliato).
Praticamente uscire dalla pessima distro ubuntu che davano a disposizione era davvero dura, se poi come nel mio caso dovevi scrivere il bootloader toccava fare un giro a Lourdes. Mancavano tante cose fra cui il supporto a KVM o Xen, le patch RT che dovetti portare con una versione custom del kernel e tante altre cose che resero poco popolari quelle soluzioni.

Ma nVidia non ha pensato a come supportare gli sviluppatori?!? Mi sembra allucinante quello che hai riportato.
Credo che sia anche per questo che sono tornati verso architetture più standard, eccetto ovviamente la parte video. Certo è che è stato un lavoraccio ma anche un piacere scrivere per quelle CPU, in 35W erano dei piccoli mostri per l'epoca.

I consumi non erano superiori rispetto ai core ARM dell'epoca con prestazioni simili? Visto che non era un'architettura ARM, ma doveva ricorrere a un traduttore in parte hardware, e ha parecchia memoria come cache per i blocchi di codice tradotti, penso che avrebbe dovuto consumare di più rispetto a una soluzione nativa.
Pino9012 Novembre 2021, 09:25 #6
Originariamente inviato da: cdimauro
Ma nVidia non ha pensato a come supportare gli sviluppatori?!? Mi sembra allucinante quello che hai riportato.


Loro davano per scontato che i dev avrebbero usato la versione di Ubuntu preparata da Nvidia e magari cambiato il kernel. Non li ha sfiorati l'idea che qualcuno volesse far girare applicazioni barebone o che per varie ragioni qualcuno potesse avere bisogno di scrivere il bootloader.

In ogni caso anche la stabilità degli strumenti software al 2020 non era delle migliori, ricordo il programma per fare il flash dell'OS falliva non deterministicamente (cioè a parità di condizioni ogni tanto non ci riusciva) e personalmente non sono mai riuscito a farlo funzionare via ethernet, ma solo via usb.

Nota che in altre piattaforme della famiglia Jetson non era così, ad esempio le Jetson piccole (Nano e Tx2) erano molto più stabili. Credo che il problema sia stato nella grandissima complessità di gestione introdotta con la famiglia di proci "grandi" e la volontà di inserire feature forse (azzardo) troppo complesse rispetto allo standard dei sistemi embedded per automotive e all'esperienza di NVIDIA stessa nel settore.

I consumi non erano superiori rispetto ai core ARM dell'epoca con prestazioni simili? Visto che non era un'architettura ARM, ma doveva ricorrere a un traduttore in parte hardware, e ha parecchia memoria come cache per i blocchi di codice tradotti, penso che avrebbe dovuto consumare di più rispetto a una soluzione nativa.


Aveva una GPU che le altre soluzioni si sognavano, giustificavano i consumi così.


EDIT Alla fine per me è stata un'esperienza positiva, sono entrato in contatto con diversi maintainer del kernel linux ed ho visto un mondo che non conoscevo, però ecco... non abbiamo ricomprato un'altra soluzione di Nvidia per sistemi "embedded".
cdimauro13 Novembre 2021, 06:49 #7
Non lo metto in dubbio. Da sviluppatore trovo estremamente stimolanti sfide come queste, per cui, a parte ovviamente il carico di lavoro e lo stress nel lavorare in quelle condizioni, c'è anche da divertirsi oltre al ben più importante ritorno in termini di know-how acquisito E networking.

Grazie per le spiegazioni. Quindi, come pensavo, il valore aggiunto non era la CPU, ma la GPU.
Pino9013 Novembre 2021, 09:39 #8
Assolutamente sì, la gpu.
!fazz15 Novembre 2021, 09:56 #9
Originariamente inviato da: Pino90
Assolutamente sì, la gpu.


confermo

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^