Intel Iris Xe Max: la prima GPU discreta di Intel è per i notebook

Intel Iris Xe Max: la prima GPU discreta di Intel è per i notebook

Con Iris Xe Max Intel ritorna nel mondo delle schede video discrete, presentando una soluzione pensata per i notebook sottili affiancata alla GPU Iris Xe contenuta nei processori Core di undicesima generazione

di pubblicato il nel canale Schede Video
Tiger LakeXeIntelCore
 

L'ingresso ufficiale di Intel nel mondo delle schede video cosiddette discrete, cioè non integrate all'interno di un processore, avviene quest'oggi con la presentazione di Iris Xe Max. Dietro questo nome si cela quella che sino ad oggi è stata indicata con il nome di DG1, la prima scheda video discreta di Intel che l'azienda americana ha mostrato quale prototipo in occasione del CES di Las Vegas e che da quest'oggi entra in vendita sul mercato.

A differenza di quanto visto al CES, quella al debutto quest'oggi è una scheda video specifica per sistemi notebook che viene da Intel affiancata a quella contenuta nei processori Core di undicesima generazione della famiglia Tiger Lake. Del resto l'architettura alla base è la stessa: la GPU integrata nel processore prende il nome di Iris Xe, con l'aggiunta del suffisso Max per quella discreta sempre rivolta ai notebook.

slide_8_s.jpg

Le caratteristiche tecniche alla base dei due prodotti sono inoltre molto simili: in Iris Xe Max troviamo infatti 96 Execution Units, lo stesso numero presente nelle GPU Iris Xe contenute nei processori Core i7 di fascia più alta (nelle altre proposte della famiglia Core di undicesima generazione troviamo invece un numero inferiore di Execution Units). Poca differenza anche in termini di frequenza di clock massima: 1,35GHz per la GPU integrata nel processore e 1,65GHz per la scheda video Iris Xe Max.

La proposta dedicata può ovviamente servirsi di memoria video non condivisa con il processore; Intel ha scelto moduli LPDDR4X in quantitativo di 4GB, con bus a 128bit e bandwidth massima che raggiunge i 68GB/s. Ne consegue che la frequenza di clock effettiva dei moduli memoria abbinati alla GPU Iris Xe Max è di 4.266MHz.

Entrambe le GPU condividono le medesime caratteristiche tecniche: troviamo supporto al Variable Rate Shading, al decoding di flussi video AV1, una precisione a12bit end-to-end, il supporto alla tecnologia Intel DLBoost e l'interfaccia PCI Express 4.0.

La tecnologia Intel Deep Link è alla base del collegamento tra le due GPU presenti nel sistema, quella discreta e quella integrata nel processore: la presenza di entrambe queste risorse di elaborazione, accanto al processore della famiglia Core, apre spazio a varie tipologie di utilizzi. Intel evidenzia come vi sia un mercato fatto da utenti che creano contenuti ma che ricercano quale strumento di lavoro un sistema notebook sottile e compatto. Questo mercato, che è composto secondo le stime da ben 100 milioni di utenti, trova in notebook sottili che siano dotati di GPU discreta il proprio prodotto di riferimento in funzione delle esigenze di produttività.

Con Deep Link Intel, attraverso l'utilizzo di un framework software comune, Intel intende quindi sfruttare la GPU discreta non solo per l'elaborazione della grafica come tipicamente avviene ma abbinare le due GPU, basate del resto sulla stessa architettura Xe-LP, affinché contribuiscano in modo bilanciato tra di loro a ridurre i tempi di elaborazione e fornire maggiori prestazioni all'utente.

Il primo elemento di collegamento tra le due unità di elaborazione è legato al loro consumo: Intel gestisce la cosiddetta Dynamic Power Share, cioè lascia che il sistema gestisca il carico di lavoro tra CPU, GPU integrata nel processore e GPU Iris Xe Max in funzione di quale sia il livello di utilizzo ottimale alla luce della specifica applicazione eseguita. In questo modo i produttori di notebook dovranno preoccuparsi di sviluppare i propri sistemi dotandoli di sistemi di raffreddamento che siano capaci di supportare un valore di TDP massimo predefinito, lasciando che sia la gestione dinamica delle unità di elaborazione a regolare alimentazione e frequenze di clock in modo da ottenere il miglior bilanciamento in funzione del tipo di applicazione eseguita.

Intel ha fornito alcune indicazioni preliminari che riportano come la gestione dinamica della potenza ottenuta via tecnologia Deep Link permetta di ottenere incrementi delle prestazioni tanto per la componente CPU come per quella GPU: nel primo caso si stima un +20% nelle elaborazioni di un video con Handbrake, mentre nel secondo ci si spinge sino al +40% utilizzando Adobe Lightroom.

L'utilizzo della stessa architettura all'interno delle due GPU Iris Xe e Iris Xe Max permette, attraverso un adeguato supporto software, di sfruttare in parallelo tutti gli engine per l'Intelligenza Artificiale che sono integrati nei chip video. Intel ha fornito quale esempio l'utilizzo del software Gigapixel AI, con il quale poter eseguire via intelligenza artificiale un upscaling di immagini ottenendo maggiore dettaglio e qualità finale. Grazie all'ottimizzazione per DL Boost: DP4A, questo software in abbinamento alla GPU Iris Xe Max riesce ad ottenere un tempo di elaborazione di immagini in batch per il loro upscaling circa 7 volte più velocemente di un sistema notebook con processore Intel Core di decima generazione abbinato a scheda video NVIDIA GeForce MX350.

La funzionalità Hyper Encoding sfrutta tutti i media encoders presenti nel sistema, due per GPU, in modo parallelo: questo permette di processare in encoding sino a 4 flussi video in parallelo senza che questi si tolgano risorse di elaborazione uno con l'altro. Il beneficio è netto, con Intel che ha mostrato quale esempio un confronto con un sistema dotato di GPU NVIDIA GeForce RTX 2080 e CPU Intel Core i7-10980HK a 8 core e un sistema Iris Xe Max: quest'ultimo ha elaborato il video con un risultato del 78% più veloce, pur a fronte di CPU e GPU sulla carta ben più potenti di quelli integrati nel notebook Core di undicesima generazione.

Gli unici dati prestazionali forniti da Intel per la scheda Iris Xe Max sono quelli di questa slide, in un confronto con la scheda NVIDIA GeForce MX350 che spesso è utilizzata in notebook sottili ai quali offrire un certo boost prestazionale nel comparto giochi rispetto a quanto ottenibile tipicamente con una GPU integrata nel processore. Il livello medio è di fatto allineato, a confermare come questa sia una GPU che è in grado di offrire anche valide prestazioni con giochi sino alla risoluzione Full HD e selezionando le impostazioni qualitative in modo opportuno.

Sono 3 i notebook dotati di scheda video Intel Iris Xe Max che da quest'oggi sono ufficialmente disponibili sul mercato: Acer, ASUS e Dell sono i partner produttori ma è ipotizzabile che altri modelli possano venir presentati nel corso dei prossimi mesi. Questi sistemi, del resto, sono basati su processori Intel Core di undicesima generazione annunciati dall'azienda americana a settembre 2020 ma ancora poco disponibili sul mercato in volumi.

La tecnologia Deep Link è indubbiamente molto interessante, ma richiede il supporto da parte dei software per poter essere sfruttata appieno. Alcuni di questi sono già ora compatibili, come HandBrake e Gigapixel AI utilizzati da Intel nelle proprie demo, ma altri arriveranno nel corso dei prossimi mesi. L'azienda sottolinea inoltre come questo lavoro è propedeutico anche per il debutto commerciale di Xe-HPG, sigla con la quale è indicata la GPU specificamente sviluppata da Intel per il gaming in sistemi desktop di fascia alta.

Pensando all'utilizzo in parallelo delle due GPU reso accessibile da Intel via Deep Link, viene spontaneo domandarsi se questo approccio non possa venir utilizzato anche per migliorare le prestazioni in termini di maggiori frames al secondo con i giochi. Per molti versi questo vorrebbe dire seguire una strada simile a quella percorsa da NVIDIA con la tecnologia SLI e da AMD con quella Crossfire: a questa domanda la risposta è stata un "stiamo valutando la cosa internamente", un segnale chiaro dell'opportunità tecnologica presente che permetterebbe ai sistemi basato su GPU Iris Xe Max di assicurare un ulteriore balzo in avanti in termini di prestazioni.

46 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7731 Ottobre 2020, 17:25 #1
Ok. In buona sostanza una GPU da notebook mainstream che più o meno pareggia in prestazioni una MX350 di nvidia.
Insomma non è che griderei al miracolo.

Se mi tira fuori una discreta da desktop che sta a pari con una 3800 allora si che grido al miracolo.
Paganetor31 Ottobre 2020, 17:38 #2
vabbè considera che avrà consumi ridotti rispetto alla MX350 e questo darà maggiore autonomia ai portatili...
pengfei31 Ottobre 2020, 17:57 #3
boh da quello che si legge non funziona come una sorta di SLI per la grafica 3D e questo deep link deve essere sfruttato esplicitamente dal programma quindi ci sono dei limiti negli scenari di utilizzo, a questo punto visto che è una GPU identica a quella integrata non conviene aumentare il budget di consumo per il processore e usare la integrata senza montare una discreta? non so quanto ne valga la pena di montarla per aumentare un po' le prestazioni nel gpu computing
Therinai31 Ottobre 2020, 18:04 #4
ma paragonata alla XE integrata nella cpu intel come va? Se c'è un miglioramento in performance e consumi ok, ma confrontarla con la MX350 non mi sembra molto utile all'utilizzatore finale.
Cfranco31 Ottobre 2020, 18:43 #5
Praticamente hanno estirpato una GPU integrata e l' hanno impacchettata come discreta, quindi se per caso la gpu integrata ti va stretta puoi attivare quella discreta ... che è uguale a quella integrata
Seriously ?

Però se per caso il programma lo prevede si possono far girare le due GPU assieme e migliorare un po' le prestazioni ... immagino che il bacino di utenze di gente che fa gpu computing su un ultrabook sia sterminata e più che disposta a pagare per avere due gpu integrate invece di una, così come siano sterminate le SW house disposte a spendere tempo e soldi per far funzionare i loro programmi su due gpu integrate ...
BatBerserk31 Ottobre 2020, 19:38 #6
ci sarà stato un motivo se Raja Koduri s'è preso un calcio in kulo da Lisa Su e dopo 3 anni in Amd hanno pareggiato quasi il Gap con Nvidia!?!?1?
tuttodigitale31 Ottobre 2020, 20:32 #7
Originariamente inviato da: demon77
Ok. In buona sostanza una GPU da notebook mainstream che più o meno pareggia in prestazioni una MX350 di nvidia.
Insomma non è che griderei al miracolo.

Se mi tira fuori una discreta da desktop che sta a pari con una 3800 allora si che grido al miracolo.

Non è il suo obiettivo. Credo che questa soluzione sia pensata soprattutto per poter utilizzare quantitativi ridotti di lpddr4x, riservandole alla grafica. Oltre che avere prestazioni migliori anche lato CPU.

Originariamente inviato da: Cfranco
Praticamente hanno estirpato una GPU integrata e l' hanno impacchettata come discreta, quindi se per caso la gpu integrata ti va stretta puoi attivare quella discreta ... che è uguale a quella integrata
Seriously ?


ma quanti sistemi hanno ad oggi 16-32 GB di memoria LPddr4x? I sistemi ICE LAKE offrono una frazione delle prestazioni pubblicizzate a causa dell'utilizzo delle ddr4.

il die delle soluzioni HPC avranno 5,3x il numero delle CU, e nella versione TOP ne monteranno 4. Tutt'latra cosa.
tuttodigitale31 Ottobre 2020, 21:07 #8
Originariamente inviato da: pengfei
boh da quello che si legge non funziona come una sorta di SLI per la grafica 3D e questo deep link deve essere sfruttato esplicitamente dal programma quindi ci sono dei limiti negli scenari di utilizzo, a questo punto visto che è una GPU identica a quella integrata non conviene aumentare il budget di consumo per il processore e usare la integrata senza montare una discreta? non so quanto ne valga la pena di montarla per aumentare un po' le prestazioni nel gpu computing


No. Ci sono una serie di motivi.
1. Avere memoria dedicata permette di aumentare la bandwidth in quanto una parte è utilizzata dalla CPU (inoltre potrebbe utilizzare le più economiche ddr4 per quella di sistema e le lpddr4x in quantità ridotta per la grafica)

2. dissipare 15+25W da punti distinti è immensamente più semplice di dissiparne 40W da un die minuscolo. Il 22% di clock massimo (ma quello medio potrebbe differire in una misura maggiore, considerando che quello è raggiungibile con uno scarso utilizzo della CPU) non è una differenza da poco.

3. La GPU quando inutilizzata, anche l'igp, arriva a consumare una frazione di watt..

4. la tecnologia non impedisce certo il funzionamento stile sli....io vedo invece proprio in virtù della diffusione (probabile) di sistemi dotati di sistemi dotati di 2 GPU discretamente potenti, una motivazione sufficiente per le software house per sviluppare giochi che scalano su più gpu.
ciolla200531 Ottobre 2020, 22:00 #9
Di fatto Intel si leva dai piedi Nvidia su una parte di mercato.
AMD va per conto suo da anni.
L'unica mossa che poteva fare Nvidia era avere una CPU e l'ha fatto con l'acquisto di ARM. Aspettiamoci una CPU Nvidia x86-64 nei prossimi anni.
Diegobloom31 Ottobre 2020, 22:06 #10
Interesserà lo 0,01% dell'utenza.
Ma sinceramente mi aspetterei qualcosa in più da Intel che questa paccottiglia.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^