Intel mostra come abbinare GPU integrata e dedicata migliori le prestazioni

Intel mostra come abbinare GPU integrata e dedicata migliori le prestazioni

Intel rispolvera il concetto di Explicit Multi-Adapter supportato dalle DirectX 12 da diversi anni per mostrare come unire la potenza di calcolo di GPU integrata e dedicata sia benefico sotto molti aspetti per le prestazioni.

di pubblicata il , alle 16:01 nel canale Schede Video
Intel
 

La Game Developers Conference (GDC) 2020 si sarebbe dovuta tenere tra il 16 e il 20 marzo a San Francisco, ma è slittata a causa della pandemia di Coronavirus e al momento gli organizzatori prevedono di tenere un evento dal 4 al 6 agosto. Alcuni degli annunci e delle presentazioni che si dovevano tenere alla GDC stanno arrivando sotto altre forme e tra questi l'interessante presentazione "Multi-Adapter with Integrated and Discrete GPUs" pubblicata da Intel.

Il colosso dei microchip, atteso al ritorno nel mondo delle GPU dedicate quest'anno con le soluzioni Xe, ha parlato di come le Direct3D 12 permettano di usare contemporaneamente le risorse di calcolo della GPU integrata nel microprocessore e di una scheda video dedicata. "I PC gaming solitamente accoppiano una CPU ad alte prestazioni con una scheda video dedicata. Le CPU spesso includono della grafica integrata che di solito rimane inattiva (idle). Esploriamo i casi - asynchronous compute e post-processing - dove le ultime GPU integrate Intel aggiungono significative prestazioni quando accoppiate a una GPU dedicata".

Intel, in un video e nelle immagini che vedete, parla di come sgravare la GPU della scheda video dedicata da alcuni calcoli usando la GPU integrata, usando una funzionalità presente nelle librerie DirectX. È un concetto non nuovo a dire la verità, se ne parla sin dal debutto delle DX12, ma non è mai stato perseguito realmente dagli sviluppatori. Il fatto che Intel ne parli nel 2020 lascia la speranza che tale possibilità venga rilanciata e adottata su ampia scala in futuro.

Nel caso specifico si vede l'uso contemporaneo della GPU integrata UHD Graphics 630 e di una GPU dedicata Radeon RX 560, dove la prima è dedicata al calcolo della simulazione (compute shader) delle particelle, lasciando così alla GPU Radeon più potenza per il rendering grafico. Il tutto avviene grazie allo spostamento di dati nella memoria locale della GPU dedicata, in modo che tutti i tre passaggi – simulazione, copia e rendering – avvengano in parallelo.

Intel afferma che ci sono due modi di far lavorare insieme due GPU in Direct3D 12. Il primo si chiama Linked Display Adapter (LDA), e si configura come una GPU con più nodi e le risorse copiate tra i nodi. Intel ha dichiarato che si tratta di un funzionamento simmetrico, il che significa che bisogna usare GPU identiche.

Il secondo si chiama Explicit Multi-Adapter, ed è quello perseguito da Intel, dove le risorse vengono condivise ed è possibile abbinare GPU differenti, anche di un produttore diverso, non solo in termini di potenza. Intel ha parlato di tre modi di usare questa tecnologia. La prima è condividere il rendering, facendo riprodurre un frame a una GPU e un frame all'altra, ma secondo l'azienda non è una soluzione adatta a GPU diverse. Un altro è fare operazioni di post-processing sulla grafica integrata, ma ciò richiede di passare per il bus PCIe due volte.

Il terzo è svolgere carichi di computing asincrono come intelligenza artificiale, fisica, simulazione di particelle e ombre sulla GPU integrata. Intel ritiene che questo approccio sia il migliore perché il bus PCIe viene attraversato una sola volta: una GPU produce il contenuto e l'altra lo "consuma".

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TRF8321 Marzo 2020, 10:08 #1
Questo potrebbe dare nuova linfa vitale alle vendite di CPU Intel, ultimamente presa un po' d'assalto dall'armata rossa.
Sarebbe anche bello iniziassero ad implementarlo nei giochi, uno potrebbe anche riciclare la vecchia GPU per compiti relativamente leggeri e guadagnare qualche fps gratis (escludendo il consumo elettrico)
sslazio21 Marzo 2020, 10:23 #2
Interessantissimo, se venisse implementato su larga scala darebbe un bel calcio in avanti alle prestazioni di molti pc, in particolare ai laptop che potrebbero corrispondere un upgrade vs l'alto della propria gpu.
Ovvero io che ad esempio ho un 8750h con 630 integrata più 1070 full, riversando fisica, ombre ed altro sulla 630 potrei magicamente trovarmi i frame di un laptop che oggi monta 1080. Mica male
ionet21 Marzo 2020, 11:33 #3
sarebbe bello si ma tanto poi tutto rimane teoria o in laboratorio
se il tutto fosse di facile implementazione,trasparente e democratico,cioe' che attraverso un driver e' possibile usarlo subito e su tutti i giochi e hw esistenti,allora si che sarebbe fantastico
ma quando stiamo a livelli di esempi di laboratorio,bisogno di supporto da parte delle swhouse,driver dai produttori hw,api di basso livello,ti rendi conto che ognuna pensa al suo torna conto
nelle migliori delle ipotesi potrebbe esserci qualche gioco "finanziato" ad operare in simbiosi,ma giusto cosi' per marketing,per farti credere che la cosa e' promettente e venderti il suo hw
ma nessuno ha interesse a collaborare gratis o peggio con i suoi concorrenti

alla fine converra' sempre una gpu migliore a qualche € in piu'

in questo caso molto meglio una 570,che spesso si trova gia' allo stesso prezzo della 560,e funziona meglio subito su tutti giochi,non devi attendere supporto di chicchessia solo su "qualche"
nickname8821 Marzo 2020, 13:38 #4
Vedo che qualcuno ha la memoria corta
Ste fesserie che valgono solo su carta vennero promosse e proclamate più volte da AMD quando tentava di pubblicizzare la meglio che poteva le APU basate su Phenom e Bulldozer.
ggez22 Ottobre 2020, 16:30 #5

AMD

AMD lo fece veramente con le sue APU (Llano e successivi). Purtroppo nella maggior parte dei giochi il Crossfire tra integrata e dedicata andava peggio che usando solo la dedicata.
sandrigno23 Ottobre 2020, 01:10 #6
Il terzo è svolgere carichi di computing asincrono come intelligenza artificiale, fisica, simulazione di particelle e ombre sulla GPU integrata. Intel ritiene che questo approccio sia il migliore perché il bus PCIe viene attraversato una sola volta: una GPU produce il contenuto e l'altra lo "consuma".

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^