Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] Aspettando le nuove VGA Intel™ (https://www.hwupgrade.it/forum/showthread.php?t=2933029)


ninja750 27-01-2021 15:29

[Thread Ufficiale] Aspettando le nuove VGA Intel™
 
Ieri Intel ha annunciato la sua prima scheda video 22 anni dopo la sua ultima serie 740.

È necessario uno speciale BIOS UEFI per il funzionamento delle schede grafiche desktop discrete Intel Iris Xe, ha rivelato ieri Legit Reviews. L'annuncio della prima dGPU di Intel per integratori di sistema e OEM ha suscitato gioia tra gli appassionati di GPU, finalmente, dopo così tanti anni, vediamo un terzo competitor entrare in gioco.

La grafica Intel Iris Xe è dotata della GPU DG1 basata sull'architettura Xe-LP. Questa è una entry-level performance con solo 80 Execution Units (640 Shading Units), ben al di sotto di qualsiasi cosa orientata al gioco. Tuttavia, le schede grafiche Iris Xe non sono destinate ai giocatori. Queste schede sono pensate per essere offerte per macchine multimediali a basso consumo e basso costo, sistemi di home entertainment o server aziendali.



Solo con la GPU DG2 basata su Xe-HPG di Intel, potremmo finalmente vedere una vera concorrenza nei mercati dei giochi, che ora è più necessaria che mai, poiché sia ​​NVIDIA che AMD stanno affrontando problemi di disponibilità. Intel aveva già confermato, tuttavia, che la DG2 sarà prodotta da una fonderia esterna, che potrebbe anche essere influenzata dai vincoli dei wafer.

E' stato confermato da Intel che la scheda grafica funzionerà solo con alcuni sistemi Intel, vale a dire Coffee Lake-S e Comet Lake-S. È richiesto anche uno speciale chipset della scheda madre e non funzionerà su sistemi AMD.





Specifiche Irix XE:
GPU: Intel DG1
Architettura: 10nm
Execution units: 80
Frequenza: non annunciata
Memoria: 4GB LP-DDR4x
Ampiezza bus: 128bit
Bandwith: 68gb/s
TDP: 30w
BUS: PciX 4.0 16x

Specifiche Irix XE MAX:
GPU: Intel DG1
Architettura: 10nm
Execution units: 96
Frequenza: 1650mhz
Memoria: 4GB LP-DDR4x
Ampiezza bus: 128bit
Bandwith: 68gb/s
TDP: 30w
BUS: PciX 4.0 16x


ninja750 27-01-2021 15:32

sostanzialmente la DG2 che è quella che interessa a noi arriverà a ottobre, TSMC a 6nm EUV, e due varianti:

1) 4096 Shader e 8GB GDDR6 (circa RTX3060ti)
2) 1024 Shader e 6GB GDDR6

FroZen 27-01-2021 16:45

AMD Intel mi sembra un po' troppo sinceramente :asd: vabbè che hanno il raja.....

ninja750 28-01-2021 14:17

SE, pareggiassero veramente al primo colpo il livello prestazionale 3060ti

SE, il TDP non esplodesse Raja Vega style

SE, (in quanto novellini e in cerca di mercato) prezzassero la scheda a 400€

SE, approfittando di questa situazione producessero su un silicio libero e tutto loro (si parla di uno strano 6nm TSMC)

SE, partorissero già subito dei driver maturi e compatibili al 100% con l'attuale parco game

SE, al day1 fossero funzionanti gsync e freesync

potrebbero davvero fare il botto.

Ale55andr0 28-01-2021 14:46

c'è qualcosa che fa pensare che non verrebbero comunque scalperate via anch'esse? (...)
Io cmq non le acquisterei, troppa poca esperienza sul campo ecc...magari chi cerca un prodotto di fascia under 200 può farci un pensiero, non ce le vedo a competere subito in fascia alta/altissima

FrancoBit 28-01-2021 14:49

Quote:

Originariamente inviato da FrancoBit (Messaggio 47250421)
Cosa dite, iniziamo a imbastire un bel thread "Aspettando le nuove vga Intel" a sto punto, viste le tempistiche? :cool:

Mi autoquoto per quanto ho scritto stamattina nell'altro thread del pianto, l'avevate già creato, bravo Ninja! troppo avanti :sofico:

squigly 28-01-2021 15:36

E intanto la nuova gpu intel dg1 non sarà compatibile con i processori amd letto ora su Tom's

Mallardo 28-01-2021 15:41

Quote:

Originariamente inviato da squigly (Messaggio 47250989)
E intanto la nuova gpu intel dg1 non sarà compatibile con i processori amd letto ora su Tom's

Letto anche io la notizia, spero vivamente che valga solo per questa GPU, se no si parte malissimo.

FroZen 28-01-2021 15:43

Quote:

Originariamente inviato da FroZen (Messaggio 47249271)
AMD Intel mi sembra un po' troppo sinceramente :asd: vabbè che hanno il raja.....

mi autoquoto perchè evidentemente non hai colto ninja ma il titolo del thread è cannato

"Aspettando le nuove VGA AMD Intel™"

ninja750 28-01-2021 16:40

:sbonk:

tutto previsto, adesso quelle intel su intel, ma aspettiamo quelle intel che vadano su amd :O :O

VanCleef 29-01-2021 14:16

Quote:

Originariamente inviato da ninja750 (Messaggio 47250812)
SE, pareggiassero veramente al primo colpo il livello prestazionale 3060ti

SE, il TDP non esplodesse Raja Vega style

SE, (in quanto novellini e in cerca di mercato) prezzassero la scheda a 400€

SE, approfittando di questa situazione producessero su un silicio libero e tutto loro (si parla di uno strano 6nm TSMC)

SE, partorissero già subito dei driver maturi e compatibili al 100% con l'attuale parco game

SE, al day1 fossero funzionanti gsync e freesync

potrebbero davvero fare il botto.

in attesa di vedere SE e quali di questi SE si avvereranno, mi iscrivo :)

FroZen 29-01-2021 14:19

Tra una decina di anni mi ci vedo a comprare un pc OEM solo per tirargli giù sta DG1, che carrrrrrina che è :O

mikael84 29-01-2021 16:52

Questo è quello che attualmente dovrebbe integrare la CPU con 4 tyled


Questo è un prototipo HPC nvidia.


Execution unit, in grado di svolgere operazioni FP ed INT, ed accesso ai registri.


Questo è un modello da integrata, però possiamo notare, la l1 con 64 TMU e 32 pixel per clock ed una primitiva


Ogni compute Tile è formato da 128 non 96 EU, vale a dire 1024 shader core.

Il raster, al contrario della foto

Attualmente Intel parla di 3 modelli:
HPC 4 tiled, 16000shader a 500watt.
2 tiled, 8196 shader a 300
1 tiled a 4096 shader a 150/200watt.

ninja750 29-01-2021 17:03

Quote:

Originariamente inviato da mikael84 (Messaggio 47253071)
2 tiled, 8196 shader
1 tiled a 5096 shader

qualquadra non cosa

a meno che il 2 non sia laserato o che il 1 sia più grosso e dubito non avrebbe senso

dovrebbero essere multipli

Crysis90 29-01-2021 17:21

Quote:

Originariamente inviato da ninja750 (Messaggio 47250812)
SE, pareggiassero veramente al primo colpo il livello prestazionale 3060ti

SE, il TDP non esplodesse Raja Vega style

SE, (in quanto novellini e in cerca di mercato) prezzassero la scheda a 400€

SE, approfittando di questa situazione producessero su un silicio libero e tutto loro (si parla di uno strano 6nm TSMC)

SE, partorissero già subito dei driver maturi e compatibili al 100% con l'attuale parco game

SE, al day1 fossero funzionanti gsync e freesync

potrebbero davvero fare il botto.

Se la mì nonna aveva le ruote....

:asd: :asd:

Non penso che due colossi storici come AMD/ATI ed NVidia permettano ad Intel di "fare il botto", così, dal nulla.
Almeno, per i primi anni.

Oltre che ad avere l'hardware buono, serve anche il software (drivers) con i controca**i.

mikael84 29-01-2021 19:29

Quote:

Originariamente inviato da ninja750 (Messaggio 47253095)
qualquadra non cosa

a meno che il 2 non sia laserato o che il 1 sia più grosso e dubito non avrebbe senso

dovrebbero essere multipli

E' un'errore di battitura evidente.:p
4096

appleroof 01-02-2021 15:34

Quote:

Originariamente inviato da mikael84 (Messaggio 47253071)
Questo è quello che attualmente dovrebbe integrare la CPU con 4 tyled
cut

Questo è un prototipo HPC nvidia.
cut

Execution unit, in grado di svolgere operazioni FP ed INT, ed accesso ai registri.
cut

Questo è un modello da integrata, però possiamo notare, la l1 con 64 TMU e 32 pixel per clock ed una primitiva
cut
Ogni compute Tile è formato da 128 non 96 EU, vale a dire 1024 shader core.

Il raster, al contrario della foto

Attualmente Intel parla di 3 modelli:
HPC 4 tiled, 16000shader a 500watt.
2 tiled, 8196 shader a 300
1 tiled a 4096 shader a 150/200watt.

eh la madonna.....avoja ali esplosi :stordita: :fagiano:

mikael84 01-02-2021 17:42

Quote:

Originariamente inviato da appleroof (Messaggio 47257233)
eh la madonna.....avoja ali esplosi :stordita: :fagiano:

HPC, variante ex tesla, come GA100.:)

ninja750 07-02-2021 11:36

arrivano le prime conferme che Asus sarà uno dei board partner di intel, da capire se costruiranno "reference" oppure solamente quelle che noi conosciamo come "custom"

ninja750 09-02-2021 14:24

primi sample della DG1 in mano a Igors LAB









dice parecchi problemi di driver e prestazioni zoppe a livello di una GTX1030 ma qualcosa si muove

mikael84 09-02-2021 15:28

Quote:

Originariamente inviato da ninja750 (Messaggio 47270063)
primi sample della DG1 in mano a Igors LAB


dice parecchi problemi di driver e prestazioni zoppe a livello di una GTX1030 ma qualcosa si muove

Si dovevano iniziare così, con neppure un CT (1024shader) e prestazioni ovviamente misere (768 shader).
Il progetto è valido, appena sistemano i driver, e rilasciano i vari Tile, possono fare bene.
Il problema sarà il PP.

ninja750 09-02-2021 20:09

Quote:

Originariamente inviato da mikael84 (Messaggio 47270192)
Il problema sarà il PP.

dicono lo stesso dei processori 10nm

per una fascia bassa (discrete) lo vedo bene ma oltre la vedo dura in competitività perf/watt

PConly92 25-02-2021 11:10

seguo con molto interesse

LL1 27-02-2021 12:03

interessato anche io :sborone:


Da quando se ne riparla?
Soliti volumi dei competitor?? :asd:

ninja750 08-03-2021 09:44

https://www.pcgamer.com/intel-is-fir...hics-card-dg2/

apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800

si parla genericamente di fine anno per i primi sample retail

mikael84 08-03-2021 15:40

Quote:

Originariamente inviato da ninja750 (Messaggio 47309614)
https://www.pcgamer.com/intel-is-fir...hics-card-dg2/

apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800

si parla genericamente di fine anno per i primi sample retail

Con 2 blocchi si può, ma sino a 512 EU, salvo avere un clock particolarmente alto è tosta. Le Intel hanno proprio il problema del clock attualmente.
Inoltre sono solo 256bit per 4 compute tiled (4096st).

L'architettura di base c'è, dai loro test, con 1024 EU, possono prendere una 3080/6800xt, ma il limite attuale è il clock.
Intel con le prossime gen, potrebbe anche raddoppiare gli shader per EU, come gli ARM.

ninja750 08-03-2021 16:44

Quote:

Originariamente inviato da mikael84 (Messaggio 47310174)
Le Intel hanno proprio il problema del clock attualmente.

forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

mikael84 08-03-2021 17:01

Quote:

Originariamente inviato da ninja750 (Messaggio 47310288)
forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

Si parla di 6nm di TSMC che è fondamentalmente un 7+EUV a livello di densità, con qualche miglioria.
Il progetto è valido, Intel punta molto all'HPC, stile Tesla (ormai ex) ed al MCM.
Bisogna dire però che sia AMD che nvidia, passando ai 5nm, compiranno dei passi giganteschi in avanti.

Bisognerebbe vedere un loro sample anche di fascia bassa e verificarne, TDP, clock minimi e massimi per farsi un'idea.

Crysis90 08-03-2021 18:05

Quote:

Originariamente inviato da ninja750 (Messaggio 47310288)
forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

Ma neanche al 2° o al 3°.

Stai sottovalutando 2 aspetti molto più importanti dell'hardware:

- ottimizzazione drivers
- ottimizzazione dei motori di gioco per l'architettura della GPU

Ad oggi non esistono giochi ottimizzati per architetture Intel lato GPU, nè tantomeno Intel ha l'esperienza ed il know how che hanno NVidia ed AMD sulla scrittura dei drivers.

Non pensare che una GPU che sulla carta a livello di potenza computazionale matcha una GeForce od una Radeon ti darà gli stessi risultati, perchè non sarà assolutamente così.

Almeno per i primi 3/4 anni di vita, quando e se poi gli sviluppatori cominceranno ad ottimizzare gli engines anche per le GPU Intel allora se ne potrebbe riparlare.

PConly92 08-03-2021 18:36

beh c'è anche da dire che a Intel i soldi non mancano di certo... se si mettono d'impegno e tirano fuori i big money potrebbero farcela nel giro di un paio d'anni

ninja750 15-03-2021 10:58



con la DG2 ci siamo :D







Raja che esegue 3dmark su un ES sembra promettente

ninja750 06-04-2021 10:18

mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)

risultato allineato ad AMD RX550 / Nvidia GT1030

https://powerboard.basemark.com/benchmark-result/931877

mikael84 06-04-2021 12:28

Quote:

Originariamente inviato da ninja750 (Messaggio 47352543)
mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)

risultato allineato ad AMD RX550 / Nvidia GT1030

https://powerboard.basemark.com/benchmark-result/931877

Non CU ma EU. 80 EU sono 640 shader, ma come si può notare il problema è dato da clock bassissimi.:)

ninja750 18-04-2021 10:42

interessanti update da LMID sull'ultimo engeneering sample DG2



sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6:



così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D

primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022

mikael84 18-04-2021 16:27

Quote:

Originariamente inviato da ninja750 (Messaggio 47369602)
interessanti update da LMID sull'ultimo engeneering sample DG2


sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6:



così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D

primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022

Beh, dovrebbe essere un 6nm TSMC, nettamente meglio del 8nm si samsung.
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:)

kiwivda 19-04-2021 09:12

Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.

Il "Raja Style" mi perplime non poco...

ninja750 19-04-2021 11:07

Quote:

Originariamente inviato da mikael84 (Messaggio 47369963)
Beh, dovrebbe essere un 6nm TSMC, nettamente meglio del 8nm si samsung.
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:)

sì i conti della serva in realtà dicono superiore alla 3070.. cosa sulla quale dubito fortemente anche se andrebbe guardato il die size per farsi un'idea di efficenza

e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali

resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati

mikael84 19-04-2021 13:02

Quote:

Originariamente inviato da kiwivda (Messaggio 47370515)
Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.

Il "Raja Style" mi perplime non poco...

I tempi saranno sicuramente lunghetti. Ed infatti, se parliamo di 2022, non ha alcun senso di parlare di 3070-6800 etc.
Intel si è creata una basa forte con 4 layer.

Attualmente pare volerne utilizzarne solo 1, però con 2 può arrivare a 8k shader e con 4 sino a 16k per competere con le HPC.
In futuro prevede di raddoppiare i core per layer, portandosi ad 8/16/32k shader.

Tutto bello in realtà, ma se questi fossero i TDP, già implementare 2 layer, sarebbe roba per HPC.
Per arrivare a 16k cuda, nvidia passerà ai 5nm.:)

Quote:

Originariamente inviato da ninja750 (Messaggio 47370699)
sì i conti della serva in realtà dicono superiore alla 3070.. cosa sulla quale dubito fortemente anche se andrebbe guardato il die size per farsi un'idea di efficenza

e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali

resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati

Come detto su, il progetto sarebbe interessante quest'anno, se va a scontrarsi con i 5 di nvidia o AMD, ci fai poco con un chip così.
Useranno solo un layer, forse il 2° per HPC, dei 4 previsti.

La 3070 ha 220watt + il PL ed arriva a 240 (almeno la FE).
Sono 150-170 watt circa di core, l'altro e ram e circuiteria.

La 3080 come la 3090, calcola la grossa parte in MVDDC, 80/100watt, 40/60sram, ed il core. Per questo hanno consumi assurdi.

A livello puramente di flops, cmq, il picco medio a 1900 della 3070 è 14,3tf, a 2 tondi e fissi (non da review), 15 esatti.
Diciamo che a livello di shader che usa è mediamente simile alla 6800, poi chiaro, quest'ultima non lavora a 1900 ma a 2250.:)

GERICO76 19-04-2021 18:59

Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).

floop 20-04-2021 10:05

Quote:

Originariamente inviato da GERICO76 (Messaggio 47371544)
Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).

io infatti seguo la cosa da tanto, lo spero!


Tutti gli orari sono GMT +1. Ora sono le: 22:01.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.