Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] Aspettando le nuove VGA Intel™ (https://www.hwupgrade.it/forum/showthread.php?t=2933029)


mikael84 09-02-2021 14:28

Quote:

Originariamente inviato da ninja750 (Messaggio 47270063)
primi sample della DG1 in mano a Igors LAB


dice parecchi problemi di driver e prestazioni zoppe a livello di una GTX1030 ma qualcosa si muove

Si dovevano iniziare così, con neppure un CT (1024shader) e prestazioni ovviamente misere (768 shader).
Il progetto è valido, appena sistemano i driver, e rilasciano i vari Tile, possono fare bene.
Il problema sarà il PP.

ninja750 09-02-2021 19:09

Quote:

Originariamente inviato da mikael84 (Messaggio 47270192)
Il problema sarà il PP.

dicono lo stesso dei processori 10nm

per una fascia bassa (discrete) lo vedo bene ma oltre la vedo dura in competitività perf/watt

PConly92 25-02-2021 10:10

seguo con molto interesse

LL1 27-02-2021 11:03

interessato anche io :sborone:


Da quando se ne riparla?
Soliti volumi dei competitor?? :asd:

ninja750 08-03-2021 08:44

https://www.pcgamer.com/intel-is-fir...hics-card-dg2/

apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800

si parla genericamente di fine anno per i primi sample retail

mikael84 08-03-2021 14:40

Quote:

Originariamente inviato da ninja750 (Messaggio 47309614)
https://www.pcgamer.com/intel-is-fir...hics-card-dg2/

apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800

si parla genericamente di fine anno per i primi sample retail

Con 2 blocchi si può, ma sino a 512 EU, salvo avere un clock particolarmente alto è tosta. Le Intel hanno proprio il problema del clock attualmente.
Inoltre sono solo 256bit per 4 compute tiled (4096st).

L'architettura di base c'è, dai loro test, con 1024 EU, possono prendere una 3080/6800xt, ma il limite attuale è il clock.
Intel con le prossime gen, potrebbe anche raddoppiare gli shader per EU, come gli ARM.

ninja750 08-03-2021 15:44

Quote:

Originariamente inviato da mikael84 (Messaggio 47310174)
Le Intel hanno proprio il problema del clock attualmente.

forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

mikael84 08-03-2021 16:01

Quote:

Originariamente inviato da ninja750 (Messaggio 47310288)
forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

Si parla di 6nm di TSMC che è fondamentalmente un 7+EUV a livello di densità, con qualche miglioria.
Il progetto è valido, Intel punta molto all'HPC, stile Tesla (ormai ex) ed al MCM.
Bisogna dire però che sia AMD che nvidia, passando ai 5nm, compiranno dei passi giganteschi in avanti.

Bisognerebbe vedere un loro sample anche di fascia bassa e verificarne, TDP, clock minimi e massimi per farsi un'idea.

Crysis90 08-03-2021 17:05

Quote:

Originariamente inviato da ninja750 (Messaggio 47310288)
forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

Ma neanche al 2° o al 3°.

Stai sottovalutando 2 aspetti molto più importanti dell'hardware:

- ottimizzazione drivers
- ottimizzazione dei motori di gioco per l'architettura della GPU

Ad oggi non esistono giochi ottimizzati per architetture Intel lato GPU, nè tantomeno Intel ha l'esperienza ed il know how che hanno NVidia ed AMD sulla scrittura dei drivers.

Non pensare che una GPU che sulla carta a livello di potenza computazionale matcha una GeForce od una Radeon ti darà gli stessi risultati, perchè non sarà assolutamente così.

Almeno per i primi 3/4 anni di vita, quando e se poi gli sviluppatori cominceranno ad ottimizzare gli engines anche per le GPU Intel allora se ne potrebbe riparlare.

PConly92 08-03-2021 17:36

beh c'è anche da dire che a Intel i soldi non mancano di certo... se si mettono d'impegno e tirano fuori i big money potrebbero farcela nel giro di un paio d'anni

ninja750 15-03-2021 09:58



con la DG2 ci siamo :D







Raja che esegue 3dmark su un ES sembra promettente

ninja750 06-04-2021 09:18

mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)

risultato allineato ad AMD RX550 / Nvidia GT1030

https://powerboard.basemark.com/benchmark-result/931877

mikael84 06-04-2021 11:28

Quote:

Originariamente inviato da ninja750 (Messaggio 47352543)
mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)

risultato allineato ad AMD RX550 / Nvidia GT1030

https://powerboard.basemark.com/benchmark-result/931877

Non CU ma EU. 80 EU sono 640 shader, ma come si può notare il problema è dato da clock bassissimi.:)

ninja750 18-04-2021 09:42

interessanti update da LMID sull'ultimo engeneering sample DG2



sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6:



così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D

primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022

mikael84 18-04-2021 15:27

Quote:

Originariamente inviato da ninja750 (Messaggio 47369602)
interessanti update da LMID sull'ultimo engeneering sample DG2


sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6:



così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D

primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022

Beh, dovrebbe essere un 6nm TSMC, nettamente meglio del 8nm si samsung.
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:)

kiwivda 19-04-2021 08:12

Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.

Il "Raja Style" mi perplime non poco...

ninja750 19-04-2021 10:07

Quote:

Originariamente inviato da mikael84 (Messaggio 47369963)
Beh, dovrebbe essere un 6nm TSMC, nettamente meglio del 8nm si samsung.
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:)

sì i conti della serva in realtà dicono superiore alla 3070.. cosa sulla quale dubito fortemente anche se andrebbe guardato il die size per farsi un'idea di efficenza

e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali

resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati

mikael84 19-04-2021 12:02

Quote:

Originariamente inviato da kiwivda (Messaggio 47370515)
Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.

Il "Raja Style" mi perplime non poco...

I tempi saranno sicuramente lunghetti. Ed infatti, se parliamo di 2022, non ha alcun senso di parlare di 3070-6800 etc.
Intel si è creata una basa forte con 4 layer.

Attualmente pare volerne utilizzarne solo 1, però con 2 può arrivare a 8k shader e con 4 sino a 16k per competere con le HPC.
In futuro prevede di raddoppiare i core per layer, portandosi ad 8/16/32k shader.

Tutto bello in realtà, ma se questi fossero i TDP, già implementare 2 layer, sarebbe roba per HPC.
Per arrivare a 16k cuda, nvidia passerà ai 5nm.:)

Quote:

Originariamente inviato da ninja750 (Messaggio 47370699)
sì i conti della serva in realtà dicono superiore alla 3070.. cosa sulla quale dubito fortemente anche se andrebbe guardato il die size per farsi un'idea di efficenza

e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali

resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati

Come detto su, il progetto sarebbe interessante quest'anno, se va a scontrarsi con i 5 di nvidia o AMD, ci fai poco con un chip così.
Useranno solo un layer, forse il 2° per HPC, dei 4 previsti.

La 3070 ha 220watt + il PL ed arriva a 240 (almeno la FE).
Sono 150-170 watt circa di core, l'altro e ram e circuiteria.

La 3080 come la 3090, calcola la grossa parte in MVDDC, 80/100watt, 40/60sram, ed il core. Per questo hanno consumi assurdi.

A livello puramente di flops, cmq, il picco medio a 1900 della 3070 è 14,3tf, a 2 tondi e fissi (non da review), 15 esatti.
Diciamo che a livello di shader che usa è mediamente simile alla 6800, poi chiaro, quest'ultima non lavora a 1900 ma a 2250.:)

GERICO76 19-04-2021 17:59

Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).

floop 20-04-2021 09:05

Quote:

Originariamente inviato da GERICO76 (Messaggio 47371544)
Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).

io infatti seguo la cosa da tanto, lo spero!


Tutti gli orari sono GMT +1. Ora sono le: 16:34.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.