![]() |
Quote:
Il progetto è valido, appena sistemano i driver, e rilasciano i vari Tile, possono fare bene. Il problema sarà il PP. |
Quote:
per una fascia bassa (discrete) lo vedo bene ma oltre la vedo dura in competitività perf/watt |
seguo con molto interesse
|
interessato anche io :sborone:
Da quando se ne riparla? Soliti volumi dei competitor?? :asd: |
https://www.pcgamer.com/intel-is-fir...hics-card-dg2/
apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800 si parla genericamente di fine anno per i primi sample retail |
Quote:
Inoltre sono solo 256bit per 4 compute tiled (4096st). L'architettura di base c'è, dai loro test, con 1024 EU, possono prendere una 3080/6800xt, ma il limite attuale è il clock. Intel con le prossime gen, potrebbe anche raddoppiare gli shader per EU, come gli ARM. |
Quote:
ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi |
Quote:
Il progetto è valido, Intel punta molto all'HPC, stile Tesla (ormai ex) ed al MCM. Bisogna dire però che sia AMD che nvidia, passando ai 5nm, compiranno dei passi giganteschi in avanti. Bisognerebbe vedere un loro sample anche di fascia bassa e verificarne, TDP, clock minimi e massimi per farsi un'idea. |
Quote:
Stai sottovalutando 2 aspetti molto più importanti dell'hardware: - ottimizzazione drivers - ottimizzazione dei motori di gioco per l'architettura della GPU Ad oggi non esistono giochi ottimizzati per architetture Intel lato GPU, nè tantomeno Intel ha l'esperienza ed il know how che hanno NVidia ed AMD sulla scrittura dei drivers. Non pensare che una GPU che sulla carta a livello di potenza computazionale matcha una GeForce od una Radeon ti darà gli stessi risultati, perchè non sarà assolutamente così. Almeno per i primi 3/4 anni di vita, quando e se poi gli sviluppatori cominceranno ad ottimizzare gli engines anche per le GPU Intel allora se ne potrebbe riparlare. |
beh c'è anche da dire che a Intel i soldi non mancano di certo... se si mettono d'impegno e tirano fuori i big money potrebbero farcela nel giro di un paio d'anni
|
|
mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)
risultato allineato ad AMD RX550 / Nvidia GT1030 https://powerboard.basemark.com/benchmark-result/931877 |
Quote:
|
interessanti update da LMID sull'ultimo engeneering sample DG2
![]() sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6: ![]() così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022 |
Quote:
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:) |
Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.
Il "Raja Style" mi perplime non poco... |
Quote:
e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati |
Quote:
Intel si è creata una basa forte con 4 layer. Attualmente pare volerne utilizzarne solo 1, però con 2 può arrivare a 8k shader e con 4 sino a 16k per competere con le HPC. In futuro prevede di raddoppiare i core per layer, portandosi ad 8/16/32k shader. Tutto bello in realtà, ma se questi fossero i TDP, già implementare 2 layer, sarebbe roba per HPC. Per arrivare a 16k cuda, nvidia passerà ai 5nm.:) Quote:
Useranno solo un layer, forse il 2° per HPC, dei 4 previsti. La 3070 ha 220watt + il PL ed arriva a 240 (almeno la FE). Sono 150-170 watt circa di core, l'altro e ram e circuiteria. La 3080 come la 3090, calcola la grossa parte in MVDDC, 80/100watt, 40/60sram, ed il core. Per questo hanno consumi assurdi. A livello puramente di flops, cmq, il picco medio a 1900 della 3070 è 14,3tf, a 2 tondi e fissi (non da review), 15 esatti. Diciamo che a livello di shader che usa è mediamente simile alla 6800, poi chiaro, quest'ultima non lavora a 1900 ma a 2250.:) |
Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).
|
Quote:
|
Tutti gli orari sono GMT +1. Ora sono le: 09:14. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.