![]() |
[Thread Ufficiale] Aspettando le nuove VGA Intel™
Ieri Intel ha annunciato la sua prima scheda video 22 anni dopo la sua ultima serie 740.
È necessario uno speciale BIOS UEFI per il funzionamento delle schede grafiche desktop discrete Intel Iris Xe, ha rivelato ieri Legit Reviews. L'annuncio della prima dGPU di Intel per integratori di sistema e OEM ha suscitato gioia tra gli appassionati di GPU, finalmente, dopo così tanti anni, vediamo un terzo competitor entrare in gioco. La grafica Intel Iris Xe è dotata della GPU DG1 basata sull'architettura Xe-LP. Questa è una entry-level performance con solo 80 Execution Units (640 Shading Units), ben al di sotto di qualsiasi cosa orientata al gioco. Tuttavia, le schede grafiche Iris Xe non sono destinate ai giocatori. Queste schede sono pensate per essere offerte per macchine multimediali a basso consumo e basso costo, sistemi di home entertainment o server aziendali. ![]() Solo con la GPU DG2 basata su Xe-HPG di Intel, potremmo finalmente vedere una vera concorrenza nei mercati dei giochi, che ora è più necessaria che mai, poiché sia NVIDIA che AMD stanno affrontando problemi di disponibilità. Intel aveva già confermato, tuttavia, che la DG2 sarà prodotta da una fonderia esterna, che potrebbe anche essere influenzata dai vincoli dei wafer. E' stato confermato da Intel che la scheda grafica funzionerà solo con alcuni sistemi Intel, vale a dire Coffee Lake-S e Comet Lake-S. È richiesto anche uno speciale chipset della scheda madre e non funzionerà su sistemi AMD. ![]() ![]() Specifiche Irix XE: GPU: Intel DG1 Architettura: 10nm Execution units: 80 Frequenza: non annunciata Memoria: 4GB LP-DDR4x Ampiezza bus: 128bit Bandwith: 68gb/s TDP: 30w BUS: PciX 4.0 16x Specifiche Irix XE MAX: GPU: Intel DG1 Architettura: 10nm Execution units: 96 Frequenza: 1650mhz Memoria: 4GB LP-DDR4x Ampiezza bus: 128bit Bandwith: 68gb/s TDP: 30w BUS: PciX 4.0 16x ![]() |
sostanzialmente la DG2 che è quella che interessa a noi arriverà a ottobre, TSMC a 6nm EUV, e due varianti:
1) 4096 Shader e 8GB GDDR6 (circa RTX3060ti) 2) 1024 Shader e 6GB GDDR6 |
AMD Intel mi sembra un po' troppo sinceramente :asd: vabbè che hanno il raja.....
|
SE, pareggiassero veramente al primo colpo il livello prestazionale 3060ti
SE, il TDP non esplodesse Raja Vega style SE, (in quanto novellini e in cerca di mercato) prezzassero la scheda a 400€ SE, approfittando di questa situazione producessero su un silicio libero e tutto loro (si parla di uno strano 6nm TSMC) SE, partorissero già subito dei driver maturi e compatibili al 100% con l'attuale parco game SE, al day1 fossero funzionanti gsync e freesync potrebbero davvero fare il botto. |
c'è qualcosa che fa pensare che non verrebbero comunque scalperate via anch'esse? (...)
Io cmq non le acquisterei, troppa poca esperienza sul campo ecc...magari chi cerca un prodotto di fascia under 200 può farci un pensiero, non ce le vedo a competere subito in fascia alta/altissima |
Quote:
|
E intanto la nuova gpu intel dg1 non sarà compatibile con i processori amd letto ora su Tom's
|
Quote:
|
Quote:
"Aspettando le nuove VGA AMD Intel™" |
:sbonk:
tutto previsto, adesso quelle intel su intel, ma aspettiamo quelle intel che vadano su amd :O :O |
Quote:
|
Tra una decina di anni mi ci vedo a comprare un pc OEM solo per tirargli giù sta DG1, che carrrrrrina che è :O
|
Questo è quello che attualmente dovrebbe integrare la CPU con 4 tyled
![]() Questo è un prototipo HPC nvidia. ![]() Execution unit, in grado di svolgere operazioni FP ed INT, ed accesso ai registri. ![]() Questo è un modello da integrata, però possiamo notare, la l1 con 64 TMU e 32 pixel per clock ed una primitiva ![]() Ogni compute Tile è formato da 128 non 96 EU, vale a dire 1024 shader core. Il raster, al contrario della foto Attualmente Intel parla di 3 modelli: HPC 4 tiled, 16000shader a 500watt. 2 tiled, 8196 shader a 300 1 tiled a 4096 shader a 150/200watt. |
Quote:
a meno che il 2 non sia laserato o che il 1 sia più grosso e dubito non avrebbe senso dovrebbero essere multipli |
Quote:
:asd: :asd: Non penso che due colossi storici come AMD/ATI ed NVidia permettano ad Intel di "fare il botto", così, dal nulla. Almeno, per i primi anni. Oltre che ad avere l'hardware buono, serve anche il software (drivers) con i controca**i. |
Quote:
4096 |
Quote:
|
Quote:
|
arrivano le prime conferme che Asus sarà uno dei board partner di intel, da capire se costruiranno "reference" oppure solamente quelle che noi conosciamo come "custom"
|
|
Quote:
Il progetto è valido, appena sistemano i driver, e rilasciano i vari Tile, possono fare bene. Il problema sarà il PP. |
Quote:
per una fascia bassa (discrete) lo vedo bene ma oltre la vedo dura in competitività perf/watt |
seguo con molto interesse
|
interessato anche io :sborone:
Da quando se ne riparla? Soliti volumi dei competitor?? :asd: |
https://www.pcgamer.com/intel-is-fir...hics-card-dg2/
apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800 si parla genericamente di fine anno per i primi sample retail |
Quote:
Inoltre sono solo 256bit per 4 compute tiled (4096st). L'architettura di base c'è, dai loro test, con 1024 EU, possono prendere una 3080/6800xt, ma il limite attuale è il clock. Intel con le prossime gen, potrebbe anche raddoppiare gli shader per EU, come gli ARM. |
Quote:
ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi |
Quote:
Il progetto è valido, Intel punta molto all'HPC, stile Tesla (ormai ex) ed al MCM. Bisogna dire però che sia AMD che nvidia, passando ai 5nm, compiranno dei passi giganteschi in avanti. Bisognerebbe vedere un loro sample anche di fascia bassa e verificarne, TDP, clock minimi e massimi per farsi un'idea. |
Quote:
Stai sottovalutando 2 aspetti molto più importanti dell'hardware: - ottimizzazione drivers - ottimizzazione dei motori di gioco per l'architettura della GPU Ad oggi non esistono giochi ottimizzati per architetture Intel lato GPU, nè tantomeno Intel ha l'esperienza ed il know how che hanno NVidia ed AMD sulla scrittura dei drivers. Non pensare che una GPU che sulla carta a livello di potenza computazionale matcha una GeForce od una Radeon ti darà gli stessi risultati, perchè non sarà assolutamente così. Almeno per i primi 3/4 anni di vita, quando e se poi gli sviluppatori cominceranno ad ottimizzare gli engines anche per le GPU Intel allora se ne potrebbe riparlare. |
beh c'è anche da dire che a Intel i soldi non mancano di certo... se si mettono d'impegno e tirano fuori i big money potrebbero farcela nel giro di un paio d'anni
|
|
mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)
risultato allineato ad AMD RX550 / Nvidia GT1030 https://powerboard.basemark.com/benchmark-result/931877 |
Quote:
|
interessanti update da LMID sull'ultimo engeneering sample DG2
![]() sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6: ![]() così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022 |
Quote:
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:) |
Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.
Il "Raja Style" mi perplime non poco... |
Quote:
e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati |
Quote:
Intel si è creata una basa forte con 4 layer. Attualmente pare volerne utilizzarne solo 1, però con 2 può arrivare a 8k shader e con 4 sino a 16k per competere con le HPC. In futuro prevede di raddoppiare i core per layer, portandosi ad 8/16/32k shader. Tutto bello in realtà, ma se questi fossero i TDP, già implementare 2 layer, sarebbe roba per HPC. Per arrivare a 16k cuda, nvidia passerà ai 5nm.:) Quote:
Useranno solo un layer, forse il 2° per HPC, dei 4 previsti. La 3070 ha 220watt + il PL ed arriva a 240 (almeno la FE). Sono 150-170 watt circa di core, l'altro e ram e circuiteria. La 3080 come la 3090, calcola la grossa parte in MVDDC, 80/100watt, 40/60sram, ed il core. Per questo hanno consumi assurdi. A livello puramente di flops, cmq, il picco medio a 1900 della 3070 è 14,3tf, a 2 tondi e fissi (non da review), 15 esatti. Diciamo che a livello di shader che usa è mediamente simile alla 6800, poi chiaro, quest'ultima non lavora a 1900 ma a 2250.:) |
Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).
|
Quote:
|
Tutti gli orari sono GMT +1. Ora sono le: 13:26. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.