![]() |
Quote:
Dalla review di Igor, qualche numero in più ![]() 5000mtransistor su un 125mm2, quindi abbiamo una densità di 40mt x mm2 (su un teorico di 100), inferiore di poco a quella di samsung usata da nvidia. Sinceramente poca roba. Allo stesso tempo clock inferiori al 14LPP di samsung usati sulla arch.pascal nvidia di fascia bassa. Insomma questo PP non è che brilli, per fortuna si passerà a TSMC 6nm. Sulle perf, lato shader, paradossalmente è teoricamente livellata alle prime del gruppo, quindi male, ma è strozzata dalla banda, rispetto le altre. L'altra scheda strozzata è la RX550, che però ha 1,3tf contro 2,3 di Intel. Peccato non aver avuto gli stessi valori di banda, per vederla, almeno contro Pascal. |
i 125mm2 mi sembrano esagerati. Se non ho capito male Iris XE Max (96CU) usa lo stesso silicio di Iris Xe (80CU), che sarebbe DG1. https://youtu.be/fpSfyxNO8jw?t=346
Le misure di DG1 sono tutte sui 95mm2 che è quello misurato anche da Steve. Secondo me è sbagliata la misura in mm2 nel pannello driver. |
Quote:
|
Dati sui vari die
![]() L2 per essere a 6nm discreta, 4mb x 1024 shader. Il resto, dalla geometria alle rop's, viene gestito come fosse un 8 GPC di nvidia ![]() |
Mi chiedo se questo era proprio il massimo che potevano far debuttare nel primo semestre 2022 oppure se si sono tenuti stretti per sondare il terreno, evitando di far uscire GPU più prestazionali.
Scelta politica o tecnica ? Un modello oltre la 512 non era una brutta idea a mio avviso. |
Quote:
In questa fase credo abbia più senso puntare sulla diffusione che sullo scettro delle prestazioni. Vedremo lato prezzi come si posizioneranno, soprattutto ora che si inizia a vedere un concreto calo dei prezzi. |
Quote:
Attualmente con i 6nm non possono reggere il passo dei 5nm per la densità e ed efficienza, ed il loro schema è stato pensato per stare sui 400mm2 (che non è poco) e poco sopra i 200watt Ogni render slice è composto da 512 shader su 64EU (che ora chiameremmo VE) Lo schema ricorda quello a GPC di nvidia. Allargarlo è troppo complesso, soprattutto per la posizione dei chip di memoria (come puoi vedere nello schema sopra). Ci vorrebbe un'altra organizzazione ![]() Con Battlemage (il chip che uscirà l'anno prossimo) e con i 5nm, ti ritrovi con 2 strade: 1) raddoppiare gli shader per VE, ed arrivare a 8196 shader (ma limitato da tutti gli stadi moltiplicatori, compreso le ram) 2) utilizzare il metodo MCM del chip HPC, che sarebbe questo: Chiaramente è impensabile utilizzare 2 die in MCM da 400mm2 più interposer per tante ragioni, sarebbe come un MCM di 2 3070ti:p ![]() Chiaramente in versione gaming (questo sarebbe equivalente ai vecchi tesla nvidia), con il risultato di poter raddoppiare tutto. |
quindi fine marzo (e ci siamo) lanciano la 128 per mobile poi fine maggio la 512 e forse la 256 fine giugno sempre che i tagli saranno confermati come tali
il chip 512 sembra essere più piccolo di N21 |
Quote:
Quote:
L'importante per Intel è inziare ad inondare il mercato, farsi conoscere :D Per Battlemage vedo facile un approccio MCM, poca spesa tanta resa... anche perchè il prossimo prodotto dovrà avere meno limiti degli attuali dato che la concorrenza avà prestazioni monstre. :eek: A tuo avviso mikael, in questa prima versione, Intel ha lavorato bene o è emersa comunque la poca esperienza in VGA diverse dalle integrate ? :) |
Quote:
Lo schema HPG, è solo una variante, come lo erano le GPU nvidia rispetto alle tesla. Considera che nvidia è ferma ai 7 GPC (lovelace 12), Intel ne ha 8, la differenza è la quantità di shader di ogni VE. Nvidia per GPC intregra 1536 cc (di cui oltre 1/3 però fa interi), Intel 512. Avendo la struttura si poteva passare a VE da 16 shader, ma in questo casa andavano rivisti pure i collegamenti di memoria. Nvidia invece, ha un rapporto semplice tra GPC e bus. Come puoi vedere, anche AMD oltre ai 256bit non va. Sulle voci, di oltre 512 EU, si , è vero, ma riguardano il chip HPC. Questo: 1 tile: 512 EU 2 tile: 1024 EU 4 tile: 2048 EU. Ma qua siamo in ambito HPC, di creare die mostruosi, dai consumi mostruosi, con spese mostruose è ben diverso, visti gli ambiti. ![]() Quote:
Teoricamente il MCM si poteva già fare da ora, sbattendosene di consumare 450watt e con costi esorbitanti :p Solo che mentre produceva quella cosa, Lovelace con il chip mid, se la mangiava, e non potrebbero certo farti pagare 1500 euro un chip pari alla 4070.:p Ecco anche i limiti, soprattutto per una new entry, non è nvidia, che qualsiasi cosa faccia va bene, ed ha un mercato enorme da anni. Quote:
A livello di calcolo, servono prove sul campo, per vedere l'IPC. Li si potrà valutare la vera bontà architettura, e non solo su carta. Con un clock di 2,4ghz, teoricamente è in grado di calcolare ben 20TF, ovvero quelli di 3080 (effettivi) e 6800xt, ma se i rumors la posizionano con schede da 113-15tf, beh, la situazione a livello di IPC sarà scadente.:) |
Quote:
Credo proprio che future versioni MCM siano vitali per permettere ad Intel di ottenere boost prestazionali via via superiori, senza dover investire anni tra un prodotto e l'alto, MCM può aiutare Intel a fare tutto prima. Questa prima tornata è, presumo, più parca nei consumi, ma nulla vieta ad Intel di pestare con il consumo con la prossima gen, una versione da attaccare direttamente al generatore, vedi 4090, non la escludo. :) Sull'IPC non mi aspetto molto, si parlava di prestazioni stile 3070, che poi dubito venga raggiunta, a meno di boost clock elevatissimi. :) |
Quote:
Quindi è anche probabile che, tutto rimanga così, ma con gli shader da 16 x un ottale di 8196 shader, magari saranno pronte le GDDR7 da 32gb/s, e si rimane sui 256 bit. Sull'IPC per l'appunto, raggiungere la 3070, per lo più liscia sarebbe un fallimento totale. Considera che avrà 128 rop's (320 g.pixel), la 3080 ne ha 96 (172 gpixel), siamo a quasi il 2x. Potenza TF, 20,5 - potenza nvidia media (20,5), potenza media 3070 (14 tf) Potenza geometrica : 8 primitive - 6 la 3080 - 6 la 3070. Sui texel è più potente Intel, a livello teorico. A numeri supera la 3080 praticamente, certo non mi aspetto cmq che la pareggi o la superi sul campo (nvidia è più rodata), ma per andare come la 3070, significa che l'IPC è piuttosto scarso.:) |
Quote:
La prossma, anche fosse un 170wx2 la vedo fattibile, gli "altri" non credo ci andranno giù leggeri con i Watt :D Vediamo poi se i driver via via ottimizzati non riescano a darle una prospettiva diversa. :) |
Sembra che intel abbia qualche progetto per le sue fonderie in Europa:
https://videocardz.com/press-release...vestment-plans |
Quote:
Per fare un esempio, a pari TF, maxwell va il 40% sopra kepler. Ti potrei spiegare anche il perchè, ma andiamo off.:) Quindi al debutto vedremmo dove saranno i colli di bottiglia, e quelli di forza. Nvidia ha un punto di forza interno nei warp, come i registri, ben 1024 per cuda, con kepler 256, con maxwell 512. Se i warp, fossero da 8 cuda, con annessa molta più logica, i cuda passerebbero ad un notevole risultato di 2048 istruzioni. Questo è un aspetto da non sottovalutare.:) Quote:
Riguardo Intel MCM, considera però, che 2 chip assieme, significano un bus mastodontico a 512bit, che taglierebbero a 256/384bit, risparmiando non poca corrente, inoltre bisogna vedere gli eventuali lavori elettrici, guarda AMD con RDNA2... Certo se buttano 2 stack così, prepariamoci a vedere alti.:p Quote:
Ricordi le vecchie AMD al lancio, spesso disastroso, poi, piano piano, release dopo release, vedevi aumenti del 5%, a volte 10% e così via.:) |
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:
Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :) |
Quote:
|
Quote:
Soprattutto per chi ha gpu con qualche anno alle spalle, e passare a gpu con potenza similiare a 3060ti-3070 è comunque un ottimo upgrade. Sulle nuove gen di amd e nvidia non sappiamo nulla di come verranno gestite disponibilità e prezzi, e per la fascia media e bassa comunque se ne parla nel 2023 inoltrato quindi i margini ci sono ancora. |
Quote:
Quello che dobbiamo capire è se il "calo" della domanda a causa del rallentamento del mining o se è fisiologico perché ci stiamo avvicinando alla next gen e il tempo necessario per ammortizzare il costo diventa troppo poco. Perché nel primo caso si può sperare in una next gen , si più costosa a listino , ma disponibile , nel secondo siamo nella cacca . |
E' una questione di prezzo, se avranno un prezzo concorrenziale avranno mercato, altrimenti la gente cercherà magari di stare più al sicuro puntando sui soliti noti, soprattutto in virtù del continuo calo di prezzo dei prodotti.
Intel dovendo farsi conoscere dovrà invogliare la gente a puntare su di lei, portando sul mercato un grosso numero di esemplari per soddisfare ogni possibile cliente interessato :) |
Tutti gli orari sono GMT +1. Ora sono le: 13:21. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.