Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] Aspettando le nuove VGA Intel™ (https://www.hwupgrade.it/forum/showthread.php?t=2933029)


mikael84 09-03-2022 18:49

Quote:

Originariamente inviato da Vash88 (Messaggio 47775942)
I driver Nvidia e soprattutto AMD sono meno che perfetti e questi sono de facto un duopolio. L'hw è "facile". Il software, che deve lavorare con tutti le possibili configurazioni di questo pianeta, è un dramma.
Sarebbe figo avere un follow up sulla ASUS DG1-4G per vedere se i driver sono migliorati in questi 8 mesi. A quanto pare sembrerebbe di si ma non siamo ancora al 100%
Facendo una ricerca ho visto che Igor ha testato un altra DG1 oggi
https://www.igorslab.de/en/gunnir-ir...g-microcode-2/

Uscita al momento prevista a Maggio


Dalla review di Igor, qualche numero in più



5000mtransistor su un 125mm2, quindi abbiamo una densità di 40mt x mm2 (su un teorico di 100), inferiore di poco a quella di samsung usata da nvidia.
Sinceramente poca roba.
Allo stesso tempo clock inferiori al 14LPP di samsung usati sulla arch.pascal nvidia di fascia bassa.
Insomma questo PP non è che brilli, per fortuna si passerà a TSMC 6nm.

Sulle perf, lato shader, paradossalmente è teoricamente livellata alle prime del gruppo, quindi male, ma è strozzata dalla banda, rispetto le altre.
L'altra scheda strozzata è la RX550, che però ha 1,3tf contro 2,3 di Intel.

Peccato non aver avuto gli stessi valori di banda, per vederla, almeno contro Pascal.

Vash88 09-03-2022 23:46

i 125mm2 mi sembrano esagerati. Se non ho capito male Iris XE Max (96CU) usa lo stesso silicio di Iris Xe (80CU), che sarebbe DG1. https://youtu.be/fpSfyxNO8jw?t=346
Le misure di DG1 sono tutte sui 95mm2 che è quello misurato anche da Steve. Secondo me è sbagliata la misura in mm2 nel pannello driver.

mikael84 10-03-2022 01:16

Quote:

Originariamente inviato da Vash88 (Messaggio 47776373)
i 125mm2 mi sembrano esagerati. Se non ho capito male Iris XE Max (96CU) usa lo stesso silicio di Iris Xe (80CU), che sarebbe DG1. https://youtu.be/fpSfyxNO8jw?t=346
Le misure di DG1 sono tutte sui 95mm2 che è quello misurato anche da Steve. Secondo me è sbagliata la misura in mm2 nel pannello driver.

Si ci sta. Una prova perfetta c'è, le rop's che sono 8 ogni 256 shader. Quindi GPUZ scazza sicuramente. Su 95mm2 però bisogna conoscere i transistor effettivi, come scazza per il die scazza per i transistor.

mikael84 13-03-2022 12:49

Dati sui vari die




L2 per essere a 6nm discreta, 4mb x 1024 shader.

Il resto, dalla geometria alle rop's, viene gestito come fosse un 8 GPC di nvidia

Maury 14-03-2022 16:27

Mi chiedo se questo era proprio il massimo che potevano far debuttare nel primo semestre 2022 oppure se si sono tenuti stretti per sondare il terreno, evitando di far uscire GPU più prestazionali.

Scelta politica o tecnica ? Un modello oltre la 512 non era una brutta idea a mio avviso.

Ubro92 14-03-2022 16:37

Quote:

Originariamente inviato da Maury (Messaggio 47781022)
Mi chiedo se questo era proprio il massimo che potevano far debuttare nel primo semestre 2022 oppure se si sono tenuti stretti per sondare il terreno, evitando di far uscire GPU più prestazionali.

Scelta politica o tecnica ? Un modello oltre la 512 non era una brutta idea a mio avviso.

Politica, se volevano potevano tranquillamente scalare il chip a 768 o 1024EU.
In questa fase credo abbia più senso puntare sulla diffusione che sullo scettro delle prestazioni.

Vedremo lato prezzi come si posizioneranno, soprattutto ora che si inizia a vedere un concreto calo dei prezzi.

mikael84 14-03-2022 17:18

Quote:

Originariamente inviato da Maury (Messaggio 47781022)
Mi chiedo se questo era proprio il massimo che potevano far debuttare nel primo semestre 2022 oppure se si sono tenuti stretti per sondare il terreno, evitando di far uscire GPU più prestazionali.

Scelta politica o tecnica ? Un modello oltre la 512 non era una brutta idea a mio avviso.

Più che altro tecnica. Seguono una loro base microarchitetturale.
Attualmente con i 6nm non possono reggere il passo dei 5nm per la densità e ed efficienza, ed il loro schema è stato pensato per stare sui 400mm2 (che non è poco) e poco sopra i 200watt

Ogni render slice è composto da 512 shader su 64EU (che ora chiameremmo VE)
Lo schema ricorda quello a GPC di nvidia.
Allargarlo è troppo complesso, soprattutto per la posizione dei chip di memoria (come puoi vedere nello schema sopra).
Ci vorrebbe un'altra organizzazione



Con Battlemage (il chip che uscirà l'anno prossimo) e con i 5nm, ti ritrovi con 2 strade:
1) raddoppiare gli shader per VE, ed arrivare a 8196 shader (ma limitato da tutti gli stadi moltiplicatori, compreso le ram)
2) utilizzare il metodo MCM del chip HPC, che sarebbe questo:

Chiaramente è impensabile utilizzare 2 die in MCM da 400mm2 più interposer per tante ragioni, sarebbe come un MCM di 2 3070ti:p


Chiaramente in versione gaming (questo sarebbe equivalente ai vecchi tesla nvidia), con il risultato di poter raddoppiare tutto.

ninja750 15-03-2022 10:01

quindi fine marzo (e ci siamo) lanciano la 128 per mobile poi fine maggio la 512 e forse la 256 fine giugno sempre che i tagli saranno confermati come tali

il chip 512 sembra essere più piccolo di N21

Maury 15-03-2022 10:53

Quote:

Originariamente inviato da Ubro92 (Messaggio 47781037)
Politica, se volevano potevano tranquillamente scalare il chip a 768 o 1024EU.
In questa fase credo abbia più senso puntare sulla diffusione che sullo scettro delle prestazioni.

Vedremo lato prezzi come si posizioneranno, soprattutto ora che si inizia a vedere un concreto calo dei prezzi.

Con la fame che c'è di VGA, se uscisse in quantità con un prodotto sulla linea almeno della 3070, a giusto prezzo ovviamente altrimenti non la prenderebbe in considerazione nessuno, ne vederebbe parecchie. Certo che arrivano un pò lunghetti con i tempi dato che tra RDNA3 e Lovelace in arrivo tra pochi mesi hanno poco da spartire lato prestazioni. Abbiamo visto già cosa può tirar fuori una semplice 4060...

Quote:

Originariamente inviato da mikael84 (Messaggio 47781071)
Più che altro tecnica. Seguono una loro base microarchitetturale.
Attualmente con i 6nm non possono reggere il passo dei 5nm per la densità e ed efficienza, ed il loro schema è stato pensato per stare sui 400mm2 (che non è poco) e poco sopra i 200watt

Ogni render slice è composto da 512 shader su 64EU (che ora chiameremmo VE)
Lo schema ricorda quello a GPC di nvidia.
Allargarlo è troppo complesso, soprattutto per la posizione dei chip di memoria (come puoi vedere nello schema sopra).
Ci vorrebbe un'altra organizzazione



Con Battlemage (il chip che uscirà l'anno prossimo) e con i 5nm, ti ritrovi con 2 strade:
1) raddoppiare gli shader per VE, ed arrivare a 8196 shader (ma limitato da tutti gli stadi moltiplicatori, compreso le ram)
2) utilizzare il metodo MCM del chip HPC, che sarebbe questo:

Chiaramente è impensabile utilizzare 2 die in MCM da 400mm2 più interposer per tante ragioni, sarebbe come un MCM di 2 3070ti:p


Chiaramente in versione gaming (questo sarebbe equivalente ai vecchi tesla nvidia), con il risultato di poter raddoppiare tutto.

Anche volendo quindi erano al massimo fattibile per il 2022, ergo, ad oggi oltre la 512 non potevano andare. Forse ricordo male ma in tempi non sospetti giravano voci di versioni più potenti della 512, che abbiano segato altri modelli poi impossibili da realizzare ?
L'importante per Intel è inziare ad inondare il mercato, farsi conoscere :D

Per Battlemage vedo facile un approccio MCM, poca spesa tanta resa... anche perchè il prossimo prodotto dovrà avere meno limiti degli attuali dato che la concorrenza avà prestazioni monstre. :eek:

A tuo avviso mikael, in questa prima versione, Intel ha lavorato bene o è emersa comunque la poca esperienza in VGA diverse dalle integrate ? :)

mikael84 15-03-2022 13:04

Quote:

Originariamente inviato da Maury (Messaggio 47781688)

Anche volendo quindi erano al massimo fattibile per il 2022, ergo, ad oggi oltre la 512 non potevano andare. Forse ricordo male ma in tempi non sospetti giravano voci di versioni più potenti della 512, che abbiano segato altri modelli poi impossibili da realizzare ?
L'importante per Intel è inziare ad inondare il mercato, farsi conoscere :D

Beh si, considera che un'architettura non la butti giù così facilmente. Loro hanno lavorato, o meglio hanno puntato, praticamente, quasi tutto sul HPC.
Lo schema HPG, è solo una variante, come lo erano le GPU nvidia rispetto alle tesla.
Considera che nvidia è ferma ai 7 GPC (lovelace 12), Intel ne ha 8, la differenza è la quantità di shader di ogni VE. Nvidia per GPC intregra 1536 cc (di cui oltre 1/3 però fa interi), Intel 512.

Avendo la struttura si poteva passare a VE da 16 shader, ma in questo casa andavano rivisti pure i collegamenti di memoria.
Nvidia invece, ha un rapporto semplice tra GPC e bus.
Come puoi vedere, anche AMD oltre ai 256bit non va.

Sulle voci, di oltre 512 EU, si , è vero, ma riguardano il chip HPC.

Questo:
1 tile: 512 EU
2 tile: 1024 EU
4 tile: 2048 EU.
Ma qua siamo in ambito HPC, di creare die mostruosi, dai consumi mostruosi, con spese mostruose è ben diverso, visti gli ambiti.


Quote:

Originariamente inviato da Maury (Messaggio 47781688)
Per Battlemage vedo facile un approccio MCM, poca spesa tanta resa... anche perchè il prossimo prodotto dovrà avere meno limiti degli attuali dato che la concorrenza avà prestazioni monstre. :eek:

Si probabile, molto probabile, l'architettura è espandibile.
Teoricamente il MCM si poteva già fare da ora, sbattendosene di consumare 450watt e con costi esorbitanti :p
Solo che mentre produceva quella cosa, Lovelace con il chip mid, se la mangiava, e non potrebbero certo farti pagare 1500 euro un chip pari alla 4070.:p
Ecco anche i limiti, soprattutto per una new entry, non è nvidia, che qualsiasi cosa faccia va bene, ed ha un mercato enorme da anni.

Quote:

Originariamente inviato da Maury (Messaggio 47781688)
A tuo avviso mikael, in questa prima versione, Intel ha lavorato bene o è emersa comunque la poca esperienza in VGA diverse dalle integrate ? :)

A livello architetturale si, anche gli RT dovrebbero essere a livello, o quasi di quelli nvidia, e dovrebbero gestire tutte le operazioni, cosa che ad esempio AMD non fa.
A livello di calcolo, servono prove sul campo, per vedere l'IPC. Li si potrà valutare la vera bontà architettura, e non solo su carta.
Con un clock di 2,4ghz, teoricamente è in grado di calcolare ben 20TF, ovvero quelli di 3080 (effettivi) e 6800xt, ma se i rumors la posizionano con schede da 113-15tf, beh, la situazione a livello di IPC sarà scadente.:)

Maury 15-03-2022 15:47

Quote:

Originariamente inviato da mikael84 (Messaggio 47781854)
Beh si, considera che un'architettura non la butti giù così facilmente. Loro hanno lavorato, o meglio hanno puntato, praticamente, quasi tutto sul HPC.
Lo schema HPG, è solo una variante, come lo erano le GPU nvidia rispetto alle tesla.
Considera che nvidia è ferma ai 7 GPC (lovelace 12), Intel ne ha 8, la differenza è la quantità di shader di ogni VE. Nvidia per GPC intregra 1536 cc (di cui oltre 1/3 però fa interi), Intel 512.

Avendo la struttura si poteva passare a VE da 16 shader, ma in questo casa andavano rivisti pure i collegamenti di memoria.
Nvidia invece, ha un rapporto semplice tra GPC e bus.
Come puoi vedere, anche AMD oltre ai 256bit non va.

Sulle voci, di oltre 512 EU, si , è vero, ma riguardano il chip HPC.

Questo:
1 tile: 512 EU
2 tile: 1024 EU
4 tile: 2048 EU.
Ma qua siamo in ambito HPC, di creare die mostruosi, dai consumi mostruosi, con spese mostruose è ben diverso, visti gli ambiti.




Si probabile, molto probabile, l'architettura è espandibile.
Teoricamente il MCM si poteva già fare da ora, sbattendosene di consumare 450watt e con costi esorbitanti :p
Solo che mentre produceva quella cosa, Lovelace con il chip mid, se la mangiava, e non potrebbero certo farti pagare 1500 euro un chip pari alla 4070.:p
Ecco anche i limiti, soprattutto per una new entry, non è nvidia, che qualsiasi cosa faccia va bene, ed ha un mercato enorme da anni.



A livello architetturale si, anche gli RT dovrebbero essere a livello, o quasi di quelli nvidia, e dovrebbero gestire tutte le operazioni, cosa che ad esempio AMD non fa.
A livello di calcolo, servono prove sul campo, per vedere l'IPC. Li si potrà valutare la vera bontà architettura, e non solo su carta.
Con un clock di 2,4ghz, teoricamente è in grado di calcolare ben 20TF, ovvero quelli di 3080 (effettivi) e 6800xt, ma se i rumors la posizionano con schede da 113-15tf, beh, la situazione a livello di IPC sarà scadente.:)

Prodotti HPC, ecco dove miravano con le versioni superiori :)

Credo proprio che future versioni MCM siano vitali per permettere ad Intel di ottenere boost prestazionali via via superiori, senza dover investire anni tra un prodotto e l'alto, MCM può aiutare Intel a fare tutto prima. Questa prima tornata è, presumo, più parca nei consumi, ma nulla vieta ad Intel di pestare con il consumo con la prossima gen, una versione da attaccare direttamente al generatore, vedi 4090, non la escludo. :)

Sull'IPC non mi aspetto molto, si parlava di prestazioni stile 3070, che poi dubito venga raggiunta, a meno di boost clock elevatissimi. :)

mikael84 15-03-2022 21:02

Quote:

Originariamente inviato da Maury (Messaggio 47782068)
Prodotti HPC, ecco dove miravano con le versioni superiori :)

Credo proprio che future versioni MCM siano vitali per permettere ad Intel di ottenere boost prestazionali via via superiori, senza dover investire anni tra un prodotto e l'alto, MCM può aiutare Intel a fare tutto prima. Questa prima tornata è, presumo, più parca nei consumi, ma nulla vieta ad Intel di pestare con il consumo con la prossima gen, una versione da attaccare direttamente al generatore, vedi 4090, non la escludo. :)

Sull'IPC non mi aspetto molto, si parlava di prestazioni stile 3070, che poi dubito venga raggiunta, a meno di boost clock elevatissimi. :)

Si, in quanto la densità gli permetterà di creare lo stesso chip con circa 200-225mm2, ma allo stesso tempo, se ad oggi è data per circa 220watt, con i 5nm, scordiamoci che vada a 110watt x2, ma a 170w x 2.

Quindi è anche probabile che, tutto rimanga così, ma con gli shader da 16 x un ottale di 8196 shader, magari saranno pronte le GDDR7 da 32gb/s, e si rimane sui 256 bit.

Sull'IPC per l'appunto, raggiungere la 3070, per lo più liscia sarebbe un fallimento totale.

Considera che avrà 128 rop's (320 g.pixel), la 3080 ne ha 96 (172 gpixel), siamo a quasi il 2x.
Potenza TF, 20,5 - potenza nvidia media (20,5), potenza media 3070 (14 tf)
Potenza geometrica : 8 primitive - 6 la 3080 - 6 la 3070.
Sui texel è più potente Intel, a livello teorico.

A numeri supera la 3080 praticamente, certo non mi aspetto cmq che la pareggi o la superi sul campo (nvidia è più rodata), ma per andare come la 3070, significa che l'IPC è piuttosto scarso.:)

Maury 16-03-2022 11:38

Quote:

Originariamente inviato da mikael84 (Messaggio 47782445)
Si, in quanto la densità gli permetterà di creare lo stesso chip con circa 200-225mm2, ma allo stesso tempo, se ad oggi è data per circa 220watt, con i 5nm, scordiamoci che vada a 110watt x2, ma a 170w x 2.

Quindi è anche probabile che, tutto rimanga così, ma con gli shader da 16 x un ottale di 8196 shader, magari saranno pronte le GDDR7 da 32gb/s, e si rimane sui 256 bit.

Sull'IPC per l'appunto, raggiungere la 3070, per lo più liscia sarebbe un fallimento totale.

Considera che avrà 128 rop's (320 g.pixel), la 3080 ne ha 96 (172 gpixel), siamo a quasi il 2x.
Potenza TF, 20,5 - potenza nvidia media (20,5), potenza media 3070 (14 tf)
Potenza geometrica : 8 primitive - 6 la 3080 - 6 la 3070.
Sui texel è più potente Intel, a livello teorico.

A numeri supera la 3080 praticamente, certo non mi aspetto cmq che la pareggi o la superi sul campo (nvidia è più rodata), ma per andare come la 3070, significa che l'IPC è piuttosto scarso.:)

A leggere i numeri sembra un prodotto notevole, e non poco, mi stupisce che poi a terra riesca a scarica così poca potenza (sarebbe interessante capire dove sia il collo) :confused: Ovvio, sempre che poi ai fatti Intel non stupisca tutti con pestazioni elevate...

La prossma, anche fosse un 170wx2 la vedo fattibile, gli "altri" non credo ci andranno giù leggeri con i Watt :D

Vediamo poi se i driver via via ottimizzati non riescano a darle una prospettiva diversa. :)

Ubro92 16-03-2022 12:51

Sembra che intel abbia qualche progetto per le sue fonderie in Europa:

https://videocardz.com/press-release...vestment-plans

mikael84 18-03-2022 13:24

Quote:

Originariamente inviato da Maury (Messaggio 47782926)
A leggere i numeri sembra un prodotto notevole, e non poco, mi stupisce che poi a terra riesca a scarica così poca potenza (sarebbe interessante capire dove sia il collo) :confused: Ovvio, sempre che poi ai fatti Intel non stupisca tutti con pestazioni elevate...

Non è così semplice lanciare una microarchitettura ed essere competitivi in tutto con rivali che hanno arc. rodate.
Per fare un esempio, a pari TF, maxwell va il 40% sopra kepler. Ti potrei spiegare anche il perchè, ma andiamo off.:)
Quindi al debutto vedremmo dove saranno i colli di bottiglia, e quelli di forza.
Nvidia ha un punto di forza interno nei warp, come i registri, ben 1024 per cuda, con kepler 256, con maxwell 512.
Se i warp, fossero da 8 cuda, con annessa molta più logica, i cuda passerebbero ad un notevole risultato di 2048 istruzioni.
Questo è un aspetto da non sottovalutare.:)


Quote:

Originariamente inviato da Maury (Messaggio 47782926)
La prossma, anche fosse un 170wx2 la vedo fattibile, gli "altri" non credo ci andranno giù leggeri con i Watt :D

Beh quello si, ormai bisogna che rivedano le microarchitetture dall'interno, o altrimenti, si andrà sempre peggio. Considera ad esempio, che i 3nm, oltre ad un'altissima densità, avranno un efficienza del 25/30%.

Riguardo Intel MCM, considera però, che 2 chip assieme, significano un bus mastodontico a 512bit, che taglierebbero a 256/384bit, risparmiando non poca corrente, inoltre bisogna vedere gli eventuali lavori elettrici, guarda AMD con RDNA2...
Certo se buttano 2 stack così, prepariamoci a vedere alti.:p

Quote:

Originariamente inviato da Maury (Messaggio 47782926)
Vediamo poi se i driver via via ottimizzati non riescano a darle una prospettiva diversa. :)

Questo è molto importante, magari inizialmente produce tot, ma col tempo riescono a sfruttarla al meglio.
Ricordi le vecchie AMD al lancio, spesso disastroso, poi, piano piano, release dopo release, vedevi aumenti del 5%, a volte 10% e così via.:)

Maury 23-03-2022 11:59

Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:

Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)

Vash88 23-03-2022 13:32

Quote:

Originariamente inviato da Maury (Messaggio 47789934)
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:

Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)

Fanno quello che possono. È un investimento multi generazionale in un settore dominato da un player con un secondo che fa piazza pulita di tutto quello che resta. Aspettarsi che siano competitivi o in testa fin dall'inizio è irrealistico. Le prime schede che produrranno dovranno combattere in salita per guadagnarsi fette di mercato e saranno sicuramente vendute in perdita, sia per i volumi ridotti che per gli enormi investimenti in capitale necessario per far partire l'operazione. Sono a tutti gli effetti degli gli ultimi arrivati. Mi aspetto che i prezzi siano rapportati in base a queste considerazioni. Del resto non hanno bisogno di vendere una quantità esagerata di schede perché questa generazione sarà praticamente beta-testing pubblico.

Ubro92 23-03-2022 13:55

Quote:

Originariamente inviato da Maury (Messaggio 47789934)
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:

Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)

Considerando che i prezzi delle GPU stanno calando ora, è in realtà un ottimo momento.

Soprattutto per chi ha gpu con qualche anno alle spalle, e passare a gpu con potenza similiare a 3060ti-3070 è comunque un ottimo upgrade.

Sulle nuove gen di amd e nvidia non sappiamo nulla di come verranno gestite disponibilità e prezzi, e per la fascia media e bassa comunque se ne parla nel 2023 inoltrato quindi i margini ci sono ancora.

fraussantin 23-03-2022 14:34

Quote:

Originariamente inviato da Maury (Messaggio 47789934)
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:



Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)

Beh finché le scorte scarseggiano , non avranno problemi , poi se dovessero rimanere a scaffale le rtx e le RX , quindi a msrp o anche con sconti ovvio che dovranno fare prezzi aggressivi altrimenti chi se le piglia?

Quello che dobbiamo capire è se il "calo" della domanda a causa del rallentamento del mining o se è fisiologico perché ci stiamo avvicinando alla next gen e il tempo necessario per ammortizzare il costo diventa troppo poco.

Perché nel primo caso si può sperare in una next gen , si più costosa a listino , ma disponibile , nel secondo siamo nella cacca .

Maury 23-03-2022 15:46

E' una questione di prezzo, se avranno un prezzo concorrenziale avranno mercato, altrimenti la gente cercherà magari di stare più al sicuro puntando sui soliti noti, soprattutto in virtù del continuo calo di prezzo dei prodotti.

Intel dovendo farsi conoscere dovrà invogliare la gente a puntare su di lei, portando sul mercato un grosso numero di esemplari per soddisfare ogni possibile cliente interessato :)


Tutti gli orari sono GMT +1. Ora sono le: 01:02.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.