PDA

View Full Version : NV31 e NV34 benchmark


Redazione di Hardware Upg
28-02-2003, 09:19
Link alla notizia: http://news.hwupgrade.it/9417.html

Emergono i primi risultati prestazionali di quelle che saranno le nuove schede video lanciate da nVidia in occasione del Cebit di Hannover

Click sul link per visualizzare la notizia.

Geen
28-02-2003, 09:25
Come dire..si ha conferma di cosa prendere e cosa NON prendere,anche se alla fine statene pur certi che ne venderenno molte di queste schede,il marchio Nvidia pesa ancora troppo sulla scelta dei profani..

Gin2
28-02-2003, 09:31
sono ridicoli ormai...

frankie
28-02-2003, 09:34
è un po' come intel, un brand

sai come suona pentium4 e Geforce FX
piuttosto che
AthlonXP e radeon 9700

ma i prezzi e le prestazioni....

Arruffato
28-02-2003, 09:35
Dovrebbero essere quindi schede di fascia bassa, ne faccio di + io con la 4600 e un Athlon 2400+.

El Nano
28-02-2003, 09:36
E sai come suona Detonator al posto di catalist?

Trinità
28-02-2003, 09:39
NV34 di 879 ??? solo ???????
forse con la mia ati da 4 Mega e p2 233 faccio di +

YURE
28-02-2003, 09:40
io qui parlo da consumatore e dico che se i prodotti Nvidia perdono appeal si potrebbe configurare un monopolio da parte di Ati nel mercato high end, e questo fa molto male ai prezzi! le 9700 non scenderanno mai di prezzo! Speriamo in Sis a questo punto

ligama
28-02-2003, 09:47
non sappiamo come sono stati fatti questi benchs...magari con AA4X e FA 8x attivato!!
840 ptu per una NV34 sono troppo pochi visto che io, con la mia "misera" ti4200 supero i 1500.

ciao

YURE
28-02-2003, 09:55
non sappiamo come sono stati fatti questi benchs...magari con AA4X e FA 8x attivato!!
840 ptu per una NV34 sono troppo pochi visto che io, con la mia "misera" ti4200 supero i 1500.


non credo...sarebbe ben strano provare in anteprima una scheda così

cla_vice_to
28-02-2003, 09:55
VIVA NVIDIA

roentgen
28-02-2003, 09:58
879 pts per l'NV34 sono davvero una barzelletta: che sia un errore di battitura :D?

luckye
28-02-2003, 09:59
io ne faccio 927 con una geforce3.....che sia forse una Ultra Mega fx travestita ?
Ah....il punteggio con un mitico athlon 900 e 384Mb Pc133 con kt133 buggato

halduemilauno
28-02-2003, 10:06
non so quanti ne facciano le 9500 ma 2389 punti non mi paiono pochi.
con la 9700 pro ne fai circa 4600 io con la geffex 5800 ultra default ne faccio + di 5300.

pg08x
28-02-2003, 10:14
nv31 e nv34 dovevano essere versioni "castrate" un pò come le geforce4 mx lo erano rispetto alle geforce4 ti.
TUTTI I BENCH DI MADONION hanno sempre PENALIZZATO tutte le skede video che non supportano TUTTI EFFETTI (tutti o in parte) per cui tali bench sono scritti, ad esempio il 3dmark 2001 su una geforce2 (o 4 mx) restituisce valori molto più bassi di quanto ci si aspetterebbe proprio perchè queste schede non sono directX 8.
Stesso discorso per il 3dMark 2003 su schede non directX 9.
Ad esempio una radeon 8500 (grazie ai pixel shader più avanzati) nel 3dmark 2001 se la gioca con la geforce4 ti 4200 nonostante che la ti 4200 sia in assoluto più veloce.

pg08x
28-02-2003, 10:15
Nell'esempio dell'8500 mi riferivo al 3dmark 2003 ovviamente...

Skeletor
28-02-2003, 10:17
non mi meraviglierei se l'NV34 fosse "la geforce4 mx delle geforce fx"...

Manwë
28-02-2003, 10:20
Sanno tutti che 3D Mark 2003 è un fake-benchmark del tutto inutile a stabilire le vere prestazioni di un sottosistema grafico 3D.

Vediamo le differenze nei vari giochi da Q3 a UT2k3 passando per tutte le prossime novità in campo videoludico, tanto è solo nei videogiochi che si usano questi mostri ;)

pg08x
28-02-2003, 10:29
Io invece credo che per le schede directX 9 il 3dmark 2003 sarà un ottimo riferimento come lo sono stati i suoi predecessori in passato.
Tutta questa bagarre contro il 3dmark ne viene da nvidia che era stata la sua più grande sostenitrice proprio quando aveva schede concorrenziali.
Per confrontare schede non directx9 UN OTTIMO METRO DI PARAGONE NEL 3DMARK 2003 può essere il confronto sui valori restituiti dal SOLO TEST DELL'AEREO.
Ps lo sapevate che se installate l'SDK delle directX9 ed il 3dMark 2003 completo potete vedere il test mother nature anche con schede non directX9 ?
(certo con framerate osceni perchè in software rendering)

supergiova
28-02-2003, 10:30
E' vero, il 3D mark non serve a nulla, però in attesa del test sui giochi aiuta a "rendere l'idea" della qualità della scheda video. Se coi giochi avranno le medesime performance allora sono schede da 100/150$

pg08x
28-02-2003, 10:33
nv34 E' veramente la geforce MX delle FX !!!

bs82
28-02-2003, 10:35
per manwe

Il 3d mark non va bene per il sotto sistema grafico?
Ma al massimo puoi dirmi che non va bene per valutare un intero pc!

Sembra sia invece l'unico 3dmark che si basi completamente sulle prestazioni del solo chip video! gente con una 9700 su un athlon 1GHz fa gli stessi risultati di gente con un athlon 2600+!!!!

CS25
28-02-2003, 10:37
Io mi pongo un'altra domanda, che nessuno s'e' posto fin'ora : con che driver hanno testato le schede? Considerato che il gffx coi detonator ufficiali fa fare un misero 3000 al gffx, mentre coi 42.86 vola oltre i 5400, e' lecito chiedersi con cosa le 5600 e 5200 siano state testate.
Alla fin fine se l'NV31 costasse quanto un radeon9500/9500pro, risulterebbe conveniente, mentre riguardo l'NV34 non mi pronuncio poiche' e' viva la convinzione che non sia dx9...

Skeletor
28-02-2003, 10:40
il solito tranello per i meno informati quindi. immagino già le belle scatole con tutti quei disegni coloratissimi quando dentro c'è un prodotto di M***A

pandyno
28-02-2003, 10:41
las 9500 liscia ne fa 2600 di punti...
cmq vedremo nei giochi cosa saranno in grado di fare...

Manwë
28-02-2003, 10:44
Originally posted by "pg08x"

Io invece credo che per le schede directX 9 il 3dmark 2003 sarà un ottimo riferimento come lo sono stati i suoi predecessori in passato.
Tutta questa bagarre contro il 3dmark ne viene da nvidia che era stata la sua più grande sostenitrice proprio quando aveva schede concorrenziali.
Per confrontare schede non directx9 UN OTTIMO METRO DI PARAGONE NEL 3DMARK 2003 può essere il confronto sui valori restituiti dal SOLO TEST DELL'AEREO.
Ps lo sapevate che se installate l'SDK delle directX9 ed il 3dMark 2003 completo potete vedere il test mother nature anche con schede non directX9 ?
(certo con framerate osceni perchè in software rendering)


Allora non sei ben informato.
3DMark2003 è programmato al 98% con le Direct X 8.1 e solo il restante 2% è fatto in Dx9. Questo 2% lo trovi solo in un pezzo del 3° game bench.

La cosa più assurda è che proprio questo gamebench influisce per ben il 90% sul punteggio finale. Questo ha un senso netto: 3DMark 2k3 è un fakebench!

alex10
28-02-2003, 10:44
Ridicoli :D :D :sofico:

Cfranco
28-02-2003, 10:45
La mia 9500 Pro fa 3500 punti ...
Spero ardentemente che i bench siano fake , o abbiano usato i driver sballati , altrimenti sono schede grafiche da buttare .

Cfranco
28-02-2003, 10:46
Originally posted by "Manwë"


Allora non sei ben informato.
3DMark2003 è programmato al 98% con le Direct X 8.1 e solo il restante 2% è fatto in Dx9. Questo 2% lo trovi solo in un pezzo del 3° game bench.

Casomai il quarto
Originally posted by "Manwë"


La cosa più assurda è che proprio questo gamebench influisce per ben il 90% sul punteggio finale. Questo ha un senso netto: 3DMark 2k3 è un fakebench!
Incide al 30 %
E comunque NV34 e NV31 dovrebbero ( condizionale obbligatorio ) essere Dx 9 .

pandyno
28-02-2003, 10:50
Originally posted by "Cfranco"

La mia 9500 Pro fa 3500 punti ...
Spero ardentemente che i bench siano fake , o abbiano usato i driver sballati , altrimenti sono schede grafiche da buttare .

LA mia 3700 in default... cmq 3dzozz è meglio non considerarlo troppo...

seccio
28-02-2003, 10:50
io mi sono preso una 9500 moddata a 9700 due giorni fa,i catalyst mi hanno fatto una buona impressione, anche se vengo da nVidia(avevo e ho tutto'ora una Ti200@Ti500).Nn ho avuto almeno per adesso particolari problemi di incompatibilità, i giochi mi funzionano tutti, devo capire come funziona la storia del refresh ma è questione di abitudine...

Cmq per quello che ho speso per questa scheda sono stracontento,volevo aspettare qualche scheda nVidia visto che le 9500moddabili a 9700 nn si trovano più, ero disposto a spendere una follia....

Da quel che vedo oggi nel panorama delle schede video forse ho fatto davvero una mossa giusta a comprarmi la mia attuale 9500.....!visto che i prezzi della 9700 , e delle nVidia nn scenderanno mai almeno per adesso sotto i 250€.....nemmeno con l'arrivo della 9900....figuriamoci con l'avvento di queste schede.

In giro si cominciano a vedere foto della 9600 e della 9900....il prezzo della seconda nn si sa.....ma della prima nn sarà meno di 200€.Presumibilmente nemmeno una 9700liscia costerà meno....anzi qualcosa di più.

pandyno
28-02-2003, 10:53
Originally posted by "halduemilauno"

non so quanti ne facciano le 9500 ma 2389 punti non mi paiono pochi.
con la 9700 pro ne fai circa 4600 io con la geffex 5800 ultra default ne faccio + di 5300.

IO? che già ce l' hai l' FX?

la 9500liscia ne fa 2600 che passano a 3600 a 400/300
la 9500pro ne fa 3700 che passano a 4200 a 350/330 (quanto la 9700)
la 9700@9700pro ne fa circa 4300

il tutto su un athlonxp 1700+ 512mb ram no OC

cmq se provavano qualche gioco era meglio.

seccio
28-02-2003, 10:59
hai un PVT :D!

forse hal2001 voleva dire che la FX ne fa 5300 con i driver ottimizzati, i 42.67 , quelli insomma fatti appositamente per i 3dmark. Tempo fa c'èera la news su HardOCP. Cmq resta il fatto che se la FX va bene solo nei benchmark mi spiace nn vale la spesa di comprarsela. E notare che io volevo prendermi quella liscia.

halduemilauno
28-02-2003, 11:01
Originally posted by "pandyno"



IO? che già ce l' hai l' FX?

la 9500liscia ne fa 2600 che passano a 3600 a 400/300
la 9500pro ne fa 3700 che passano a 4200 a 350/330 (quanto la 9700)
la 9700@9700pro ne fa circa 4300

il tutto su un athlonxp 1700+ 512mb ram no OC

cmq se provavano qualche gioco era meglio.

non dimenticarti che c'è sempre la geffex 5800(liscia) e poi vedere che driver hanno usato.i primi specifici per le fx non sono ancora usciti pubblicamente.

pandyno
28-02-2003, 11:05
Se per questo ATI non ha ottimizzato dichiaratamente per 3dmark quindi secondo me il confronto è inutile...

I giochi SONO e SARANNO SEMPRE il test non 3dmark e lo ripeto per chi era ''assente'' le altre volte.

halduemilauno
28-02-2003, 11:08
Originally posted by "pandyno"

Se per questo ATI non ha ottimizzato dichiaratamente per 3dmark quindi secondo me il confronto è inutile...

I giochi SONO e SARANNO SEMPRE il test non 3dmark e lo ripeto per chi era ''assente'' le altre volte.

esatto.e a maggior ragione con questo 2003.il 2001 bene o male era coerente + o - con i test giochi.

pg08x
28-02-2003, 11:20
Prima ero stato semplicistico ma Il risultato non cambia:

3dMark 2003
4 Bench

Num Api Incidenza

1 DirectX7 22%
2 DirectX8.1 22%
3 DirectX8.1 22%
4 DirectX9 33%

Una buona parte del codice del 3dMark (il bench più complesso) è totalmente directX9, presi singolarmente questi 4 test sono ESTREMAMENTE VALIDI !!!
Casomai possiamo discutere il modo in cui Madonion ha deciso che incidano sul risultato finale.

OverClocK79®
28-02-2003, 11:27
879 punti?
ma sono peggio delle 4200?


BYEZZZZZZZZZZ

GURU
28-02-2003, 12:01
Se è per questo sono anche peggio delle Gef 3...
Mi sa che nn sono neppure totalmente DX8.xx compatibili...o se lo sono fanno veramente pena...
Mah...

raph45
28-02-2003, 12:12
Originally posted by "CS25"

Io mi pongo un'altra domanda, che nessuno s'e' posto fin'ora : con che driver hanno testato le schede? Considerato che il gffx coi detonator ufficiali fa fare un misero 3000 al gffx, mentre coi 42.86 vola oltre i 5400, e' lecito chiedersi con cosa le 5600 e 5200 siano state testate.


Io non me lo pongo il problema, considerando che è cosa risaputa che quei driver erano allo stesso livello di quei famosi ati con la faccenda quack, secondo me la fx con driver "normali" sta sotto alle ati con il 3dmark2003.

steel64
28-02-2003, 12:32
Guardate che NV34 dovrebbe essere soluzione molto entry-level e/o notebook, con possibilità di venire utilizzato in soluzioni di grzfica integrata.
Quindi è possibilissimo che abbia prestazioni molto ridotte. Quindi andrà confrontato al massimo con Radeon9000, non di più.

Uomo del monte
28-02-2003, 12:35
Qualcuno mi sa dire con precisione quando dovrebbe uscire la 9900? Devo acquistare al più presto e non riesco a decidermi. L'unica cosa certa è che non sarà una GeffoFX

}DrSlump{
28-02-2003, 12:41
marcondirondirondero

pg08x
28-02-2003, 12:46
Le nuove Ati dovrebbero arrivare a fine Marzo, converrebbe aspettare...

seccio
28-02-2003, 13:45
secondo me ad ATi cmq merita aspettare....altrimenti comincia anche lei a cambiare schede video ogni 6 mesi!

anche se nn tirasse fuori subitissimo la 9900 andrebbe bene lo stesso....la 9700 può reggere ancora parecchio!

TheDarkAngel
28-02-2003, 15:05
no...
devono far uscire il prima possibile le nuove schede video giusto per spazzare via nvidia

Golden American
28-02-2003, 15:26
raga' MSI ha abbandonato Nvidia a favore di ATi...
ma LOL
Nvidia e' in crisi totale
fonte hardocp

bruma
01-03-2003, 03:00
Cazzo vado meglio io che ho un proce 1000@1274 con 512
sdram e una gf3 500 ,ari cazzo faccio 1090 liscia e 1120 overclokkata(gf3500 gigabyte da paura).
Sicuramente si riprende.......
Almeno i driver li sa ancora fare.

seccio
01-03-2003, 10:35
quote="TheDarkAngel"]no...
devono far uscire il prima possibile le nuove schede video giusto per spazzare via nvidia[/quote]

SI come no! così ci ritroviamo un bel monopolio!!hai una mezza idea di cosa succederebbe se nVidia venisse "spazzata" ,come dici te, via??

la concorrenza ha sempre fatto bene al mercato , ai prezzi ma soprattutto a noi! e qui c'è ancora gente che osanna il fallimento di nVidia.....ma dico vi pagano per fare queste affermazioni..?

Originally posted by "Golden American"

raga' MSI ha abbandonato Nvidia a favore di ATi...
ma LOL
Nvidia e' in crisi totale
fonte hardocp

questa si che è una batosta.....

Originally posted by "bruma"

Cazzo vado meglio io che ho un proce 1000@1274 con 512
sdram e una gf3 500 ,ari cazzo faccio 1090 liscia e 1120 overclokkata(gf3500 gigabyte da paura).
Sicuramente si riprende.......
Almeno i driver li sa ancora fare.

le GeForce3 sono davvero delle schede da paura, le 4 nn sono altro che un'evoluzione dell'NV20! ;)
Anche io ho una Ti200@Ti500 della ABIT peccato che le mem salgono poco, ma cmq è una gran schedozza.

Cmq hai mai provato ATi? con che criterio giudichi i driver?io adesso ho messo sul comodino la GeForce3 e ho montata nel case una 9500@9700, e devo dire...anch'io ero pessimista al 100% per la questione dei driver e incompatiblità, ma mi son dovuto ricredere, nn c'è alcun gioco che nn mi vada, inoltre è davvero tutto un altro pianeta rispetto alla GeForce3 che avevo prima! giocare fisso con FSAA4x e filtri a 16x ad alte ris. è uno spettacolo.....!

Anche io da tutto quello che avevo letto mi aspettavo veramente il peggio a passare ad ATi....ma adesso che l'ho provata ho dovuto rivalutare tutta la situazione..e cmq spezzo una lancia in favore di ATi....penso che sia sulla buona strada per arrivare a risolvere i problemi che cmq ci sono!

DjLode
01-03-2003, 13:36
Si è sempre saputo che NV34 era il chip di fascia bassissima (diciamo la solita MX) e che l'NV31 sarebbe andato a porsi sopra le Gf4 come prestazioni senza filtri. Diciamo che l'NV31 si va a scontrare con le 9500 liscie e Pro. Dubito fortemente che tale notizia (dei punteggi del 3d mark 2003) abbia veramente stupito qualcuno (a parte quelli che ovviamente non sanno fare altro che criticare a destra e a manca la marca che loro non possiedono e che quindi reputano concorrente).
Davvero qualcuno si aspettava da questi due chip prestazioni pari o superiori alla 9700 liscia o Pro? Cacchio che fantasia :)
Per steel64: le versioni per notebook sono contraddistinte dalla lettera M dopo il nome del chip, con ogni probabilità ci sarà l'NV34M e l'NV31M. Ovviamente non so con che frequenze o altro.

Raven
01-03-2003, 20:17
... vedi di usare un linguaggio meno... "colorito"

Gohansupersaiyan4
01-03-2003, 20:21
Comun que hanno sbagliato una cosa : perchè nv34 va meno di nv31 , non sarebbe il contrario ? mah...


Ciao !

Raven
01-03-2003, 20:21
MSI NON ha abbandonato NVidia, ha solo annunciato che produrrà ANCHE schede Ati 9500... c'è una bella differenza!

Gohansupersaiyan4
01-03-2003, 20:26
Voglio dire , perchè chiamare nv34 una scheda che va meno di nv31 e nv30 ?


Ciao !

Betha23
02-03-2003, 12:00
No la chimavano Nv30-1 MUAHAHHA! e come dire perchè l'R250 va meno dell'R200! Sono solo nomi in codice!

STICK
02-03-2003, 14:41
Ragazzi a me sembra strano che nVIDIA produca schede che a leggere i loro test sono meno performanti del normale.Per me c'e qualcosa di strano sotto:potrebbe benissimo essere una mossa pubblicitaria,non credete???Io credo che dopo poco tiri fuori dei driver che di colpo faranno aumentare vertiginosamente le prestazioni,tutto sfruttando l'effetto sorpresa.Senno' sarebbe una mossa suicida quella di produrre schede video sottoperformanti non in linea con le attuali richieste.Voi che dite?

undertherain
03-03-2003, 15:41
W LA FIGA...

Raven
03-03-2003, 15:56
Sei bannato...

dmb
03-03-2003, 16:54
Da alcuni rumors l'nv 34 dovrebbe essere la versione ultra economica (al posto delle Mx) e avere 45 Milioni di Gate, la 4200 ne ha 60 M. (mi sembra) pertanto questi dati potrebbero essere veritieri.
Byez

losqualobianco
03-03-2003, 18:12
Originally posted by "dmb"

Da alcuni rumors l'nv 34 dovrebbe essere la versione ultra economica (al posto delle Mx) e avere 45 Milioni di Gate, la 4200 ne ha 60 M. (mi sembra) pertanto questi dati potrebbero essere veritieri.
Byez

l'NV34 dovrebbe avere i VS software, quindi crollo totale nel primo bench di 3dmark2003 (che fa largo uso dei VS).

E' la geffoFX-MX :pig: messa in cantiere pensando di venderla (abbindolando) con il richiamo delle sorelle maggiori.

Sono queste le cose che mi danno realmente fastidio della politica commerciale di nVidia :muro: , si dimenticano che chi viene fregato una volta difficilmente si lascia abbindolare una successiva con lo stesso trucco.

losqualobianco
03-03-2003, 18:18
Aggiungo che il 3dmark2003 nn serve a granchè per valutare le prestazioni di una scheda con i giochi attuali ma sembra UTILISSIMO per scammuffare i problemi delle varie schede.

NV30 -> problema di velocità sui PS2.0
R200 -> più lenta delle geffo4 anche se i test fanno uso dei PS1.4 (problema sull'implementazione dei PS1.4)
NV34 -> qualcosa di importante è realizzato in software (leggendo in giro dovrebbe trattarsi dei VS)

Sto rivalutando il 3DM2003 rispetto al 2001.

halduemilauno
03-03-2003, 18:26
Originally posted by "losqualobianco"



l'NV34 dovrebbe avere i VS software, quindi crollo totale nel primo bench di 3dmark2003 (che fa largo uso dei VS).

E' la geffoFX-MX :pig: messa in cantiere pensando di venderla (abbindolando) con il richiamo delle sorelle maggiori.

Sono queste le cose che mi danno realmente fastidio della politica commerciale di nVidia :muro: , si dimenticano che chi viene fregato una volta difficilmente si lascia abbindolare una successiva con lo stesso trucco.

non so nulla di preciso se non che sarà presentata il 6.3 prossimo e che costerà 99$(tasse comprese negli usa).
ma ti/vi voglio dire ma a quel prezzo tu cosa avresti offerto?
anche ati ha fatto la sua mx, la 9000 con un preciso richiamo alle sorelle maggiori e quindi...
anch'io come tutti vorremmo una scheda entry level tipo geffo4ti o ati 9500pro a 100€ ma credi che sia remunerativo per le case che le producono?
senza contare che non tutti abbiamo le stesse esigenze e possibilità.specialmente in molte parti del mondo.

losqualobianco
03-03-2003, 19:14
Originally posted by "halduemilauno"



non so nulla di preciso se non che sarà presentata il 6.3 prossimo e che costerà 99$(tasse comprese negli usa).
ma ti/vi voglio dire ma a quel prezzo tu cosa avresti offerto?
anche ati ha fatto la sua mx, la 9000 con un preciso richiamo alle sorelle maggiori e quindi...
anch'io come tutti vorremmo una scheda entry level tipo geffo4ti o ati 9500pro a 100€ ma credi che sia remunerativo per le case che le producono?
senza contare che non tutti abbiamo le stesse esigenze e possibilità.specialmente in molte parti del mondo.

Stessimo parlando di SIS ti darei anche ragione ... ma a 99$ (che poi qui diventano 120-150€) nvidia potrebbe vendere
1 una geffo3 con della buona ram
2 una geffo4 con memorie da 200MHz e core a 250MHz
entrambe supportano le dx8 tutto in hardware
entrambe mi sembrano soluzioni migliori

Se l'nv34 ha i VS in software (a là SIS) non è nemmeno fullDX8 hardware, e questo a dispetto del codice NV3x che farebbe pensare a DX9, ed è questo che mi dà fastidio, pensare che sulla scatola ci metteranno il logo DX9 (dimenticando di scrivere compatibile a livello di slide-show) ;)

Per chi nn vuole spendere una patrimonio in sk video ci sono a 100-150€ schede migliori, ti4200 e 9100/8500 in primis ma anche le geffo3 o le 9000 mi paiono meglio.

losqualobianco
03-03-2003, 19:26
Scusate il doppio 3ad

Per quanto riguarda l'NV31 si dice che abbia 4x1 pip.xtmu e quindi il risultato nel 3dmark2003 la allinea alla 9500liscia (4x1). (nessuna funzione svolta in software)

Mi pare una gpu "onesta" (per togliere le virgolette aspetto di vedere il prezzo) con in prospettiva ottime possibilità di overclock (visto a che freq. arriva la "mamma").
Un successo se il prezzo sarà onesto (~200€)

halduemilauno
03-03-2003, 19:33
Originally posted by "losqualobianco"



Stessimo parlando di SIS ti darei anche ragione ... ma a 99$ (che poi qui diventano 120-150€) nvidia potrebbe vendere
1 una geffo3 con della buona ram
2 una geffo4 con memorie da 200MHz e core a 250MHz
entrambe supportano le dx8 tutto in hardware
entrambe mi sembrano soluzioni migliori

Se l'nv34 ha i VS in software (a là SIS) non è nemmeno fullDX8 hardware, e questo a dispetto del codice NV3x che farebbe pensare a DX9, ed è questo che mi dà fastidio, pensare che sulla scatola ci metteranno il logo DX9 (dimenticando di scrivere compatibile a livello di slide-show) ;)

Per chi nn vuole spendere una patrimonio in sk video ci sono a 100-150€ schede migliori, ti4200 e 9100/8500 in primis ma anche le geffo3 o le 9000 mi paiono meglio.

scusa ma a te chi te lo ha detto che la nv 34 non è neanche dx8.
per il resto non dimenticarti che ci sono dei costi di produzione da tener conto.non sempre è opportuno declassare un chip tipo geffo4ti ad entry level(magari).un chip con 50 e + milioni di transistor ha un costo industriale elevato rispetto ad un nuovo chip con "soli"30 milioni di transistor.

losqualobianco
03-03-2003, 19:59
Una cosa è fullDX9 Hardware
Un'altra è dire DX9 compatibile

Se una (o +) funzione/i sono svolte in software (es. i vertex shaders), sinceramente nn saprei come qualificarla. (i VS hardware le hanno tutte le gpu fullDX8)

NV34 fullDX9 slide-show?
oppure

2*NV17 = NV34 = 2*DX7?

:D
nn te la prendere ma quando un prodotto è una **bipppp** nn riesco a resistere :D

P.S. magari TheInquirer si sbaglia (con le sparate che fa nn è difficile) e l'NV34 va meglio di una ti4200 e allora *GNAM GNAM* (mi rimangio tutto)

losqualobianco
03-03-2003, 20:26
Le SDK delle DX9 dicono che:

"Software shaders have been implemented to facilitate shader development without hardware support. The following software versions have been added: vs_2_sw, vs_3_sw, ps_2_sw, ps_3_sw."

In pratica si potrà marchiare una sk come DX9 anche se va avanti con shaders via software.

Ma dai sono proprio queste cose che affondano la possibilità che nei futuri giochi vengano utilizzate le features delle ultime schede :mad:
Grazie nVidia per l'NV34 :muro:

dmb
04-03-2003, 10:10
2 o 3 cose....

Sono il primo a pensare che la Ati ha sbagliato completamente a nominare come 9000 una scheda che è in realtà una "8200", c'è già abbastanza confusione nella testa di Ati e (soprattutto) Nvidia e non c'era bisogno di crearla nella testa degli utenti :muro: :muro:

Imho Ati ha comunque il grande merito di aver capito una cosa, per le schede di fascia diversa dal top è + giusto infierire sulle prestazioni (che tanto non a tutti servono) piuttosto che sullo standard di programmazione.
Se Nvidia avesse da subito portato le Mx a dx 8 , i giochi che le sfruttavano sarebbero usciti MOLTO prima (dico nvidia Xchè era leader del mercato).
Scommetto che con quasi tutto il nuovo Lineup Ati Dx 9 (dall'Rv350 in su), non aspetteremo molto x i giochi Dx 9).

Ultimo ma non per importanza, a chi credete che giovi l'uso di Vertex shader Software, (Biiip a Intel.........Le so..... TUTTE !!!!! :D :D )
Così chi spende meno (acquistando Nvidia) deve poi acquistare un fiammante Prescott :D :D con le sse3 e 3 dei 4 thread virtuali incatenati ad uso del DX 9.....

Sono sempre + perplesso.......

Byezzz

losqualobianco
04-03-2003, 11:49
Concordo su tutto quello che ha scritto dmb

Purtroppo l'entry-level nVidia detta lo standard dei futuri videogames.

Se i giochi odierni di DX8 hanno poco o nulla (gli stessi UT2003 e Unreal2 sono sostanzialmente dei DX7 con qualche features di DX8 (poche)), ciò lo si deve IMHO principalmente all'esistenza di una sk che si chiama Geforce4 MX :mad:

Se ora la futura MX (anche se nn la chiameranno così -> FX5200) ha gli shaders via software, è come dire che gli shaders nn saranno utilizzati nei futuri videogames.

Spero di sbagliarmi, c'è cmq una possibilità che come dice HAL l'NV34 sia fulldx9

pipeline dimezzate rispetto all'NV30 -> 2x2 (velocità dimezzata)
freq. di 250/250 (velocità dimezzata)
driver "normali" -> FX ~3600 -> NV34 ~ 900 p.ti al 3dmark2003

Spero che il basso punteggio sia da attribuire a questo e quindi l'NV34 risulti 100% hardware compatibile DX9 anche se slide-show

Se invece ha qualcosa fatto in software spero che gli restino tutti negli scaffali -> questo è uno di quei casi in cui la concorrenza più che essere un bene è un MALE.

dmb
04-03-2003, 12:21
Originally posted by "losqualobianco"

Concordo su tutto quello che ha scritto dmb

Purtroppo l'entry-level nVidia detta lo standard dei futuri videogames.

Se i giochi odierni di DX8 hanno poco o nulla (gli stessi UT2003 e Unreal2 sono sostanzialmente dei DX7 con qualche features di DX8 (poche)), ciò lo si deve IMHO principalmente all'esistenza di una sk che si chiama Geforce4 MX :mad:

Se ora la futura MX (anche se nn la chiameranno così -> FX5200) ha gli shaders via software, è come dire che gli shaders nn saranno utilizzati nei futuri videogames.

Spero di sbagliarmi, c'è cmq una possibilità che come dice HAL l'NV34 sia fulldx9

pipeline dimezzate rispetto all'NV30 -> 2x2 (velocità dimezzata)
freq. di 250/250 (velocità dimezzata)
driver "normali" -> FX ~3600 -> NV34 ~ 900 p.ti al 3dmark2003

Spero che il basso punteggio sia da attribuire a questo e quindi l'NV34 risulti 100% hardware compatibile DX9 anche se slide-show

Se invece ha qualcosa fatto in software spero che gli restino tutti negli scaffali -> questo è uno di quei casi in cui la concorrenza più che essere un bene è un MALE.

Nv 30 -->130M Gates-->4x2 Tmu's Dx 9
Nv 31-->80M Gates-->2x2 Tmu's oppure 4x1 Tmu's Dx9
Nv34-->45M Gates-->1x2 Tmu's oppure 2X1 Tmu's Dx9 ?

Mi sembrano armi un pò spuntate x il mercato dei prossimi mesi.

Eppoi l'Nv 34 sarà offerto in bundle con Power Point :D :D :cool:
Il timeout delle slide sarà hardware-managed con lo slide del clock :sofico: :sofico:

Io comunque spero (e sono rimasto l'unico :( ) in una resurrezione di Matrox (una padellia pesantemente rimaneggiata :confused: :confused: ) farebbe solo bene al mercato.

Byez...

cdimauro
04-03-2003, 12:51
Per me una GPU che non implementa completamente in hardware TUTTE le caratteristiche delle DirectX 9 non può essere considerata DX9-compliant... :rolleyes:

Altrimenti lo potrebbe essere anche la mia vecchia VooDoo3 3000 con dei driver aggiornati... :D

halduemilauno
04-03-2003, 13:02
Originally posted by "losqualobianco"


Spero di sbagliarmi, c'è cmq una possibilità che come dice HAL l'NV34 sia fulldx9



ciao.
ma io non dico niente(perchè ancora non so)io ti chiedevo come fai a dire che la NV34 non è nemmeno dx8.cioè dove lo hai letto?
comunque fra poco(6.3)sapremo tutto.
http://www.digitimes.com/NewsShow/Article2.asp?datePublish=2003/03/04&pages=04&seq=13
:) :)

cdimauro
04-03-2003, 13:05
Semplice: se implementa gli shader in software non può considerarsi nemmeno DX8-compliant...

losqualobianco
04-03-2003, 13:18
Originally posted by "halduemilauno"




ciao.
ma io non dico niente(perchè ancora non so)io ti chiedevo come fai a dire che la NV34 non è nemmeno dx8.cioè dove lo hai letto?
comunque fra poco(6.3)sapremo tutto.
http://www.digitimes.com/NewsShow/Article2.asp?datePublish=2003/03/04&pages=04&seq=13
:) :)

qui è più interessante ;)
http://www.nvnews.net/vbulletin/showthread.php?s=71b27f70ee1b6b2f866b8fa0c8385aef&threadid=8154

cmq sembra dato per scontato che l'NV34 sia a 0,15u (per problemi di produzione di 0,13u in grosse quantità)
http://www.notforidiots.com/GPURW.php

Maury
04-03-2003, 13:29
Originally posted by "cdimauro"

Per me una GPU che non implementa completamente in hardware TUTTE le caratteristiche delle DirectX 9 non può essere considerata DX9-compliant... :rolleyes:

Altrimenti lo potrebbe essere anche la mia vecchia VooDoo3 3000 con dei driver aggiornati... :D

In teoria la regola dovrebeb essere questa ... :rolleyes:

dmb
04-03-2003, 19:07
Originally posted by "losqualobianco"

Concordo su tutto quello che ha scritto dmb

Purtroppo l'entry-level nVidia detta lo standard dei futuri videogames.

Se i giochi odierni di DX8 hanno poco o nulla (gli stessi UT2003 e Unreal2 sono sostanzialmente dei DX7 con qualche features di DX8 (poche)), ciò lo si deve IMHO principalmente all'esistenza di una sk che si chiama Geforce4 MX :mad:

Se ora la futura MX (anche se nn la chiameranno così -> FX5200) ha gli shaders via software, è come dire che gli shaders nn saranno utilizzati nei futuri videogames.

Spero di sbagliarmi, c'è cmq una possibilità che come dice HAL l'NV34 sia fulldx9

pipeline dimezzate rispetto all'NV30 -> 2x2 (velocità dimezzata)
freq. di 250/250 (velocità dimezzata)
driver "normali" -> FX ~3600 -> NV34 ~ 900 p.ti al 3dmark2003

Spero che il basso punteggio sia da attribuire a questo e quindi l'NV34 risulti 100% hardware compatibile DX9 anche se slide-show

Se invece ha qualcosa fatto in software spero che gli restino tutti negli scaffali -> questo è uno di quei casi in cui la concorrenza più che essere un bene è un MALE.

Grazie X l'appoggio morale :) :) :) ;)

Ps. Di questi tempi ci possiamo lanciare in qualunque ipotesi sui futuri chip, tanto anche quando escono sul mercato, le Spec's vengono (da qualche produttore) considerate alla stregua di rumor's , cioè arbitrarie alla realtà :D :D :mad: (risata amara)
Non è grave fare un chip mediocre, ma prenderci per il nostro punto di equilibrio nello spazio 3d ;)

Byez