Entra

View Full Version : nVidia GeForce 6800 - Thread Ufficiale


Pagine : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Dark Schneider
01-05-2004, 12:04
Originariamente inviato da yossarian
logica tecnica: utilizzo di un minor numero di transistor e circuiti più semplificati (si utilizzerebbero, ad esempio, registri temporanei comuni (che con i PS3.0 sono saliti da 12 a 32 per unità PS); non esistono vantaggi in altri ambiti: tieni conto che avere tante unità indipendenti equivale ad avere la possibilità di far svolgere al chip tante operazioni in contemporanea.

logica di marketing: fanno uscire adesso un'architettura più lenta (con dipendenza tra alu e tmu) per poi tirarne fuori una più veloce in cui le unità di calcolo sono indipendenti. Praticamente si vende due volte la stessa tecnologia. Non è escluso che anche nVIDIA possa aver fatto qualcosa del genere e che in un futuro chip si riproponga la stessa architettura dell'NV40, con alu e tmu indipendenti (magari passando agli 0.11 u)




Capito!! :)
Beh cmq secondo me R420 è indipendente cmq!! :)

Dark Schneider
01-05-2004, 12:07
Originariamente inviato da nonikname
nVIDIA NV40 @ NVitalia (http://www.nvitalia.com/articoli/anteprima_NV40/1.htm)


Aggiungo!! :)

Simon82
01-05-2004, 13:39
Qualcuno mi spiega se il discorso delle immagini PS2.0 VS PS3.0 alla presentazione di NV40 fosse quindi un inganno visto che intervistando la Crytek hanno detto che non ci sono nessuna differenza visibile tra le due versioni al momento?

andreamarra
01-05-2004, 13:58
Originariamente inviato da yossarian
no; sono della Roma. Però i thread che aprono gli juventini sono, secondo me, quelli più divertenti. andreamarra, tra l'altro, è uno dei miei idoli.

:D

:flower:

Grazie per le belle parole, sono commosso!

Grazie anche per le graditissime considerzioni tecniche :cool:


ot
se ti va ogni tanto potresti postare nel nostro cla, lo spaMm è garantito :D
/ot

Dark Schneider
01-05-2004, 14:19
Originariamente inviato da Simon82
Qualcuno mi spiega se il discorso delle immagini PS2.0 VS PS3.0 alla presentazione di NV40 fosse quindi un inganno visto che intervistando la Crytek hanno detto che non ci sono nessuna differenza visibile tra le due versioni al momento?


Semplicemente c'è stato un equivoco del sito che l'aveva postato che io sappia. Non erano dei confronti tra i 2.0 e i 3.0!! Da quello che ho capito io è che sono con i 1.x e 3.0....o addirittura era per mostrare la differenza senza shader e con gli shader.

andreamarra
01-05-2004, 14:35
Originariamente inviato da Dark Schneider
Semplicemente c'è stato un equivoco del sito che l'aveva postato che io sappia. Non erano dei confronti tra i 2.0 e i 3.0!! Da quello che ho capito io è che sono con i 1.x e 3.0....o addirittura era per mostrare la differenza senza shader e con gli shader.

Esatto, in pratica hanno fatto vedere le differenze tra una modalità mista 1.1 e 2.0 contro un 3.0

Tra l'altro i 3.0 non hanno nulla di diverso dai 2.0 dal punto di vista visivo, ma solo di performance.

yossarian
01-05-2004, 15:35
Originariamente inviato da andreamarra
:flower:

Grazie per le belle parole, sono commosso!

Grazie anche per le graditissime considerzioni tecniche :cool:


ot
se ti va ogni tanto potresti postare nel nostro cla, lo spaMm è garantito :D
/ot

accetto volentieri l'invito


;)

nonikname
01-05-2004, 16:31
http://homepage.ntlworld.com/p.toler/diginalu.jpg

andreamarra
01-05-2004, 16:48
Originariamente inviato da nonikname
http://homepage.ntlworld.com/p.toler/diginalu.jpg


CHE ORROREEE!!!!!!! :eek:

:asd: :asd:




non dirmi ch sei tu.... :D

KuWa
01-05-2004, 17:53
sbavvvvv che scheda fantastica, la vogliooooooooooooooooooooooooooooooooooo :D cmq per quanto riguarda le critiche fatte al consumo sono ridicole. guardate una ferrari consuma un casino di benzina ma se uno se la può permettere non ci fa caso, i soldi li ha. se voi non avete soldi per pagarvi la bolletta o per comprarvi un alimentatore nuovo non avete manco i soldi per pagarvi la scheda. azz la mia tastiera è piena di salivaaaaaaa, sto sbavando

nonikname
01-05-2004, 17:59
Originariamente inviato da andreamarra
CHE ORROREEE!!!!!!! :eek:

:asd: :asd:




non dirmi ch sei tu.... :D

No , credo che sia un utente del forum di Beyond3d :D

P.S. Io ho gli occhiali neri , caschetto , pizzetto e orecchie a punta !!! :D :sofico:

xpiuma
01-05-2004, 18:07
Solo il pensiero che possa esistere una patch per il demo di Nalu che faccia comparire questo mostro al suo posto è un valido motivo per prendere ATI!!! :D

Comunque il fotomontaggio è fatto bene... :Puke:

andreamarra
01-05-2004, 18:08
Originariamente inviato da KuWa
sbavvvvv che scheda fantastica, la vogliooooooooooooooooooooooooooooooooooo :D cmq per quanto riguarda le critiche fatte al consumo sono ridicole. guardate una ferrari consuma un casino di benzina ma se uno se la può permettere non ci fa caso, i soldi li ha. se voi non avete soldi per pagarvi la bolletta o per comprarvi un alimentatore nuovo non avete manco i soldi per pagarvi la scheda. azz la mia tastiera è piena di salivaaaaaaa, sto sbavando


Non è il discorso sulla bolleta, ma sul fatto che

-c'è maggior calore
-si sale di meno in overclok
-se overcloki il pc avrai un alimentatore meno efficiente (credo, almeno)

io aspetterei tutte e due le schede per sbavare... ci sarà da sbavare parecchio :)

halduemilauno
01-05-2004, 18:11
Originariamente inviato da andreamarra
Non è il discorso sulla bolleta, ma sul fatto che

-c'è maggior calore
-si sale di meno in overclok
-se overcloki il pc avrai un alimentatore meno efficiente (credo, almeno)

io aspetterei tutte e due le schede per sbavare... ci sarà da sbavare parecchio :)


sull'aspettare tutte e due non c'è dubbio.
sul calore pare che il chip sia freddo anche dopo un uso prolungato.
sull'oc sarei d'accordo.
che centra se oc l'ali è meno efficente?
ciao.
:) :)

andreamarra
01-05-2004, 18:25
Originariamente inviato da halduemilauno
sull'aspettare tutte e due non c'è dubbio.
sul calore pare che il chip sia freddo anche dopo un uso prolungato.
sull'oc sarei d'accordo.
che centra se oc l'ali è meno efficente?
ciao.
:) :)


Sul calore: avevo capito che fosse un pò tirato il chip, se non è così e meglio :) Anche parlando di tutti quei milioni di transistor mi aspettavo un calore non indifferente.

penso sul fatto che un alimentatore dovendo dosare voltaggi e corrente in maniera perfetta potrebbe risentire di una scheda con doppio molex. Non ne sono sicuro, infatti ho chiesto se può portare dei "danni" all'overclok estremo (che poi sarebbe un problema di noi nerds forumisti... :D )

ciao :)

halduemilauno
01-05-2004, 18:33
Originariamente inviato da andreamarra
Sul calore: avevo capito che fosse un pò tirato il chip, se non è così e meglio :) Anche parlando di tutti quei milioni di transistor mi aspettavo un calore non indifferente.

penso sul fatto che un alimentatore dovendo dosare voltaggi e corrente in maniera perfetta potrebbe risentire di una scheda con doppio molex. Non ne sono sicuro, infatti ho chiesto se può portare dei "danni" all'overclok estremo (che poi sarebbe un problema di noi nerds forumisti... :D )

ciao :)


infatti non a caso nVidia consiglia ali da 480watt. anche se poi leggendo molte rece si è usato un ali da 350 watt senza alcun problema. personalmente credo che chi ha un ali sui 400 watt possa stare tranquillo.
ciao.

:) :)

andreamarra
01-05-2004, 18:45
Originariamente inviato da halduemilauno
infatti non a caso nVidia consiglia ali da 480watt. anche se poi leggendo molte rece si è usato un ali da 350 watt senza alcun problema. personalmente credo che chi ha un ali sui 400 watt possa stare tranquillo.
ciao.

:) :)


E per noi demolitori di hardware :D :sofico: ??

dario fgx
01-05-2004, 19:10
raga avrei una curiosità da soddisfare:
quale tra i due nuovi chip si appoggia di piu' alla cpu?
nn credo che sia una domanda stupida...ma potrebbe anche eserlo!
lo chiedo solo xchè dopo aver aggiunto altri 512 mega di ram e comprato nv40(tutte cose che farò questa estate) nn hointenzione di cambiare anche cpu!

Dark Schneider
01-05-2004, 22:54
Ragà la Pro/GT dovrebbe arrivare in Giugno, giusto?

Dark Schneider
02-05-2004, 00:17
Originariamente inviato da halduemilauno
infatti non a caso nVidia consiglia ali da 480watt. anche se poi leggendo molte rece si è usato un ali da 350 watt senza alcun problema. personalmente credo che chi ha un ali sui 400 watt possa stare tranquillo.
ciao.

:) :)


Hal in quale recensioni son stati usati ali da 350?

Dark Schneider
02-05-2004, 00:32
Cmq sbaglio o Guru 3d ha usato anche l'FSAA a 8X che era risultato inutilizzabile? No perchè da come ho visto tanto male non si comporta o sbaglio?

Vifani
02-05-2004, 01:04
Originariamente inviato da Dark Schneider
Cmq sbaglio o Guru 3d ha usato anche l'FSAA a 8X che era risultato inutilizzabile? No perchè da come ho visto tanto male non si comporta o sbaglio?

Il FSAA 8x è assolutamente inutilizzabile.

http://www.hwupgrade.it/articoli/1004/antialiasing_1.gif

Vifani
02-05-2004, 01:06
Originariamente inviato da Dark Schneider
Hal in quale recensioni son stati usati ali da 350?

Abbiamo provato anche noi con un alimentatore da 350 W e la scheda ha funzionato benissimo. Però, come ho già detto, il sistema di test è privo di qualsiasi periferica aggiuntiva che non sia strettamente necessaria ai benchmark: niente lettori ottici, un solo HD, niente audio, niente LAN, ecc...

JENA PLISSKEN
02-05-2004, 01:07
Originariamente inviato da Vifani
Abbiamo provato anche noi con un alimentatore da 350 W e la scheda ha funzionato benissimo. Però, come ho già detto, il sistema di test è privo di qualsiasi periferica aggiuntiva che non sia strettamente necessaria ai benchmark: niente lettori ottici, un solo HD, niente audio, niente LAN, ecc...

Ehm...hai finito la rece dell' R420??:ops2:

Dark Schneider
02-05-2004, 01:10
Originariamente inviato da Vifani
Abbiamo provato anche noi con un alimentatore da 350 W e la scheda ha funzionato benissimo. Però, come ho già detto, il sistema di test è privo di qualsiasi periferica aggiuntiva che non sia strettamente necessaria ai benchmark: niente lettori ottici, un solo HD, niente audio, niente LAN, ecc...


Allora un 400-420 watt penso con amperaggi buoni ci voglia.

Cmq secondo te una versione Pro con 16 Pipeline e core/mem 350/1000 può essere che richiederà un solo molex? Per me è un po' difficile...cioè alla fine è più vicino come caratteristiche alla Ultra che alla liscia....SE verranno confermati. Poi mi sbaglierò.

Dark Schneider
02-05-2004, 01:13
Originariamente inviato da Vifani
Il FSAA 8x è assolutamente inutilizzabile.

http://www.hwupgrade.it/articoli/1004/antialiasing_1.gif


Mmm in effetti Guru 3d è a mio parere un po' mal fatta la recensione...ci sono grafici un po' incomprensibili che non si riesce a capire a che scheda è riferito,ecc. E' cmq loro hanno provato mi pare a 1024..ecco perchè forse mi sembravano accettabili. A 1280 si crolla.

Vifani
02-05-2004, 01:47
Originariamente inviato da JENA PLISSKEN
Ehm...hai finito la rece dell' R420??:ops2:

:rolleyes:

Vifani
02-05-2004, 01:48
Originariamente inviato da Dark Schneider
Allora un 400-420 watt penso con amperaggi buoni ci voglia.

Cmq secondo te una versione Pro con 16 Pipeline e core/mem 350/1000 può essere che richiederà un solo molex? Per me è un po' difficile...cioè alla fine è più vicino come caratteristiche alla Ultra che alla liscia....SE verranno confermati. Poi mi sbaglierò.

Penso che useranno comunque i due molex.

JENA PLISSKEN
02-05-2004, 01:58
Originariamente inviato da Vifani
:rolleyes:
:sofico:

Dark Schneider
02-05-2004, 01:58
Originariamente inviato da Vifani
Penso che useranno comunque i due molex.


Mmm come pensavo.

Io cmq ho sulla MB:la scheda audio è integrata vabbè...poi un floppy, 2 hd, 1 masterizzatore ed una scheda di rete(oltre a quella integrata) visto che reggo una piccola lan. Niente OC.

Ma per la Ultra che alimentatore avete utilizzato?

JENA PLISSKEN
02-05-2004, 01:59
Originariamente inviato da Dark Schneider
Mmm come pensavo.

Io cmq ho sulla MB:la scheda audio è integrata vabbè...poi un floppy, 2 hd, 1 masterizzatore ed una scheda di rete(oltre a quella integrata) visto che reggo una piccola lan. Niente OC.

Ma per la Ultra che alimentatore avete utilizzato?

Ha scritto 350w:)

Vifani
02-05-2004, 02:08
Il 350 W era del tutto anonimo... :D

Il 450 W non ricordo. Devo vedere.

Io vado a nanna :ronf:

JENA PLISSKEN
02-05-2004, 02:15
Originariamente inviato da Vifani
Il 350 W era del tutto anonimo... :D

Il 450 W non ricordo. Devo vedere.

Io vado a nanna :ronf:

AZZ...alta tecnologia:eekk: :eekk: :eekk: :eekk: Nn sarà mica un PIPRIPICCHIOTEC???



















:sofico: :sofico:

Dark Schneider
02-05-2004, 02:21
Originariamente inviato da JENA PLISSKEN
Ha scritto 350w:)


Si però ha detto che non c'erano i lettori ottici, schede di rete,ecc.
Considerando che io ho 2 hd, scheda di rete ed 1 masterizzatore...forse un 400-420 watt ci vuole.

Oddio adesso che mi ci fai ripensare è anche vero che però loro hanno usato il P4 3.06 Ghz che già normalmente consuma 80 watt ed ho letto che può arrivare a picchi di 105 Watt.

Io invece con il mio Thoro 2600+ normalmente ne consuma 62 di watt e al massimo 68 watt. Quindi un numero mooolto inferiore! Meglio così :) Il discorso è già ben diverso.

JENA PLISSKEN
02-05-2004, 02:23
Originariamente inviato da Dark Schneider
Si però ha detto che non c'erano i lettori ottici, schede di rete,ecc.
Considerando che io ho 2 hd, scheda di rete ed 1 masterizzatore...forse un 400-420 watt ci vuole.

Oddio adesso che mi ci fai ripensare è anche vero che però loro hanno usato il P4 3.06 Ghz che già normalmente consuma 80 watt ed ho letto che può arrivare a picchi di 105 Watt.

Io invece con il mio Thoro 2600+ normalmente ne consuma 62 di watt e al massimo 68 watt. Quindi un numero mooolto inferiore! Meglio così :) Il discorso è già ben diverso.

Mah...cmq se hai un 420w Chieftec almeno Nn credo che avrai grossi problemi....a meno che tu NN inizi ad oC;)

Dark Schneider
02-05-2004, 02:31
Originariamente inviato da JENA PLISSKEN
Mah...cmq se hai un 420w Chieftec almeno Nn credo che avrai grossi problemi....a meno che tu NN inizi ad oC;)


Ma di certo la scheda video NON l'ha OC. Figurati che non ho mai OC la 4200...se non per qlc minuto quando dovevo fare qlc test.

Al massimo più in là a 3200+ ce lo potrei cmq portare. Ma anche a 3200+ si tratta di valori inferiori a quelli di un P4 3.06 Ghz in uso "normale".

Ho diversi ali: l'unica cosa è che uno da 500 watt molto buono che avevo s'è fottuto la scorsa settimana.....non so come..tra l'altro nemmeno lo usavo. Era il Perdoon 500 watt..marca che magari non si conosce ma che è ottima (chiedi a pandyno che è riuscito a super OC a 2400 Mhz se non oltre con sto ali). Ne sto usando uno da 400 watt..discreto che va bene sul 2600+. In alternativa avrei sempre l'arma segreta nel cassetto: l'Enermax 431 watt moddato! :D

Dark Schneider
02-05-2004, 03:02
Cmq ragà davvero adesso che ci penso riguardo ad i consumi..tutti a spaventarsi degli alimentatori richiesti esosi....

Guardavo la recensione di HwUpgrade: utilizzato un P4 3.06 Ghz.

Ma adesso che vado a ripensarci il P4 consuma molto più del mio Thoro:

P4 3.06 Ghz

Uso normale: 80 watt
Max: picchi da 105 watt

Thoro B 2600+ 2083 Mhz

Uso normale: 62 watt
Max: picchi da 68 watt


Quindi la mia situazione è molto migliore già rispetto a chi i vari P4 su cui tante recensioni hanno fatto uso. La mia Cpu consuma molto molto meno. Quindi dovrei preoccuparmi ancora meno.
Accoppiare una 6800 ad un 2600+ ci si può stare molto più tranquilli rispetto che accoppiare un P4 ad una 6800. Alla fine rispetto al P4 3.06 Ghz.....consumo già quasi 20 watt in meno normalmente....e sotto stress io solo 6 watt in più...mentre il P4 25 watt in più del normale. Tra il mio sotto stress e il P4 sotto stress...c'è una differenza di ben 37 watt in più da parte del P4...come picco massimo.

Quindi mi domando: ma c'è seriamente così tanto da preoccuparsi?

Alla fine credo che con la mia configurazione anche un 400 watt anonimo sia più che sufficente. Chi ha P4 spinti...probabilmente avrà bisogno di un Ali del tipo Chieftec da 420 Watt. :)

dario fgx
02-05-2004, 08:27
Originariamente inviato da dario fgx
raga avrei una curiosità da soddisfare:
quale tra i due nuovi chip si appoggia di piu' alla cpu?
nn credo che sia una domanda stupida...ma potrebbe anche eserlo!
lo chiedo solo xchè dopo aver aggiunto altri 512 mega di ram e comprato nv40(tutte cose che farò questa estate) nn hointenzione di cambiare anche cpu!
raga..nessuno mi risp?

Paoletta Corsini
02-05-2004, 08:31
Originariamente inviato da dario fgx
raga..nessuno mi risp?
Come si fa a risponderti se ancora la concorrente ATi non è uscita? :D
Ad ogni modo tutte le schede son cpu dipendenti, avendo un 3.2ghz non avresti nella cpu questo gran collo di bottiglia, ma la domanda giusta è con quali filtri, con quali giochi, e a quali risoluzioni? a risoluzioni alte (specialmente con filtri) la cpu smette di esser l'elemento che strozza le prestazioni.

Haku
02-05-2004, 09:54
ragazzi dovrò cambiare in qualunque caso l'ali sia comprando la liscia, che la ultra? Ho un 400w non di marca:e un 3000+ due lettori, hd.

shinji_85
02-05-2004, 10:05
Originariamente inviato da Paoletta Corsini
Come si fa a risponderti se ancora la concorrente ATi non è uscita? :D
Ad ogni modo tutte le schede son cpu dipendenti, avendo un 3.2ghz non avresti nella cpu questo gran collo di bottiglia, ma la domanda giusta è con quali filtri, con quali giochi, e a quali risoluzioni? a risoluzioni alte (specialmente con filtri) la cpu smette di esser l'elemento che strozza le prestazioni.

E' sicuramente presto per parlarne... Ma vista l'NV40 ti conviene (e credo che se ci spendi 600€ alla fine lo farai) giocarci con tutto a palla... Ovvero max risoluzioni e max filtri... Tranne l'AA 8x

halduemilauno
02-05-2004, 10:42
Originariamente inviato da Dark Schneider
Hal in quale recensioni son stati usati ali da 350?

di sicuro su guru3d e hardwareupgrade. vedo le altre.
ciao.

:) :)

Gerald Tarrant
02-05-2004, 11:23
Cmq se posso dire la mia un buon 350W tipo Enermax .. vedrete che andra piu' che bene .... visto che fa differenza un alimentatore garantito minimo a 350W o fino a 350w ....( e voltaggi e amperaggi idem ) bye

Vifani
02-05-2004, 11:28
Originariamente inviato da shinji_85
E' sicuramente presto per parlarne... Ma vista l'NV40 ti conviene (e credo che se ci spendi 600€ alla fine lo farai) giocarci con tutto a palla... Ovvero max risoluzioni e max filtri... Tranne l'AA 8x

Il discorso della dipendenza dalla CPU esiste ed esisterà sempre con questo genere di prodotto se non si attivano i filtri. Solo i più pesanti giochi che sfruttano a dovere VS e PS possono essere meno CPU limited (ma non è neanche garantito).

Dark Schneider
02-05-2004, 13:12
Originariamente inviato da Vifani
Il discorso della dipendenza dalla CPU esiste ed esisterà sempre con questo genere di prodotto se non si attivano i filtri. Solo i più pesanti giochi che sfruttano a dovere VS e PS possono essere meno CPU limited (ma non è neanche garantito).


Direi che con queste schede è d'obbligo giocare con i filtri!! :)

shinji_85
02-05-2004, 14:43
Originariamente inviato da Dark Schneider
Direi che con queste schede è d'obbligo giocare con i filtri!! :)

Sarebbe inutile comprarle... anche se conosco gente che valuta la pura velocità di una vga... un mio amico ha una 5950u su un computer da oltre 2500 € (1GB di ram pc3200 ecc.) e neanche imposta i driver su qualità!!! gli si vede la riga orizzontale sullo schermo è uno schifo...

Dark Schneider
02-05-2004, 16:10
Originariamente inviato da shinji_85
Sarebbe inutile comprarle... anche se conosco gente che valuta la pura velocità di una vga... un mio amico ha una 5950u su un computer da oltre 2500 € (1GB di ram pc3200 ecc.) e neanche imposta i driver su qualità!!! gli si vede la riga orizzontale sullo schermo è uno schifo...


Ti dirò per me la potenza pura e la velocità pura son importantissimi. Perchè la longevità di una scheda dipende anche parecchio da questa. Però è anche vero che adesso è inutile pensare alla velocità pura con queste due nuove schede. Perchè alla fine le attuali CPU anche se si comportano più che bene..non sfruttano al max questi due bolidi. Quindi la vera differenza la si vede con i filtri. Le attuali CPU se usiamo una 6800 o una X800 con i filtri abilitati le sfruttiamo. Se andiamo a cercare la velocità pura...allora probabilmente deve ancora uscire una CPU in grado di tirare il collo come si deve.
Questo tuo amico è matto a spendere tanti soldi e poi non godersi i filtri. Se uno può...deve godersi i filtri. La velocità pura e la potenza pura sono importanti per quando i filtri non saranno più attivabili perchè i giochi son troppo pesanti...e quindi c'è l'arma in più del disattivare i filtri e campare ancora un po'. :)

JENA PLISSKEN
02-05-2004, 16:16
Originariamente inviato da Dark Schneider
Direi che con queste schede è d'obbligo giocare con i filtri!! :)

Io lo faccio già da ""14"" mesi e mezzo:oink: :oink: :oink: :sofico: :sofico: :sofico: :sofico: :sofico: e col Taa...ho abbassato pure le frequ riportandola @pro:rotfl: :rotfl: :rotfl: :rotfl: e mettendo al minimo, anzi spegnendo la ventola dello Zalman:sbav: :sbav: :sbav: ....

...raga...mi dispiace ma chi si è perso la generazione R3xx si è perso una delle + grandi invenzioni tecnologicamente avanzate e soprattutto LONGEVE ( qualità dal valore altissimo nel mondo del PC e spesso inesistente!!) e IMMEDIATAMENTE SFRUTTABILI (nn fra 10 anni quando usciranno i giochi!! :asd: )della storia del COMPUTER.

Dark Schneider
02-05-2004, 16:46
Originariamente inviato da JENA PLISSKEN
Io lo faccio già da ""14"" mesi e mezzo:oink: :oink: :oink: :sofico: :sofico: :sofico: :sofico: :sofico: e col Taa...ho abbassato pure le frequ riportandola @pro:rotfl: :rotfl: :rotfl: :rotfl: e mettendo al minimo, anzi spegnendo la ventola dello Zalman:sbav: :sbav: :sbav: ....

...raga...mi dispiace ma chi si è perso la generazione R3xx si è perso una delle + grandi invenzioni tecnologicamente avanzate e soprattutto LONGEVE ( qualità dal valore altissimo nel mondo del PC e spesso inesistente!!) e IMMEDIATAMENTE SFRUTTABILI (nn fra 10 anni quando usciranno i giochi!! :asd: )della storia del COMPUTER.


Ma infatti l'R3xx era più conveniente rispetto a NV3x. Non penso che possa essere messo in dubbio. Ma non è tanto questione di filtri, ma di architettura che appunto è più longeva. Unica pecca naturalmente sono gli shader(che elevano la qualità grafica in maniera incredibile rispetto a qls altro elemento) non sfruttabili se non un anno e mezzo dopo l'uscita della 9700(infatti solo adesso c'è un buon numero di giochi che fanno uso di shader). R300 era la scheda per godersi i filtri a palla da subito. Le due nuove schede invece saranno quelle schede che permetteranno di far godere a palla l'uso massiccio degli shader. E' proprio questo quello che aspettavo: fare uso degli shader significa sfruttare finalmente le librerie!!:sofico: Ed era ora che si iniziasse a sfruttare le novità tecnologiche introdotte dalle nuove librerie. ;)

JENA PLISSKEN
02-05-2004, 16:53
Originariamente inviato da Dark Schneider
Ma infatti l'R3xx era più conveniente rispetto a NV3x. Non penso che possa essere messo in dubbio. Ma non è tanto questione di filtri, ma di architettura che appunto è più longeva. Unica pecca naturalmente sono gli shader(che elevano la qualità grafica in maniera incredibile rispetto a qls altro elemento) non sfruttabili se non un anno e mezzo dopo l'uscita della 9700(infatti solo adesso c'è un buon numero di giochi che fanno uso di shader). R300 era la scheda per godersi i filtri a palla da subito. Le due nuove schede invece saranno quelle schede che permetteranno di far godere a palla l'uso massiccio degli shader. E' proprio questo quello che aspettavo: fare uso degli shader significa sfruttare finalmente le librerie!!:sofico: Ed era ora che si iniziasse a sfruttare le novità tecnologiche introdotte dalle nuove librerie. ;)

Il problema è che ...come + volte ripetuto la diff fra dx9 e dx9c nn è tanto di effetti visualizzabili;)

Quindi dubito che si vedrà in maniera diversa...è il numero > di pipe che farà girare + velocemte un gioco...ma sinc se già questo gioco mi va sui 50 fps coi filtri con la mia scheda Nn vedo l' utilità di un UPgrade...sfizi a parte....già FC col2x2 gira decentewmente ormai:oink: :oink:
Ripeto il problema se lo deve porre chi ha ancora GF4ti, 8500 ma anche FX 5800\5900...purtroppo il fanatismo a volte ha costi moooolto alti:D :D ...io NN ci sono cascato...questo è l' importante;)

halduemilauno
02-05-2004, 17:40
Originariamente inviato da Deltaweb73
<http://www.3ditalia.com>

Confermata la GeForce 6800 Ultra

Non sarà "Pro" ma "GT" la terza versione della GPU NV40 che nVIDIA rilascerà entro breve.
Il nome della versione intermedia della nuova linea di schede grafiche basate sull'ultima GPU sarà quindi GeForce 6800 GT, e si inserirà, per prestazioni e costo, esattamente a metà strada fra la più performante GeForce 6800 Ultra e la più economica GeForce 6800 standard. Confermate le voci sulle caratteristiche tecniche: la GeForce intermedia avrà il core impostato a 350 MHz con 16 pipeline e le memorie, di tipo DDR3, lavoreranno a 1 GHz (500 MHz DDR).
Emergono anche altri dettagli circa la versione base. La frequenza operativa della GeForce 6800 "liscia" scende da 350 a 325 MHz, questo per differenziare ulteriormente le fasce di appartenenza delle 3 schede grafiche.


Emh...
Era un fake la notizia di computerbase? :)
Sarà un fake anche la notizia di 3DItalia.com ?

Kizzà..:p

riporto qui il topic.
fake era la foto. la notizia la credo molto vera.
sono però perplesso. nel senso nVidia offrirà una gt a 350/1000 a 16 pipe e una ultra a 400/1100 sempre 16 pipe ma al prezzo di 100$ di più. ma con un semplice OC si porta la gt a ultra e buonanotte. 100$ risparmiati.
ora, o non sono 16 le pipe della gt oppure la ultra la eleveranno di frequenza core da 400 a 450/475.
tutto da vedere.
ciao.
:) :)

Dark Schneider
02-05-2004, 17:42
Originariamente inviato da JENA PLISSKEN
Il problema è che ...come + volte ripetuto la diff fra dx9 e dx9c nn è tanto di effetti visualizzabili;)

Quindi dubito che si vedrà in maniera diversa...è il numero > di pipe che farà girare + velocemte un gioco...ma sinc se già questo gioco mi va sui 50 fps coi filtri con la mia scheda Nn vedo l' utilità di un UPgrade...sfizi a parte....già FC col2x2 gira decentewmente ormai:oink: :oink:
Ripeto il problema se lo deve porre chi ha ancora GF4ti, 8500 ma anche FX 5800\5900...purtroppo il fanatismo a volte ha costi moooolto alti:D :D ...io NN ci sono cascato...questo è l' importante;)


Scusa ma chi ha parlato di DX9c? Io parlo di differenza che un anno e mezzo fa non si giocava con gli shader. Da oggi in poi si. E' le caratteristiche delle DX9 solo da adesso in poi saranno davvero utilizzate.
Io parlo sempre di Shader 2.0...i 3.0 non li prendo in considerazione.
Tra un annetto mi sembra ovvio che R3xx(che adesso se la cavano) faranno più fatica rispetto a R420 e NV40 quando tra un anno gli shader saranno usati ancora più massiciamente e saranno ancora più complessi di oggi. Ma è normale...si tratta di una scheda uscita un anno è mezzo fa.
L'R300 è la scheda pensata per l' "era dei filtri" che precede "l'era degli shader" che è prerogativa di questa nuova generazione.
Oddio con questo non voglio dire che R300 non si comporta bene con i giochi che fanno uso con gli shader...sicuramente i primi come si sta vedendo...si comportano bene. Però di certo non ha la longevità di NV40 e R420 che escono più di un anno dopo, hanno il doppio della potenza e quindi quando arriveranno quelli più complessi...il distacco sarà più evidente..e magari si dovranno fare delle rincunce o cmq abbassare il livello di shader utilizzato con le attuali top.
Ma te ad esempio fai bene a tenertela...perchè per il tempo in cui ancora la terrai si comporterà bene ancora. Quando farà fatica..avrai un altra scheda.


Ma cmq questo è un altro discorso..io volevo semplicemente dire che mentre R300 è uscito in un periodo in cui si esaltavano i filtri. NV40 e R420 escono in un periodo in cui si esaltano gli shader e la qualità rivoluzionaria che essi apportano ad un motore grafico.

Dark Schneider
02-05-2004, 17:47
Originariamente inviato da halduemilauno
riporto qui il topic.
fake era la foto. la notizia la credo molto vera.
sono però perplesso. nel senso nVidia offrirà una gt a 350/1000 a 16 pipe e una ultra a 400/1100 sempre 16 pipe ma al prezzo di 100$ di più. ma con un semplice OC si porta la gt a ultra e buonanotte. 100$ risparmiati.
ora, o non sono 16 le pipe della gt oppure la ultra la eleveranno di frequenza core da 400 a 450/475.
tutto da vedere.
ciao.
:) :)


Può darsi che la Ultra molti produttori l'ha OC di più del solito.
Ma sinceramente secondo me è una buona mossa proprorre una scheda uguale alla Ultra con solo le frequenze inferiori. Alla fine era quello che accadeva fino alle 5900.

Cmq la Pro/GT secondo me avrà i 2 molex...se le 16 Pipeline saranno confermati.

halduemilauno
02-05-2004, 17:53
Originariamente inviato da Dark Schneider
Può darsi che la Ultra molti produttori l'ha OC di più del solito.
Ma sinceramente secondo me è una buona mossa proprorre una scheda uguale alla Ultra con solo le frequenze inferiori. Alla fine era quello che accadeva fino alle 5900.

Cmq la Pro/GT secondo me avrà i 2 molex...se le 16 Pipeline saranno confermati.


che sia una buona mossa per noi utenti è fuor di dubbio. si potrà avere una gt oc a ultra sui 400€ o poco più.
ciao.
:) :)

Dark Schneider
02-05-2004, 17:58
Originariamente inviato da halduemilauno
che sia una buona mossa per noi utenti è fuor di dubbio. si potrà avere una gt oc a ultra sui 400€ o poco più.
ciao.
:) :)


Era la scheda che aspettavo!!:p
Non so se la X800 Pro sarà superiore...ma se il prezzo sarà 500 non ci posso di certo arrivare. Quindi se sta 6800 Pro avrà le 16 Pipeline e prezzo 400 circa...è la scheda che prendo senz'altro!! ;)

Spero che nei prossimi giorni sia confermata.

halduemilauno
02-05-2004, 18:15
Originariamente inviato da Dark Schneider
Era la scheda che aspettavo!!:p
Non so se la X800 Pro sarà superiore...ma se il prezzo sarà 500 non ci posso di certo arrivare. Quindi se sta 6800 Pro avrà le 16 Pipeline e prezzo 400 circa...è la scheda che prendo senz'altro!! ;)

Spero che nei prossimi giorni sia confermata.

il problema sta tutto nelle pipe. ;)
perchè se sono 16 la gt diventa una ultra. la x800pro si potrà anche oc ma avendone 12 di pipe non diventerà mai come una xt.
quindi il confronto si farà tra una ultra e una pro. e la x800pro la danno in vendita a 499$.
e quindi...
ciao.

:) :)

Dark Schneider
02-05-2004, 18:22
Originariamente inviato da halduemilauno
il problema sta tutto nelle pipe. ;)
perchè se sono 16 la gt diventa una ultra. la x800pro si potrà anche oc ma avendone 12 di pipe non diventerà mai come una xt.
quindi il confronto si farà tra una ultra e una pro. e la x800pro la danno in vendita a 499$.
e quindi...
ciao.

:) :)


Si solo io dicevo: metti caso che la X800 Pro con le sue 12 Pipeline riesce a gareggiare tranquillamente con le 16 Pipeline nVidia. Il prezzo in concorrenza con la 6800 Ultra farebbe pensare ciò. Magari la X800 Pro anche se rimane a 12 Pipeline...se si OC anche lei va cmq di più. Io parlo di prestazioni in generale.
Ma resta il fatto che io 500 non li posso spendere. Quindi speriamo bene in questa 6800 GT/Pro: la scheda più conveniente!! :)

Drio
02-05-2004, 20:36
Ci sono siti americani che la vendono già la 6800?

o deve ancora uscire sugli scaffali?

Dark Schneider
02-05-2004, 20:40
Originariamente inviato da Drio
Ci sono siti americani che la vendono già la 6800?

o deve ancora uscire sugli scaffali?


Deve ancora uscire. Al massimo c'è qlc in cui si può prenotare.

Drio
02-05-2004, 20:48
ah...

e la data di uscita americana si sa?

Dark Schneider
02-05-2004, 21:08
Originariamente inviato da Drio
ah...

e la data di uscita americana si sa?


Mmm forse negli Usa arriva più tardi che da noi come la 5900 l'anno scorso.

JENA PLISSKEN
02-05-2004, 21:56
Originariamente inviato da Dark Schneider


Ma cmq questo è un altro discorso..io volevo semplicemente dire che mentre R300 è uscito in un periodo in cui si esaltavano i filtri. NV40 e R420 escono in un periodo in cui si esaltano gli shader e la qualità rivoluzionaria che essi apportano ad un motore grafico.

Solo che gli shaders servono SE vengono sfruttati...i filtri sono già sfruttati....quindi??:confused:
Io dico solo che chi è stato quest' ultimo anno con le GeForce soprattutto 4 ha giocato vedendo MALE...molto MALE...x carità, lo trovo giusto x chi Nn ha voglia di spendere soldi o necessità, anzi GIUSTISSIMO, x nn parlare di chi usa Linux...ma lo trovo stupido x chi lo ha fatto x partito preso...molto stupido;)


Ripeto IO e molti altri è da una vita che giochiamo con una qualità visiva che molti hanno scoperto IN PARTE solo ultimamente...o addirittura con la PROX generazione di schede, cosa ancora + scandalosa...spero che qualcuno si accorga che la vera innovazione mostrata in questi giorni è stata il Temporal AA ( ma vi rendete conto che si può giocare a FC con una qualità di un 4x??? con schede di 2 anni fa????? )Nn il supporto ai PS e Vs3.0...inutile quando la scheda rallenta cmq coi filtri:sofico:...poi ,ripeto, le fette di prosciutto sugli occhi ce l' hanno in molti e cmq in molti continueranno a comprare x partito preso...peggio x loro... l' importante è che Nn lo faccio IO

Tanto entro NATALE alla fine la cambierò ...anche se farò di tutto x evitarlo...ma è + forte di me:sofico:

Dark Schneider
02-05-2004, 23:03
Originariamente inviato da JENA PLISSKEN
Solo che gli shaders servono SE vengono sfruttati...i filtri sono già sfruttati....quindi??:confused:
Io dico solo che chi è stato quest' ultimo anno con le GeForce soprattutto 4 ha giocato vedendo MALE...molto MALE...x carità, lo trovo giusto x chi Nn ha voglia di spendere soldi o necessità, anzi GIUSTISSIMO, x nn parlare di chi usa Linux...ma lo trovo stupido x chi lo ha fatto x partito preso...molto stupido;)


Ripeto IO e molti altri è da una vita che giochiamo con una qualità visiva che molti hanno scoperto IN PARTE solo ultimamente...o addirittura con la PROX generazione di schede, cosa ancora + scandalosa...spero che qualcuno si accorga che la vera innovazione mostrata in questi giorni è stata il Temporal AA ( ma vi rendete conto che si può giocare a FC con una qualità di un 4x??? con schede di 2 anni fa????? )Nn il supporto ai PS e Vs3.0...inutile quando la scheda rallenta cmq coi filtri:sofico:...poi ,ripeto, le fette di prosciutto sugli occhi ce l' hanno in molti e cmq in molti continueranno a comprare x partito preso...peggio x loro... l' importante è che Nn lo faccio IO

Tanto entro NATALE alla fine la cambierò ...anche se farò di tutto x evitarlo...ma è + forte di me:sofico:


Scusa che senso ha dire "gli shader servono Se vengono sfruttati"? Gli shader sono qualcosa che da adesso verranno sfruttati e lo saranno sempre di più. Perchè sennò avrei parlato di "era degli shader" riferendomi ad oggi? ;) A differenza dei filtri che son un "abbellimento", gli shader rivoluzionano la qualità grafica in maniera molto maggiore. Prova a disabilitare gli shader in FC e vedrai che puoi pompare tutto il filtraggio che vuoi ma avrai una qualità pessima. Senza shader...si ha grafica al max DX7.

Poi ti devo smentire sui giochi con le GeForce 4 Ti...a parte alcuni giochi..nel'ultimo anno si è riuscito a giocare discretamente con un discreto uso dei filtri. Provare per credere.
Poi secondo me stai facendo un discorso con poco senso. Alla fine le GeForce 4 Ti sono una tecnologia più vecchia ed una generazione più vecchia. Stessa cosa si potrà dire tra un anno quando chi ha R3xx o NV3x sarà costretto a giocare con livelli di shader meno massicci e complessi....con qualità inferiore rispetto a chi ha NV40 e R420. Ma non mi sognerei di dire "voi giocate con una qualità da schifo" ad uno che ha una 9700 tra un anno.

Alla fine se sei fissato con i filtri non significa mica che i filtri sono tutto, anzi... ad esempio per me sono una cosa meno importante rispetto agli shader. Con la prossima scheda che prendo i filtri li uso...ma preferisco di gran lunga che i giochi facciano maggior uso il più complesso possibile degli shader..poi qlc filtro ce lo applico..ma se un giorno mi toccherà abbassare il livello dei filtri....ma riuscirei a giocare con il massimo livello di shader..beh ne sarei felice...se invece la situazione sarebbe opposta...posso usare i filtri al max ma non godere al max del livello degli shader...beh li mi scasserebbe non poco.

Io la conosco bene la qualità dei filtri della 9700 Pro e personalmente l'ho giudico un "abbellimento" alla grafica di un gioco, ma che non rivoluziona come invece fa una grafica che fa uso massiccio di shader rispetto a quella di uno stesso gioco senza shader.

Ma poi il discorso è il solito: è una questione di gusti. ;)

JENA PLISSKEN
02-05-2004, 23:21
Originariamente inviato da Dark Schneider
Scusa che senso ha dire "gli shader servono Se vengono sfruttati"? Gli shader sono qualcosa che da adesso verranno sfruttati e lo saranno sempre di più. Perchè sennò avrei parlato di "era degli shader" riferendomi ad oggi? ;) A differenza dei filtri che son un "abbellimento", gli shader rivoluzionano la qualità grafica in maniera molto maggiore. Prova a disabilitare gli shader in FC e vedrai che puoi pompare tutto il filtraggio che vuoi ma avrai una qualità pessima. Senza shader...si ha grafica al max DX7.

Poi ti devo smentire sui giochi con le GeForce 4 Ti...a parte alcuni giochi..nel'ultimo anno si è riuscito a giocare discretamente con un discreto uso dei filtri. Provare per credere.
Poi secondo me stai facendo un discorso con poco senso. Alla fine le GeForce 4 Ti sono una tecnologia più vecchia ed una generazione più vecchia. Stessa cosa si potrà dire tra un anno quando chi ha R3xx o NV3x sarà costretto a giocare con livelli di shader meno massicci e complessi....con qualità inferiore rispetto a chi ha NV40 e R420. Ma non mi sognerei di dire "voi giocate con una qualità da schifo" ad uno che ha una 9700 tra un anno.

Alla fine se sei fissato con i filtri non significa mica che i filtri sono tutto, anzi... ad esempio per me sono una cosa meno importante rispetto agli shader. Con la prossima scheda che prendo i filtri li uso...ma preferisco di gran lunga che i giochi facciano maggior uso il più complesso possibile degli shader..poi qlc filtro ce lo applico..ma se un giorno mi toccherà abbassare il livello dei filtri....ma riuscirei a giocare con il massimo livello di shader..beh ne sarei felice...se invece la situazione sarebbe opposta...posso usare i filtri al max ma non godere al max del livello degli shader...beh li mi scasserebbe non poco.

Io la conosco bene la qualità dei filtri della 9700 Pro e personalmente l'ho giudico un "abbellimento" alla grafica di un gioco, ma che non rivoluziona come invece fa una grafica che fa uso massiccio di shader rispetto a quella di uno stesso gioco senza shader.

Ma poi il discorso è il solito: è una questione di gusti. ;)


Senza filtri Nn c' è qualità...quindi = si vede male...e cmq Nn era un discorso personale...hai detto che usi LINUX quindi tu 6 obbligato a scegliere le geffo;)

Cmq se tu hai giocato discretamente nell' ultimo anno...chi ha una R3xx ci ha giocato 10 volte meglio...qualitativamente parlando;) ...x questo resto sempre dell' idea che Nn bisohìgna mai saltare una generazione...xchè alla fine ci si ACCONTENTA e basta;)

Cmq preferire gli shaders ai filtri è un po' come dire preferisco gli LCD che sono + riposanti x gli occhi e poi me ne compro uno con colori sparati e da 25ms con le scie ovunque...cioè una porcheria...ma ...cavolo i miei occhi si riposano...ma nel frattempo IO vomito. :sofico:

2° me in questo sbagliate....nel Nn pretendere FILTRI + shaders....gli shaders da soli NN servono a nulla se vedi tutto scalettato e con un AF che fa schifo....avresti fatto meglio a dire stiamo entrando nell' era dei FILTRI + SHADERS...puntando verso > effetti ed il fotorealismo...d' altronde capisco che questo sia un discorso di parte visto che NV ha puntato molto sulla compatibilità DX9c e poco sui filtri...almeno x ora:sofico: :sofico: :sofico:

JENA PLISSKEN
02-05-2004, 23:30
Il problema è questo.....col Taa...ci faremo 2 risate:sofico:

http://images.anandtech.com/graphs/nvidia%20geforce%206800_04140480410/1896.png

Dark Schneider
03-05-2004, 00:29
Originariamente inviato da JENA PLISSKEN
Senza filtri Nn c' è qualità...quindi = si vede male...e cmq Nn era un discorso personale...hai detto che usi LINUX quindi tu 6 obbligato a scegliere le geffo;)

Cmq se tu hai giocato discretamente nell' ultimo anno...chi ha una R3xx ci ha giocato 10 volte meglio...qualitativamente parlando;) ...x questo resto sempre dell' idea che Nn bisohìgna mai saltare una generazione...xchè alla fine ci si ACCONTENTA e basta;)

Cmq preferire gli shaders ai filtri è un po' come dire preferisco gli LCD che sono + riposanti x gli occhi e poi me ne compro uno con colori sparati e da 25ms con le scie ovunque...cioè una porcheria...ma ...cavolo i miei occhi si riposano...ma nel frattempo IO vomito. :sofico:

2° me in questo sbagliate....nel Nn pretendere FILTRI + shaders....gli shaders da soli NN servono a nulla se vedi tutto scalettato e con un AF che fa schifo....avresti fatto meglio a dire stiamo entrando nell' era dei FILTRI + SHADERS...puntando verso > effetti ed il fotorealismo...d' altronde capisco che questo sia un discorso di parte visto che NV ha puntato molto sulla compatibilità DX9c e poco sui filtri...almeno x ora:sofico: :sofico: :sofico:


Prima di tutto non capisco perchè vai sempre a parlare di DX9c quando sono MESI che si sanno che non erano una rivoluzione rispetto ai 2.0..visto che alla fine son delle caratteristiche sono sempre all'interno della medesima libreria. Ma visto che esistono..perchè non implementarle? Se erano così inutili perchè son stati ideati? E' presto per implementarli? Se si fa questo discorso allora non arriveremo mai a schede che implementino i 4.0 delle DX10 e successivi perchè è ovvio che ogni volta ci vuole del tempo per essere sfruttate. Se ragioniamo così allora meglio tornare a giocare con la Voodoo 1 ed il Riva 128.

Ma poi ma lo vedi che invece è proprio una tua questione personale? Per te filtri = qualità. Per me filtri = abbellimento, nulla più.
Per me gli shader = qualità.

Questione di gusti.

Poi scusa ma poi mi dici dove ho detto di NON pretendere i filtri + shader?

Adesso ti riquoto un pezzo del mio discorso dove dico proprio ciò e dove esprimo anche una preferenza nel caso dovessi fare qualche rinuncia.


Con la prossima scheda che prendo i filtri li uso...ma preferisco di gran lunga che i giochi facciano maggior uso il più complesso possibile degli shader..poi qlc filtro ce lo applico..ma se un giorno mi toccherà abbassare il livello dei filtri....ma riuscirei a giocare con il massimo livello di shader..beh ne sarei felice...se invece la situazione sarebbe opposta...posso usare i filtri al max ma non godere al max del livello degli shader...beh li mi scasserebbe non poco.



Per di più la qualità degli shader influisce molto di più sulla qualità finale rispetto ai filtri.

Cavolo ma se ami così alla follia questi filtri...disabilitali nei giochi dove se ne farà uso massiccio e metti a palla i filtri. Io dico che la qualità sarà pessima. L'ho visto FC anche su una scheda DX7(che quindi non supporta shader) ed è un gioco irriconoscibile.

Alla fine se per te sono i filtri ad avere una prerogativa allora non te la cambiare nemmeno a natale. Perchè te la vuoi cambiare a natale? Tra un anno giocherai ancora con i filtri anche se con un livello basso di shader...ma potrai usare questi filtri...con tanto di Temporal AA.
Per te il Temporal AA è la rivoluzione, perchè ti permette di avere una longevità maggiore nell'uso dei filtri sulla tua scheda. Per me invece ripeto anche 4 anni assicurati di utilizzo filtri con la stessa scheda...sono un aspetto secondario. Niente da dire: è una bella cosa. Ma per me non è la cosa più importante.
Ma che poi io dica che i filtri sono meno importanti non significa che non li voglio usare: dico solo che cmq ora si è raggiunto un buon livello nell'uso dei filtri...ormai con schede che non ne risentono minimamente per quanta potenza sprigionano....quindi adesso concentriamoci sugli shader che faranno fare il vero salto di qualità. ;)
Nessuno quando si comprerà una nuova scheda video adesso vorrà rinunciare ad una delle due cose, però quando si arriverà a dover fare delle rinunce a meno che non si rimette mani al portafogli...uno esprime una sua preferenza personale. Ad esempio io preferirei continuare ad avere un uso maggiore di shader ed abbassare un po' il livello dei filtri. Conosco un mio amico per dirti che addirittura non gli frega nulla dell'FSAA...ha un bel 19 pollici e preferisce giocare a risoluzioni più alte e non utilizzare per niente l'FSAA (ed è uno che viene da una Voodoo 5 famosa proprio per l'FSAA) e l'unico filtro che usa è l'AF. Tra l'altro non utilizzando l'FSAA ha prestazioni anche superiori.

Perchè non ho parlato di "era filtri + shader"? Ma è molto semplice: perchè i filtri sono un bel po' di tempo che son stati introdotti...l'FSAA ad esempio addirittura nel 2000 dalla Voodoo 5. Magari era un po' "presto" perchè la potenza richiesta era parecchia...poi con il passare degli anni è sempre andato migliorato..e la 9700 si è rivelata una scheda matura nel farne uso. Adesso ci sono gli shader: gli shader son stati introdotti dopo i filtri, ma solo da pochissimo che son iniziati ad essere utilizzati in un buon numro di giochi in tutte le sue salse...e nei due anni a venire ce ne saranno tantissimi e con uso sempre più massiccio. Ecco perchè dico "da oggi parte l'era degli shader", i filtri son usati già da più tempo. I filtri man mano che si andranno avanti diventeranno delle cose "normali" e probabilmente non verranno nemmeno citati più quando uscirà una nuova scheda video, perchè le novità riguardo la qualità visiva sarà data da qlc altra novità ben più importante...ed i filtri non saranno stati altro che un "ingrediente" da utilizzare prima per iniziare ad arrivare ad un certo livello di qualità. Sono importanti, ma ce ne sono e ce ne saranno sempre negli anni a venire di novità che son in grado di migliorare maggiormente la qualità. Stesso discorso per gli shaders un giorno.

Ma oggi visto che ancora non entriamo in un campo dove filtri e shader sono cose che si mangiano tutti i giorni (per i filtri ci siamo quasi nell'essere considerati delle cose normali...al massimo un altro anno massimo due anni) se dovessi fare delle rinunce, sceglierei quello che ho detto sopra. Stando a quando dici te sembra quasi che bisogna sempre pensare prima ai filtri e poi a migliorare le altre cose, quando invece ci sono ormai cose ben più importanti da migliorare per avere una qualità maggiore.
Ma io torno a ripetere che è una questione di gusti.

JENA PLISSKEN
03-05-2004, 01:00
Mah...nn c' è niente da fare...ancora Nn avete capito che alla fine i soldi sono vostri ed ATI o Nv Nn vengono a ringraziarvi a casa:muro: :muro:

1) I filtri sono un abbellimento??...ma x favore:rolleyes:

2) Gli shader sono qualità??...ma dai:rolleyes:


cioè è esattamente il contrario...chiedi a chiunque che Nn abbia :hic: :hic: ...ti 6 dato la classica ZAPPA sui PIEDI:sofico: :sofico: :D :D


X me (e questo Nn l' hai capito proprio) una nuova scheda deve avere Nn solo il pieno supporto a qualcosa in + rispetto alla mia...ma anche AA ed AF ad = qualità e > prestazioni oppure > qualità ed = prestazioni....semplice limpido e cristallino. Quindi malissimo x l' NV 40 ed ancora da dimostrare x l' R420...x ora maluccio, visto che almeno qualcosa se lo sono inventato)

Xò ti prego leggere aberrazioni del tipo i filtri sono un abbellimento e gli shaders sono la qualità....veramente lo trovo inquietante dopo 130 pagine....a questo punto 130 pagine di TIFO FANATICO inutile e sterile...che sinceramente denota una certa incompetenza.

Se poi nessuno è stato capace di tirare fuori di meglio dell' AA ed AF....la colpa Nn è mia...x ora almeno implemetatateli a dovere...trovo inquietante la situzione filtri dell' NV 40...decisamente un passo in dietro....;)
Trovo ancora + inquetante una persona che mi dice che i filtri siccome inventati tempo fa sono quasi INUTILI...poi x me va bene...se tu 6 abituato a giocare SCALETTATO e SFOCATO....ripeto...ti manca solo un bel LCD da 25ms con angolo 90°\90°...così stai a posto :sofico:

Poi x carità...ognuno è libero di comprarsi quel che + gli aggrada...ma che nessuno venga qui a sbandierare che siccome è NV o ATI è il top senza rendersi conto di un CAXXO:D :D ...e tirando l' acqua al suo mulino.

JENA PLISSKEN
03-05-2004, 01:06
Originariamente inviato da JENA PLISSKEN
Il problema è questo.....col Taa...ci faremo 2 risate:sofico:

http://images.anandtech.com/graphs/nvidia%20geforce%206800_04140480410/1896.png

Mi auto quoto...quanto fa la 9800xt con Taa 2x2???

Fa le matte risate...ecco cosa fa:muro: :muro: La situazione è tristissima a mio avviso;)

andreamarra
03-05-2004, 01:22
Jena :eek: ... ma stai bene :eek: ?

Sei un fanATIco :O !

Chiedi scusa a dark :mad: !


:D :)

JENA PLISSKEN
03-05-2004, 01:23
Originariamente inviato da andreamarra
Jena :eek: ... ma stai bene :eek: ?

Sei un fanATIco :O !

Chiedi scusa a dark :mad: !


:D :)

Dai...nn credo che il MIo sia un discorso da fanatico...v amaele anche se ATI nn ha implementato tutto...xò la straringrazio x avermi regalato nuov alinfa alla 9700:oink: :oink: :oink:

andreamarra
03-05-2004, 01:35
Originariamente inviato da JENA PLISSKEN
Dai...nn credo che il MIo sia un discorso da fanatico...v amaele anche se ATI nn ha implementato tutto...xò la straringrazio x avermi regalato nuov alinfa alla 9700:oink: :oink: :oink:

Scherzavo, però qualche parolina un pò cattivella (ma in buona fede) nei precedenti post li hai mollati... ;)






Ti hanno fatto male i festaggiamenti per lo scudetto :D

JENA PLISSKEN
03-05-2004, 01:38
Originariamente inviato da andreamarra
Scherzavo, però qualche parolina un pò cattivella (ma in buona fede) nei precedenti post li hai mollati... ;)






Ti hanno fatto male i festaggiamenti per lo scudetto :D

Cattivella...dai...mi sembra esagerato...cmq forza Milan:oink: :oink:

Il bello è vedere quei dati in Far Cry....che sono col 4x normale:sofico: :sofico:

andreamarra
03-05-2004, 02:19
Originariamente inviato da JENA PLISSKEN
Cattivella...dai...mi sembra esagerato...cmq forza Milan:oink: :oink:

Il bello è vedere quei dati in Far Cry....che sono col 4x normale:sofico: :sofico:


Ok, ho frainteso un paio di frasi in tuo post precedente... come non detto :)

Praticamente ci sarebbe da vedere un grafico di Far Cry con un 2*2Temporal.... però io su questo temporal aspetto versioni ufficiali e test approfonditi per vedere se davvero non c'è nessuna differenza visiva tra un 4 puro w un 2*2T.
A livello prestazionale invece è la stessa cosa... :oink:



Il gobbo ti fa i complimenti per il titolo :asd: ;)

Dark Schneider
03-05-2004, 02:31
Originariamente inviato da JENA PLISSKEN
Mah...nn c' è niente da fare...ancora Nn avete capito che alla fine i soldi sono vostri ed ATI o Nv Nn vengono a ringraziarvi a casa:muro: :muro:

1) I filtri sono un abbellimento??...ma x favore:rolleyes:

2) Gli shader sono qualità??...ma dai:rolleyes:


cioè è esattamente il contrario...chiedi a chiunque che Nn abbia :hic: :hic: ...ti 6 dato la classica ZAPPA sui PIEDI:sofico: :sofico: :D :D


X me (e questo Nn l' hai capito proprio) una nuova scheda deve avere Nn solo il pieno supporto a qualcosa in + rispetto alla mia...ma anche AA ed AF ad = qualità e > prestazioni oppure > qualità ed = prestazioni....semplice limpido e cristallino. Quindi malissimo x l' NV 40 ed ancora da dimostrare x l' R420...x ora maluccio, visto che almeno qualcosa se lo sono inventato)

Xò ti prego leggere aberrazioni del tipo i filtri sono un abbellimento e gli shaders sono la qualità....veramente lo trovo inquietante dopo 130 pagine....a questo punto 130 pagine di TIFO FANATICO inutile e sterile...che sinceramente denota una certa incompetenza.

Se poi nessuno è stato capace di tirare fuori di meglio dell' AA ed AF....la colpa Nn è mia...x ora almeno implemetatateli a dovere...trovo inquietante la situzione filtri dell' NV 40...decisamente un passo in dietro....;)
Trovo ancora + inquetante una persona che mi dice che i filtri siccome inventati tempo fa sono quasi INUTILI...poi x me va bene...se tu 6 abituato a giocare SCALETTATO e SFOCATO....ripeto...ti manca solo un bel LCD da 25ms con angolo 90°\90°...così stai a posto :sofico:

Poi x carità...ognuno è libero di comprarsi quel che + gli aggrada...ma che nessuno venga qui a sbandierare che siccome è NV o ATI è il top senza rendersi conto di un CAXXO:D :D ...e tirando l' acqua al suo mulino.


Purtroppo noto che cambi del tutto le mie parole o quasi. :rolleyes:

La tifoseria se vuoi la lascio a te. Non venire qui a farmi la predica che nVidia ed Ati se ne fregano degli utenti, perchè mi sa che lo so meglio di te. Te ricordo un anno fa a far tifo per NV30 stavi ed il motto "r300 verrà demolito". :rolleyes: Io mai fatta una cosa del genere. Sono e son sempre stato un "possessore". Quindi sono l'ultima persona a cui devi andar a raccontare ciò.

Seconda cosa, al contrario di me, stai cercando di far passare le tue parole come "legge". Io sto parlando di gusti e pareri personali. Te "uno che dice così...spara caxxate...non sa quello che dice"...quando con tutto il rispetto te fino a 10 giorni fa stavi ancora a chiedere riguardo gli shader 3.0! I tuoi gusti personali e pareri personali tieniteli per te. Ma impara a rispettare anche quello degli altri senza dire "questo qui spara caxxate" che non è molto simpatico.

Terza cosa secondo me non ti rendi conto è che tu stai chiedendo la BACCHETTA MAGICA: voglio questo..voglio quello...
Ma secondo te se i programmatori avesserò la bacchetta magica a quest'ora non avrebbero implementato tutto e subito?
Gli algoritmi dei filtri sono qlc di meno complessi, rispetto all'implementare altre cose quali gli shader. Arrivati ad un certo punto i programmatori cercano di concentrarsi e concentrare le ricerche nel migliorare anche altre cose.
Ma vai a chiedere a fek perchè ad esempio delle nuove librerie immesse non vengono sfruttate sin da subito così? Perchè i programmatori sono esseri umani, che hanno bisogno di tempo per imparare nuovi linguaggi, i nuovi funzionamenti, le nuove architetture, ecc.
Già io che cmq un certo livello di programmazione ce l'ho già, anche se devo ancora approfondire parecchio...questa cosa la capisco. Figuriamoci adesso programmatori di videogames come fek...
Ma tu vuoi questo e vuoi quello...ma la bacchetta magica non esiste. Se ce l'avessi io allora chiederei il fotorealismo ma non è così. Bisogna lavorare e lavorare per arrivare a determinati livelli qualitativi. A volte ci sono delle cose come gli shader 3.0 che sembrano inutili...inutili oggi...domani...tra 2 anni...e così via...ma che è un passaggio che bisogna fare per migliorare la qualità un domani.
Ma cosa credi...l'Fsaa di 3dfx con la Voodoo 5? La migliore. Però poi con gli anni si è cercato di arrivare a prestazioni accettabili per renderla seriamente utilizzabile. A quei tempi l'Fsaa era considerata inutile..."tanto le prestazioni non ci sono". Niente di più sbagliato IMHO. Qlc deve pur iniziare ad implementare....e magari se non qlc non rompeva il ghiaccio allora(come 3dfx ha fatto coraggiosamente) adesso eravamo ancora qui con filtri mediocri o cmq ancora ad aspettare di poterli utilizzare.
Perchè alcuni produttori magari hanno scelto di implementare gli shader 3.0 adesso e non tra un anno? Può essere che..magari Ati che implementerà in maniera completa tra un anno...visto che alla sua prima "esperienza" rispetto a nVidia sarà meno efficente rispetto alla prossima scheda nVidia, perchè quest'ultima avrà già un esperienza in più...e a quel punto tutti a scagliarsi ingiustamente contro Ati, quando ha fatto una semplice scelta che poi può essere giusta o sbagliata. Può essere che andrà così.....e può essere che invece Ati al primo colpo spezzerà le gambine a nVidia anche con gli shader 3.0!! Può essere tutto. A volte ci sono dei passaggi devi capire da fare..che potranno sembrare inutili...ma sono da fare per il futuro.
Il tuo parere personale è che la qualità di NV40 fa schifo.Bene. Il mio parere è che invece non fa per niente schifo. Tu sei rimasto deluso perchè hanno ripiegato su un AF simile a quello della concorrenza quando ne avevano un migliore.Può essere compresibile questa "delusione".Sta di fatto che se uno non rimane deluso come te...non puoi farlo passare come uno che spara caxxate...la pensa semplicemente diversamente da te. Intesi? In più sta di fatto che nVidia ha fatto un miglioramento: Fsaa nettamente migliorato rispetto a NV3x e un AF buono. Globalmente la qualità è migliorata. Hanno risparmiato transistor sull'Af come ha detto yoss qlc tempo fa. Ma devi tenere conto che parecchi transistor l'hanno impiegato anche per il Video processor. Che a te non te ne potrà fregar nulla...ma ad altri si. E' ti dirò di più...da come ci ha detto Fek più si andrà avanti con gli anni e più le schede video saranno sempre meno delle semplici schede video. S'integreranno sempre più cose innovative e non pensate solo per giocare. Il mondo dei pc non è mica fatto per giocare solamente. E' solo uno delle tante cose. Domani magari rimetteranno l'AF che piaceva a te....e magari ci sarà un video processor ancora migliore..e magari qlc altra cosa ancora.
Ma quello che devi capire è che prima di tutto è proprio una questione che Ati e nVidia se ne stra-fregano di cosa vuoi tu...perchè loro pensano a guadagnare i loro soldi....e seguire la loro pianificazione di progettazione di GPU. Seconda cosa hanno tanti progetti da realizzare e tante nuove idee da introdurre nelle loro soluzioni e che magari vanno a soddisfare anche un utenza diversa da quella dei videogiocatori...così da assorbire anche altro tipologia di utenti.....e guadagnare ancora di più.
A volte ci può stare che delle rinunce bisogna farle per far delle cose migliori un domani.

Tu non puoi pretendere la bacchetta magica. I filtri son stati una bella cosa anche perchè già dalla loro introduzione potevano essere utilizzati subito(almeno nei giochi che già allora andavano bene..inizialmente c'era poca potenza e con quelli pesanti costituivano una brutta bestia). Ci sono altre cose, come gli shader e come altro in futuro che invece richiederanno più tempo.
Sei compreso e rispettato se dici: sono deluso di NV40 perchè hanno fatto questa rinuncia e così via. Ma non puoi a chi la pensa diversamente da te...dare per quello che spara minchiate e che non capisce. Tu hai il tuo parere. Io ho il mio. Un altro sarà daccordo con te. Un altro con me. Un altro ancora con nessuno dei due.
Quindi sei pregato a riflettere un po' e pensare che se magari l'altro la pensa diversamente da te, "può anche essere" che avrà le sue ragioni sul perchè ha un determinato "pensiero"...tanto quanto te quando dici di essere deluso dalla questione dei filtri nVidia...e non perchè " un giorno si sveglia e gli va di sparare caxxate". Tu hai le tue ragioni per essere deluso? Bene. Io ho le mie ragioni per pensare in un determinato modo. Tu ti fermi a pensare ai filtri e giudicare il migliramento,peggioramento o nessuna delle due cose. Io vado a guardare oltre e vedere perchè delle determinate scelte son state fatte o meno. E' non vado a guardare di certo se delle determinate scelte son state fatte da un produttore o da un altro.

Spero sia chiaro.

Buona notte

JENA PLISSKEN
03-05-2004, 02:42
Mah...a me interesa solo tecnologia immediatamente applicabile e sfruttabile...Nn mi interessano ELUCUBRAZIONI su features degne di MATRIX che forse un anno di questi verrano usate;) ;) ;) Nè tanto meno mi interessano i loro discorsi fatti di blablabla tecnologici che alla fine a cosa portano?? X NV :

1) hanno scopiazzato ...e male..l' AF di ATI

2) l' AA è inferiore ad ATI


Cioè qui stiamo parlando di features ormai BASE x una scheda del 2k4...e questi neanche ce l' ahnno come si deve.....ma dai...è tutta una presa x i fondelli e basta;)

Mi tengo stretto la mia MI-TI-CA 9700 Hercules:oink: :oink: :oink:

Col Taa ed altro praticamente le prestazioni fra 9800xt e 6800 si avvicnano di molto....figuriamoci con l' R420....questa è una situazione assurda...2002= + o - 2004:muro: :muro: :muro:

Dark Schneider
03-05-2004, 02:49
Originariamente inviato da andreamarra
Jena :eek: ... ma stai bene :eek: ?

Sei un fanATIco :O !

Chiedi scusa a dark :mad: !


:D :)


Che poi non ce l'ho con lui...alla fine ha le sue ragioni. Perchè lo so che tutto il suo discorso in realtà è scaturito dal fatto che è rimasto deluso dal famoso AF dell' NV40. Ed io infatti pensando alla sua "delusione" non vado a dirgli "spari minchiate". Ha le sue ragioni per pensare in quel modo. Ma non penso che siano del tutto sbagliate. Per di più s'è fatto un po' prendere dalla novità Temporal AA. Comprensibile.

Ma d'altra parte può star certo che non sono uno che quando apro bocca...l'apro per sparare minchiate. Ho delle ragioni e delle argomentazioni valide per pensare in tal modo.

Lui pensa da videogiocatore incallito che naturalmente pretende sempre di più.
Io che in quanto a programmazione un po' ne so (e son anche un informatico) semplicemente mi rendo conto che a volte ci sono delle limitazioni....e delle limitazioni di tempo. Ecco perchè io tendo a giustificare "sempre" Ati e nVidia nelle loro scelte. ;)

Dark Schneider
03-05-2004, 03:22
Originariamente inviato da JENA PLISSKEN
Mah...a me interesa solo tecnologia immediatamente applicabile e sfruttabile...Nn mi interessano ELUCUBRAZIONI su features degne di MATRIX che forse un anno di questi verrano usate;) ;) ;) Nè tanto meno mi interessano i loro discorsi fatti di blablabla tecnologici che alla fine a cosa portano?? X NV :

1) hanno scopiazzato ...e male..l' AF di ATI

2) l' AA è inferiore ad ATI


Cioè qui stiamo parlando di features ormai BASE x una scheda del 2k4...e questi neanche ce l' ahnno come si deve.....ma dai...è tutta una presa x i fondelli e basta;)

Mi tengo stretto la mia MI-TI-CA 9700 Hercules:oink: :oink: :oink:

Col Taa ed altro praticamente le prestazioni fra 9800xt e 6800 si avvicnano di molto....figuriamoci con l' R420....questa è una situazione assurda...2002= + o - 2004:muro: :muro: :muro:



I filtri con drivers più maturi verranno meglio affinati e puoi star certo che la qualità sarà migliore di adesso. L'FSAA poi è uguale, solo che manca la correzione di gamma a NV40...ma anche quest'ultimo è una cosa che può migliorare attraverso i drivers. Niente su cui realmente preoccuparsi.
Ovviamente l'unica cosa che non si può fare con i drivers è "cambiare algoritmo"!! ;) Ma migliorarlo si.
Riguardo il resto penso che ho spiegato esattamente al post sopra a questo.

Dark Schneider
03-05-2004, 03:32
Vi lascio con alcune immagini di B&W2 su cui lavora fek..che fa uso dei 2.0 tra l'altro ;) Così gli faccio anche un po' di publicità.

http://lionsource.ngz-network.de/blacknwhite2/pictures/screenshots/2004/10.jpg

http://lionsource.ngz-network.de/blacknwhite2/pictures/screenshots/2004/14.jpg

http://lionsource.ngz-network.de/blacknwhite2/pictures/screenshots/2004/21.jpg

http://lionsource.ngz-network.de/blacknwhite2/pictures/screenshots/2004/8.jpg

Chissà che figata in movimento...sicuro in movimento rende anche 10 volte meglio di già come è adesso!! ;)

Perfectdavid
03-05-2004, 08:56
questo è un altro titolo che doveva uscire da una vita...e purtroppo la grafica già non mi sembra ai livelli della presentazione :cry:

Paoletta Corsini
03-05-2004, 09:55
Nvidia ha rilasciato alcune informazioni sui suoi prossimi drivers Forceware 61.11 per la sua nuova linea di processori grafici GeForce 6800.
I tests dei suddetti drivers inizieranno presto.
Questi sono i miglioramenti che i nuovi Nvidia Forceware 61.11 introduranno rispetto alla versione 60.72:

- Un aumento delle prestazioni di circa il 5% in Aquamark
- Un aumento delle prestazioni di circa il 5% in X2
- Un aumento delle prestazioni di circa il 5% in Tomb Raider: Angel of Darkness
- Un aumento delle prestazioni di circa il 10% in Call of Duty
- Un aumento delle prestazioni di oltre il 20% in Far Cry (corretto un bug z cull)

http://www.hardwareirc.com/news.php?ID=9686&PHPSESSID=eab55cd2ca2c70be45910698c74c587a

:D

Athlon 64 3000+
03-05-2004, 10:01
Io personalmente ritengo fondamentali sia i Filtri ma anche L'utilizzo degli shader.
Posso dire che avete ragione entrambi perchè è vero che che sia gli shader che i filtri servono molto a milgliorare la qualità d'immagine ma non litigate ma c'è da dire che prendere una scheda e poi pretendere che le sue freature vengano usate subito questo è un grosso sbaglio dato che tanto gli shader 3.0 verranno usati nel 2005 quando ci saranno NV50 e R500.Anche io fino a la settimana scorsa ero sicuro che avrei voluto cambiare la mia Radeon 9700Pro della Sapphire con NV40 e R420 ma mi sono venuti forti dubbi dato che dei giochi che mandano in crisi le schede di adesso a parte Far Cry non ce ne sono(Parlo dei generi che piaciono a me,Lock on non lo ho nominato perchè non è un genere che piace a me)e a Parte Half Life 2, Doom3 e Stalker non ci saranno giochi in uscita nei prossimo mesi che mi faranno cambiare scheda.Se ne riparla per dopo settembre.
Riguardo all'NV40 io dico che se non affinano i Driver questa scheda per me hai gia delle magagne in partenza che sono i filtri e la dipendenza a Alu e TMU.

Athlon 64 3000+
03-05-2004, 10:02
Speriamo che migliorino la gestione dei filtri perchè non ci siamo per il momento e la dipendenza dall'Fp16.

andreamarra
03-05-2004, 10:59
Mi spiegate perchè state parlando di Aniso di qualità inferiore nella nvidia?? :confused:

A quanto ne sapevo io (e non molto :p ) la ati era ed è superiore nell'AA, mentre l'nvidia era (ed è?) superiore per quanto riguarda L'Ansiotropic...

halduemilauno
03-05-2004, 11:31
Originariamente inviato da JENA PLISSKEN
Il problema è questo.....col Taa...ci faremo 2 risate:sofico:

http://images.anandtech.com/graphs/nvidia%20geforce%206800_04140480410/1896.png

un primo confronto.

http://www.theinquirer.net/?article=15662

Indeed we understand that at a resolution of 1280x1024 with 4xAA (Anti-Aliasing) and 8xAF (Anisotropic Filtering), with all the eye-candy on max, X800XT Platinum can easily sustain an average of more than 47FPS on a system based around an AMD Athlon 64 FX 51.

ciao.
;)

intakeem
03-05-2004, 11:33
Originariamente inviato da halduemilauno
un primo confronto.

http://www.theinquirer.net/?article=15662

Indeed we understand that at a resolution of 1280x1024 with 4xAA (Anti-Aliasing) and 8xAF (Anisotropic Filtering), with all the eye-candy on max, X800XT Platinum can easily sustain an average of more than 47FPS on a system based around an AMD Athlon 64 FX 51.

ciao.
;)


:eek: sembrerebbe difficile.....ma se è vero...:D

halduemilauno
03-05-2004, 11:35
Originariamente inviato da intakeem
:eek: sembrerebbe difficile.....ma se è vero...:D


cosa?

intakeem
03-05-2004, 11:36
Originariamente inviato da halduemilauno
cosa?

che faccia oltre 47fps

nonikname
03-05-2004, 11:44
Originariamente inviato da Athlon 64 3000+
Speriamo che migliorino la gestione dei filtri perchè non ci siamo per il momento e la dipendenza dall'Fp16.

La dipendenza dall'FP16??? ...... Questa poi........

Cioè , una scheda che va il doppio della più potente esistente in commercio , con filtri che , come qualità , differiscono al max dello 0.1% dalla migliore scheda attuale............ e non ci siamo???

Ma stiamo scherzando??? :mad:

Quando abbiamo preso la 9700 , che giochi c'erano in dx9???

Quanto abbiamo aspettato per giocare al primo gioco che usasse gli shaders 2.0 , ve lo dico io : Tomb Raider TAOD , che è uscito 2 anni dopo la presentazione della 9700....eppure l'abbiamo comprata senza criticare il fatto che ancora non c'era nessun gioco capace di sfruttarla!!!

E adesso vi lamentate perchè la scheda supporta pienamente ANCHE le DX9c ???..... ma stiamo scherzando??? :muro:

I prossimi giochi che utilizzeranno gli shader 3.0 sono già in fase finale di programmazione :Lord of the rings-Battle for middle-earth, Stalker, Vampire-Bloodlines, Splinter Cell X, Driver 3, Grafan, Painkiller(patch1.1), Far Cry(patch1.2) .....ma cosa volete di più ??? il coupon di HALFLIFE 2 magari???

E' proprio vero che certe volte i commenti sono proprio di parte e questo non lo sopporto!!! va be che è nVIDIA , ma stavolta ha tirato fuori una scheda con i contro-cazzi !!! .....e se non riuscite ad ammetterlo vuol dire che siete prevenuti!!! ..... ,con la 6800u , NVIDIA , si è riscattata pienamente dall'errore della 5800/5900 e lo dico indipendentemente dalla potenza della nuova ATI..

Poi , per favore , siamo abbiettivi , l'AA alternato l'ho provato , ma è tutto fuorchè una nuova feature HW .... senza contare che se i FPS scendono sotto 40-50(qui il monitor non centra nulla) , non si vede assolutamente nessuna differenza dall'AA normale .....fra l'altro anche con fps alti è difficile notare qualche differenza :( ..
Ad essere sincero mi sembra un trucchino eseguito via driver , implementabile su qualsiasi scheda ....

Io posso capire le antipatie per una marca , ma scrivere che: "proprio non ci siamo" , su una scheda di questo livello , è proprio il commento più di parte che poteva essere scritto...

Peccato , mi ero illuso che il FORUM fosse riuscito "staccarsi" dal futile concetto della semplice "marca" , ma vedo che la maggiorparte degli utenti è ancora prevenuta :
nell'analisi di questa scheda , molti utenti , la giudicano anche dal passato della marca , senza nemmeno mettere in conto tutte le evoluzioni che nvidia ha saputo introdurre nel tempo , ma fermandosi all'unico errore che ha fatto (vedi 5800 )...:rolleyes:

Athlon 64 3000+
03-05-2004, 11:51
vacci piano con gli insulti!Io ho detto per il momento.Rileggi bene il messaggio.Io ho solo detto che la gestione dei filtri dell'NV40 non mi convince per adesso ma se con i nuovi driver la Nvidia metterà tutto a posto tanto di capello all'NV40.

halduemilauno
03-05-2004, 11:52
Originariamente inviato da nonikname
La dipendenza dall'FP16??? ...... Questa poi........

Cioè , una scheda che va il doppio della più potente esistente in commercio , con filtri che , come qualità , differiscono al max dello 0.1% dalla migliore scheda attuale............ e non ci siamo???

Ma stiamo scherzando??? :mad:

Quando abbiamo preso la 9700 , che giochi c'erano in dx9???

Quanto abbiamo aspettato per giocare al primo gioco che usasse gli shaders 2.0 , ve lo dico io : Tomb Raider TAOD , che è uscito 2 anni dopo la presentazione della 9700....eppure l'abbiamo comprata senza criticare il fatto che ancora non c'era nessun gioco capace di sfruttarla!!!

E adesso vi lamentate perchè la scheda supporta pienamente ANCHE le DX9c ???..... ma stiamo scherzando??? :muro:

I prossimi giochi che utilizzeranno gli shader 3.0 sono già in fase finale di programmazione :Lord of the rings-Battle for middle-earth, Stalker, Vampire-Bloodlines, Splinter Cell X, Driver 3, Grafan, Painkiller(patch1.1), Far Cry(patch1.2) .....ma cosa volete di più ??? il coupon di HALFLIFE 2 magari???

E' proprio vero che certe volte i commenti sono proprio di parte e questo non lo sopporto!!! va be che è nVIDIA , ma stavolta ha tirato fuori una scheda con i contro-cazzi !!! .....e se non riuscite ad ammetterlo vuol dire che siete prevenuti!!! ..... ,con la 6800u , NVIDIA , si è riscattata pienamente dall'errore della 5800/5900 e lo dico indipendentemente dalla potenza della nuova ATI..

Poi , per favore , siamo abbiettivi , l'AA alternato l'ho provato , ma è tutto fuorchè una nuova feature HW .... senza contare che se i FPS scendono sotto 40-50(qui il monitor non centra nulla) , non si vede assolutamente nessuna differenza dall'AA normale .....fra l'altro anche con fps alti è difficile notare qualche differenza :( ..
Ad essere sincero mi sembra un trucchino eseguito via driver , implementabile su qualsiasi scheda ....

Io posso capire le antipatie per una marca , ma scrivere che: "proprio non ci siamo" , su una scheda di questo livello , è proprio il commento più di parte che poteva essere scritto...

Peccato , mi ero illuso che il FORUM fosse riuscito "staccarsi" dal futile concetto della semplice "marca" , ma vedo che la maggiorparte degli utenti è ancora prevenuta :
nell'analisi di questa scheda , molti utenti , la giudicano anche dal passato della marca , senza nemmeno mettere in conto tutte le evoluzioni che nvidia ha saputo introdurre nel tempo , ma fermandosi all'unico errore che ha fatto (vedi 5800 )...:rolleyes:


sono d'accordo.
una puntualizzazione la 9700 pro è uscita a settembre del 2002. TRAOD è uscito primavera 2003.
ciao.
:) :)

nonikname
03-05-2004, 11:52
Postami dove ti ho insultato :mad:

nonikname
03-05-2004, 11:53
Originariamente inviato da halduemilauno
sono d'accordo.
una puntualizzazione la 9700 pro è uscita a settembre del 2002. TRAOD è uscito primavera 2003.
ciao.
:) :)

OPS!!! :D

Ciao HAL!!!

halduemilauno
03-05-2004, 11:55
Originariamente inviato da nonikname
OPS!!! :D

Ciao HAL!!!


Ciao Nonikname.
;)

nonikname
03-05-2004, 11:58
Originariamente inviato da Athlon 64 3000+
vacci piano con gli insulti!Io ho detto per il momento.Rileggi bene il messaggio.Io ho solo detto che la gestione dei filtri dell'NV40 non mi convince per adesso ma se con i nuovi driver la Nvidia metterà tutto a posto tanto di capello all'NV40.

Scusami Athlon64 , ma il mio commento non era riferito solo a te : ho letto tutta la pagina precedente e mi sono cadute le braccia , poi ho quotato te perchè ho letto :"proprio non ci siamo" ....

La mia era più una riflessione portata da una serie di post "che non ho digerito" , ed il tuo era l'ultimo ....

Se ti ho offeso non era mia intenzione!!! ;)

Dark Schneider
03-05-2004, 11:58
Originariamente inviato da Athlon 64 3000+
Io personalmente ritengo fondamentali sia i Filtri ma anche L'utilizzo degli shader.
Posso dire che avete ragione entrambi perchè è vero che che sia gli shader che i filtri servono molto a milgliorare la qualità d'immagine ma non litigate ma c'è da dire che prendere una scheda e poi pretendere che le sue freature vengano usate subito questo è un grosso sbaglio dato che tanto gli shader 3.0 verranno usati nel 2005 quando ci saranno NV50 e R500.Anche io fino a la settimana scorsa ero sicuro che avrei voluto cambiare la mia Radeon 9700Pro della Sapphire con NV40 e R420 ma mi sono venuti forti dubbi dato che dei giochi che mandano in crisi le schede di adesso a parte Far Cry non ce ne sono(Parlo dei generi che piaciono a me,Lock on non lo ho nominato perchè non è un genere che piace a me)e a Parte Half Life 2, Doom3 e Stalker non ci saranno giochi in uscita nei prossimo mesi che mi faranno cambiare scheda.Se ne riparla per dopo settembre.
Riguardo all'NV40 io dico che se non affinano i Driver questa scheda per me hai gia delle magagne in partenza che sono i filtri e la dipendenza a Alu e TMU.


Non si tratta di "litigare" sul filtro o sullo shader. Semplicemente voglio dire che visto che con i filtri già siamo a buon punto, di strada se ne fatta parecchia, adesso io preferirei che ci si concentrasse maggiormente sugli shader. Non dico di tralasciare i filtri, dico solo che siamo già a buon punto..e personalmente arrivati a questo punto sono più interessato ad avere maggiori shader e shader più complessi e sopratutto l'uso degli shader nei giochi. I filtri la loro parte l'hanno in "buona parte" già fatta...adesso tocca agli shader farci fare un gran bel salto di qualità...e le premesse ci sono tutte.

Cmq i giochi con gli shader mica sono solo quelli..e tra l'altro pensa un po' quanti titoli usciranno che sfrutteranno quei motori ed anche in maniera migliorata. Ma poi appunto non ci son solo quei titoli. Se per questo FC nessuno sapeva che esisteva fino a poco fa....non a caso è stata considerata una "sorpresa"...tutti aspettavano ben altri titoli ed invece poi è sbucato fuori questo FC.

Parlando per me sono molto contento di cambiare scheda proprio in questo periodo, perchè così non ho dovuto aspettare per vedere un buon numero di titoli che sfruttano gli shader...se poi si pensa che personalmente prediligo gli shader...allora godo doppiamente. ;)

Te naturalmente ancora non ti conviene cambiar scheda...ma anche tra a settembre non vedo cosa cambierebbe....se è una questione di prezzo ok, ma sennò le schede son queste. Io al massimo a te ho consigliato di cambiarla perchè hai dei problemi con la scheda e quindi per precauzione..cambia o rischi che magari ti molla lei. ;)

Riguardo i drivers di NV40: non s'è mai vista una scheda che non è migliorata con i drivers. E' ovvio che un po' di rodaggio ci vuole...ma una volta maturati il miglioramento c'è. :)

Riguardo gli shader 3.0: io proprio non li pretendo subito, anzi..ho più volte detto che non li guardo nemmeno. So che nel lasso di tempo in cui avrò la nuova scheda la maggior parte dei giochi saranno con i 2.0!! Solo che cmq a volte è utile introdurre per il futuro...perchè alla fin fine non son inutili, dei vantaggi ci sono se si usano.....non li userò con NV40 bene...però è importante che vengano introdotte. E' anche un modo per accellerare i tempi. Magari introdotti l'anno prossimo...poi sarebbero stati sfruttati chissà...un anno dopo ancora. Ma cmq resta il fatto che ci son sempre passaggi che magari vanno fatti per il futuro...magari inizialmente son visti come inutili, ma che poi probabilmente servono anche per le future versioni...il fare questi passaggi. Le features nuove di solito non vengono mai utilizzate subito, perchè appunto ci vuole tempo...e dobbiamo dare tempo. L'importante è non farsi prendere troppo la testa da questi 2.0,3.0,ecc. ma non è una questione solo di shader..anche in passato...ricordate l'EMBM? Inizialmente ovvio che ha faticato ed ora è un effetto utilizzatissimo..è diventata una cosa "normale". E' stato un bene introdurlo a quei tempi.

goldorak
03-05-2004, 11:59
Originariamente inviato da nonikname

[cut]

Poi , per favore , siamo abbiettivi , l'AA alternato l'ho provato , ma è tutto fuorchè una nuova feature HW .... senza contare che se i FPS scendono sotto 40-50(qui il monitor non centra nulla) , non si vede assolutamente nessuna differenza dall'AA normale .....fra l'altro anche con fps alti è difficile notare qualche differenza :( ..
Ad essere sincero mi sembra un trucchino eseguito via driver , implementabile su qualsiasi scheda ....

[cut]



Ti faccio notare che il taa non e' solo un giochino dei driver ma si affida al fatto che i pattern di pixel sono programmabili a livello di chip.
E questa e' una innovazione a tutti gli effetti.
Dubito che nvidia riesca a tirare fuori una funzionalita' analoga a meno di non riprogettare tutto l'nv40 :rolleyes:

nonikname
03-05-2004, 12:04
Originariamente inviato da goldorak
Ti faccio notare che il taa non e' solo un giochino dei driver ma si affida al fatto che i pattern di pixel sono programmabili a livello di chip.
E questa e' una innovazione a tutti gli effetti.
Dubito che nvidia riesca a tirare fuori una funzionalita' analoga a meno di non riprogettare tutto l'nv40 :rolleyes:

Anche Nvidia ha i sub-pixel programmabili , ma qui non si parla di un pattern nuovo , qui sono 2 pattern alternati che si sono sempre usati singolarmente .... il che è ben diverso!!!

halduemilauno
03-05-2004, 12:08
vi riporto queste news cosi come le ho trovate.

http://www.hardwareirc.com/news.php?ID=9686&PHPSESSID=eab55cd2ca2c70be45910698c74c587a

Nvidia ha rilasciato alcune informazioni sui suoi prossimi drivers Forceware 61.11 per la sua nuova linea di processori grafici GeForce 6800.
I tests dei suddetti drivers inizieranno presto.
Questi sono i miglioramenti che i nuovi Nvidia Forceware 61.11 introduranno rispetto alla versione 60.72:

- Un aumento delle prestazioni di circa il 5% in Aquamark
- Un aumento delle prestazioni di circa il 5% in X2
- Un aumento delle prestazioni di circa il 5% in Tomb Raider: Angel of Darkness
- Un aumento delle prestazioni di circa il 10% in Call of Duty
- Un aumento delle prestazioni di oltre il 20% in Far Cry (corretto un bug z cull)

http://www.hardwareirc.com/news.php?ID=9691&PHPSESSID=eab55cd2ca2c70be45910698c74c587a


- GeForce 6800: 375/350 MHz (12 pipelines e memoria DDR)
- GeForce 6800 GT (inizialmente conosciuta come "Pro"): 350/500 MHz (16 pipelines e memoria GDDR3)
- GeForce 6800 Ultra: 400/550 MHz (16 pipeline e memoria GDDR3)
- GeForce 6800 Ultra Extreme: 450/550 MHz (16 pipelines e memoria GDDR3)

ciao.
:) :)

nonikname
03-05-2004, 12:10
Poi Dark Schneider ha fondamentalmente ragione :

ormai le differenze di AA o AF , fra le due marche , bisogna andare a scovarle su degli shots ingranditi , se no non si notano...

Ormai , a livello di aa , siamo più che a posto........
ora bisogna concentrarsi sul decadimento prestazionale dei filtri (e qui entra in gioco la potenza elaborativa della GPU) , e sugli SHADERS , che sono appena all'inizio della propria evoluzione.....

Athlon 64 3000+
03-05-2004, 12:10
Originariamente inviato da Dark Schneider
Non si tratta di "litigare" sul filtro o sullo shader. Semplicemente voglio dire che visto che con i filtri già siamo a buon punto, di strada se ne fatta parecchia, adesso io preferirei che ci si concentrasse maggiormente sugli shader. Non dico di tralasciare i filtri, dico solo che siamo già a buon punto..e personalmente arrivati a questo punto sono più interessato ad avere maggiori shader e shader più complessi e sopratutto l'uso degli shader nei giochi. I filtri la loro parte l'hanno in "buona parte" già fatta...adesso tocca agli shader farci fare un gran bel salto di qualità...e le premesse ci sono tutte.

Cmq i giochi con gli shader mica sono solo quelli..e tra l'altro pensa un po' quanti titoli usciranno che sfrutteranno quei motori ed anche in maniera migliorata. Ma poi appunto non ci son solo quei titoli. Se per questo FC nessuno sapeva che esisteva fino a poco fa....non a caso è stata considerata una "sorpresa"...tutti aspettavano ben altri titoli ed invece poi è sbucato fuori questo FC.

Parlando per me sono molto contento di cambiare scheda proprio in questo periodo, perchè così non ho dovuto aspettare per vedere un buon numero di titoli che sfruttano gli shader...se poi si pensa che personalmente prediligo gli shader...allora godo doppiamente. ;)

Te naturalmente ancora non ti conviene cambiar scheda...ma anche tra a settembre non vedo cosa cambierebbe....se è una questione di prezzo ok, ma sennò le schede son queste. Io al massimo a te ho consigliato di cambiarla perchè hai dei problemi con la scheda e quindi per precauzione..cambia o rischi che magari ti molla lei. ;)

Riguardo i drivers di NV40: non s'è mai vista una scheda che non è migliorata con i drivers. E' ovvio che un po' di rodaggio ci vuole...ma una volta maturati il miglioramento c'è. :)



la mia situazione che la scheda la ho gia mandato in sostituzione e spero che me la cambino perchè non ha il dissipatore originale ma un thermaltake cristal orb e se non me la cambiano mi sa che mi prenderò una Radeon 9800Pro.
Tornando al discorso filtri shader io ti dico che io uso L'AF a 8x in tutti gichi tranne che Far Cry e infatti ti dico che è molto importante anche per me che i giochi che usciranno facciano un utilizzo massiccio degli shader ma anche i filtri lo sono.però se in giochi come Far Cry non riesco ad avere un Frame decente con i filtri allora lo disattivo e ci gioco senza, micca mi devo suicidare per L'AF.Però sei giochi me lo premettono lo uso.

Dark Schneider
03-05-2004, 12:10
Originariamente inviato da Athlon 64 3000+



Ho fatto anche qlc aggiunta...anche in rispeto al tuo quesito sulla 9700 Pro! ;)

Dark Schneider
03-05-2004, 12:12
Originariamente inviato da Perfectdavid
questo è un altro titolo che doveva uscire da una vita...e purtroppo la grafica già non mi sembra ai livelli della presentazione :cry:


Mi sa che se ti sente fek...ti spezza le braccine!!:D

No cmq il Corsini ho letto che di recente l'ha visto girare in qlc evento ed è rimasto molto impressionato!! :)

Dark Schneider
03-05-2004, 12:13
Originariamente inviato da Paoletta Corsini


http://www.hardwareirc.com/news.php?ID=9686&PHPSESSID=eab55cd2ca2c70be45910698c74c587a

:D


Brava Paoletta!! ;)
Interessante!

Paoletta Corsini
03-05-2004, 12:18
halduemilauno avevo già postato la "news" io stamattina.

halduemilauno
03-05-2004, 12:21
Originariamente inviato da Paoletta Corsini
halduemilauno avevo già postato la "news" io stamattina.


si vista. ho ritenuto giusto riproporla insieme all'altra news dello stesso sito che riguardava le nuove schede.
insomma unire nuovi driver e nuove schede mi pareva un'accoppiata vincente.
tutto qui.
ciao Paoletta.


:) :)

nonikname
03-05-2004, 12:22
Originariamente inviato da halduemilauno
vi riporto queste news cosi come le ho trovate................

http://www.hardwareirc.com/news.php?ID=9686&PHPSESSID=eab55cd2ca2c70be45910698c74c587a
ciao.
:) :)

Forse la fonte è
questa (http://www.clubic.com/n/n12513.html)

Quindi :
20% in più con la ultra
con la extreme salirà ancora di un 7-10% ,
calcolando poi che , il bench che hai postato di AnandT. è stato fatto con un Athlon64 3400 e non con un fx51 , la percentuale potrebbe salire ancora.....
In directx dovrebbero giocarsela ad armi pari , mentre in openGL , a sentire The Inquirer , la 6800 è nettamente davanti....

A sto giro , ATI e NVIDIA , se ne sono usciti con due schede da paura !!! ......dove ti giri giri non sbagli !!!!

Solo che 599€ per la XT sono davvero troppi....

Se non sbaglio , con un nforce 250 , le prestazioni di un eventuale accoppiata con la 6800 , dovrebbero salire ancora nei confronti della mobo via ....LOL!!!!

halduemilauno
03-05-2004, 12:28
Originariamente inviato da nonikname
Forse la fonte è
questa (http://www.clubic.com/n/n12513.html)

Quindi :
20% in più con la ultra
con la extreme salirà ancora di un 7-10% ,
calcolando poi che , il bench che hai postato di AnandT. è stato fatto con un Athlon64 3400 e non con un fx51 , la percentuale potrebbe salire ancora.....
In directx dovrebbero giocarsela ad armi pari , mentre in openGL , a sentire The Inquirer , la 6800 è nettamente davanti....

A sto giro , ATI e NVIDIA , se ne sono usciti con due schede da paura !!! ......dove ti giri giri non sbagli !!!!

Solo che 599€ per la XT sono davvero troppi....

Se non sbaglio , con un nforce 250 , le prestazioni di un eventuale accoppiata con la 6800 , dovrebbero salire ancora nei confronti della mobo via ....LOL!!!!

può esser tutto giusto. ma aspettiamo i bench di domani e poi vedremo driver e quant'altro.
ciao.


:) :)

devis
03-05-2004, 12:28
Originariamente inviato da halduemilauno

ciao Paoletta.


E' un lui :D

Dark Schneider
03-05-2004, 12:29
Originariamente inviato da Athlon 64 3000+
la mia situazione che la scheda la ho gia mandato in sostituzione e spero che me la cambino perchè non ha il dissipatore originale ma un thermaltake cristal orb e se non me la cambiano mi sa che mi prenderò una Radeon 9800Pro.
Tornando al discorso filtri shader io ti dico che io uso L'AF a 8x in tutti gichi tranne che Far Cry e infatti ti dico che è molto importante anche per me che i giochi che usciranno facciano un utilizzo massiccio degli shader ma anche i filtri lo sono.però se in giochi come Far Cry non riesco ad avere un Frame decente con i filtri allora lo disattivo e ci gioco senza, micca mi devo suicidare per L'AF.Però sei giochi me lo premettono lo uso.


Ahh ecco ora si...inizialmente non avevo fatto caso a quello che avevi quotato..perchè era miste alle mie parole!!:D

Cmq si sono daccordo con il tuo discorso, mi sembra più che giusto. :)

nonikname
03-05-2004, 12:31
Originariamente inviato da devis
E' un lui :D


Noooo , mi cade un mito!!!! :cry:

halduemilauno
03-05-2004, 12:32
Originariamente inviato da devis
E' un lui :D


gia lo sapevo. anzi l'ho sempre saputo. e cmq si si fa chiamare Paoletta sempre Paoletta devo dire se voglio salutare.

;)

Dark Schneider
03-05-2004, 12:33
Originariamente inviato da halduemilauno
vi riporto queste news cosi come le ho trovate.

http://www.hardwareirc.com/news.php?ID=9686&PHPSESSID=eab55cd2ca2c70be45910698c74c587a

Nvidia ha rilasciato alcune informazioni sui suoi prossimi drivers Forceware 61.11 per la sua nuova linea di processori grafici GeForce 6800.
I tests dei suddetti drivers inizieranno presto.
Questi sono i miglioramenti che i nuovi Nvidia Forceware 61.11 introduranno rispetto alla versione 60.72:

- Un aumento delle prestazioni di circa il 5% in Aquamark
- Un aumento delle prestazioni di circa il 5% in X2
- Un aumento delle prestazioni di circa il 5% in Tomb Raider: Angel of Darkness
- Un aumento delle prestazioni di circa il 10% in Call of Duty
- Un aumento delle prestazioni di oltre il 20% in Far Cry (corretto un bug z cull)

http://www.hardwareirc.com/news.php?ID=9691&PHPSESSID=eab55cd2ca2c70be45910698c74c587a


- GeForce 6800: 375/350 MHz (12 pipelines e memoria DDR)
- GeForce 6800 GT (inizialmente conosciuta come "Pro"): 350/500 MHz (16 pipelines e memoria GDDR3)
- GeForce 6800 Ultra: 400/550 MHz (16 pipeline e memoria GDDR3)
- GeForce 6800 Ultra Extreme: 450/550 MHz (16 pipelines e memoria GDDR3)

ciao.
:) :)


Cioè adesso ci saranno 4 versioni della 6800? :confused:
Ammazza se è così credo siano da rivedere i prezzi....e se la 6800 GT avrà le 16 Pipeline...a sto punto il prezzo dovrebbe essere ulteriormente ritoccato verso il basso e tra l'altro diventa la scheda + appetitibile.

Cmq spero la chiamino 6800 Pro....."GT" mi sembra na sigla de na macchina!! Mettiamoci Turbo Diesel e siamo a posto!!:D

Dark Schneider
03-05-2004, 12:36
Ah ecco adeso che leggo meglio...queste Extreme saranno "limitate" solo ad alcuni produttori perchè utilizzeranno il raffreddamento al Liquido.

nonikname
03-05-2004, 12:38
Originariamente inviato da halduemilauno
gia lo sapevo. anzi l'ho sempre saputo. e cmq si si fa chiamare Paoletta sempre Paoletta devo dire se voglio salutare.

;)


Ma possibile che non ci sia una ragazza/donna appassionata di Hardware ???

Non ne ho mai vista una , nemmeno in negozio .... al massimo Playstation , ma PC zero !!! chissà come mai!!!

Misteri dell'informatica :confused:

andreamarra
03-05-2004, 12:42
Originariamente inviato da Dark Schneider
Ah ecco adeso che leggo meglio...queste Extreme saranno "limitate" solo ad alcuni produttori perchè utilizzeranno il raffreddamento al Liquido.

Ecco il perchè delle frequenze mostruose :eek:

rubex
03-05-2004, 12:44
Originariamente inviato da andreamarra
Ecco il perchè delle frequenze mostruose :eek:

50mhz in + solo x il core frequenza mostruosa :confused:

BYe

andreamarra
03-05-2004, 12:44
Originariamente inviato da Dark Schneider


Cmq spero la chiamino 6800 Pro....."GT" mi sembra na sigla de na macchina!! Mettiamoci Turbo Diesel e siamo a posto!!:D


Stavo per postarlo io questo.. :asd: ;)

andreamarra
03-05-2004, 12:46
Originariamente inviato da rubex
50mhz in + solo x il core frequenza mostruosa :confused:

BYe


Per il fatto che ho letto che la scheda nvidia ha dei limiti nell'overclok causato proprio dall'architettura estremamente complessa, in quanto la gpu strabocca di milioni di transistor.. e ho letto in giro che il suo limite fisico è quasi quello di produzione..

E quindi 50 MHz che per una gpu non sono bruscolini sono ancora di più pensando a questo limite "teorico"

Tutto da verificare però nel pratico :)

Dark Schneider
03-05-2004, 12:51
Originariamente inviato da nonikname
Forse la fonte è
questa (http://www.clubic.com/n/n12513.html)

Quindi :
20% in più con la ultra
con la extreme salirà ancora di un 7-10% ,
calcolando poi che , il bench che hai postato di AnandT. è stato fatto con un Athlon64 3400 e non con un fx51 , la percentuale potrebbe salire ancora.....
In directx dovrebbero giocarsela ad armi pari , mentre in openGL , a sentire The Inquirer , la 6800 è nettamente davanti....

A sto giro , ATI e NVIDIA , se ne sono usciti con due schede da paura !!! ......dove ti giri giri non sbagli !!!!

Solo che 599€ per la XT sono davvero troppi....

Se non sbaglio , con un nforce 250 , le prestazioni di un eventuale accoppiata con la 6800 , dovrebbero salire ancora nei confronti della mobo via ....LOL!!!!


Diciamo che in Open GL le nVidia hanno sempre rullato di più. Quindi c'era un po' da aspettarsi che sarebbe continuato ad essere così! :) Personalmente una volta andavo a guardare i soliti titoli open gl, basati sui vari quake 3, i vari serious sam...dove cmq ci sono fps altissimi. Invece poi mi son accorto che ce ne sono parecchi altri di giochi Open Gl dove non si raggiungono fps elevatissimi...e lì avere una scheda che rulla di più in Open GL è importante. Tipo NWN in multiplayer..ho notato che non pochi di quelli che ci giocano(che conosco io) son passati a schede tipo 5900xt,ecc. Tipo Legolas84...lui che gioca molto in Open GL e a NWN on line...ed è passato alla Pov 5900xt@5950 Ultra guadagnandoci non poco. In effetti ho visto il bench "single palyer" di NWN su anandtech sulla recensione della 6800...ed in effetti c'è un distacco consistente giàà con le 5900...e bisogna considerare che poi in MP le cose son anche più complesse.

Cmq spero che Ati abbia migliorato l'Open Gl...alla fine penso che sia un bene bilanciare le prestazioni nei due ambiti. Alla fine la scheda c'è, quindi... :)

nonikname
03-05-2004, 12:51
Originariamente inviato da Dark Schneider
Ah ecco adeso che leggo meglio...queste Extreme saranno "limitate" solo ad alcuni produttori perchè utilizzeranno il raffreddamento al Liquido.

No , ti posso garantire che la MSI geffo 6800(credo sia la ultra), non è raffreddata ad acqua , e di clock è 450/1100..

Ti spiego : questa mattina ho chiesto le freq delle mie due 6800ultra e mi hanno confermato 450/1100Mhz ... e bada , io ho prenotato 2 ultra e non due Extreme !!!

Mentre la Gainward con raffreddamento ad acqua è clokkata a 500/1200!!!

Paoletta Corsini
03-05-2004, 12:52
Originariamente inviato da devis
E' un lui :D
Non mi risulta che tu sappia nulla di me. Potrei essere un lui come tu potresti essere una lei. Come giustamente afferma però halduemilauno il nick è quello non può certo chiamarmi Piero o Clarabella.
Ad ogni modo, devis sei OT, siam qui per parlare delle scheda e non del mio sesso e dei miei gusti: a proposito che idea ti sei fatto di questa 6800?

nonikname
03-05-2004, 12:56
Originariamente inviato da Paoletta Corsini
a proposito che idea ti sei fatto di questa 6800?

Tanto per cambiare discorso.......... :D

P.S. mi è caduto un mito :cry:

Ciò non toglie che mi sei simpatic(x) a prescindere dal Nick/Avatar

devis
03-05-2004, 13:03
Permalosetto :D

La mia idea "definitiva" me la farò quando ci saranno i test dell'R420. Anche se i due molex , l'enorme richiesta di energia e la qualità dell'immagine non eccelsa fanno si che sia scheda che non fa per me.

JENA PLISSKEN
03-05-2004, 13:03
Si...solo che voi state parlando di una scheda da 500€ che ANCORA DEVE uscire....vi faccio notare che io HO un AA superiore già a quello della 6800 da FEBBRAIO 2003!!!!!!!!...Nn da Giugno 2004:sofico: :sofico: :sofico: ...e mquesto Nn vuol essere un discorso del tipo ...a chi orina + lontano o mioCUGGGGINO, mio CUGGINO....lo faccio solo x farvi capire che dovreste aprire gli occhi e cercare di spendere meglio i vostri soldi...state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""...poi della X800XT a me nn me ne impipa una cavolo bsta ed avanza le mia 9700...ed è proprio questo il BELLO...mentre qui c' è gente che si vedrà costretta a cambiare schede acquistate 1 mese fa....poi Nn c' è peggior sordo di chi NN vuol sentire...io cerco sempre di sfruttsare al max i soldi.

Certo che sono eccitato dal Taa....provate a giocarci con le vostre schede a Fc con aa4x ed af 8x:sofico: :sofico:

Dark Schneider
03-05-2004, 13:05
Originariamente inviato da nonikname
Ma possibile che non ci sia una ragazza/donna appassionata di Hardware ???

Non ne ho mai vista una , nemmeno in negozio .... al massimo Playstation , ma PC zero !!! chissà come mai!!!

Misteri dell'informatica :confused:


In realtà ne ho conosciuta una...na bionda...BONA..e che tutto mi aspettavo tranne che fosse una smanettona...tra l'altro è un informatica come me...ma di solito posso assicurare...che le ragazze informatiche..si vabbè studiano, imparano...ma di solito non son cmq come possono essere dei maschi...non son di quelle che stanno a cambiare pezzi dei pc ogni due mesi, che super OC, spendono un botto,ecc. Questa qui è una che praticamente già 6 mesi fa...all'uscita dell'Athlon 64 già se l'era comprata...ma poi tutta roba costosa. Invece dei vestiti...si compra le varie schede video, cpu, ram,ecc. continuamente :D La cosa buffa è a vederla sembra tutt'altra persona. Invece...
Poi una volta mi stava a fa ridere, perchè ci stava un tizio che stava cercando di fare il saputello ignorando che tipo di persona in realtà avesse di fronte...credeva che era la solita gnocca che non capiva nulla di pc..e questa appena gli si è messa a parlare l'ha praticamente travolto.
Non ultima cosa: si mette a fare anche le modifiche alla PSX, PS2 a pagamento.
In effetti a me ha fatto un certo "effetto" sentire una tipa aprire bocca e parlare, parlare con "ossessione" di qlc di cui solitamente una tipa di certo non tratta!!:eek: :D

Paoletta Corsini
03-05-2004, 13:08
Originariamente inviato da devis
Permalosetto :D

La mia idea "definitiva" me la farò quando ci saranno i test dell'R420. Anche se i due molex , l'enorme richiesta di energia e la qualità dell'immagine non eccelsa fanno si che sia scheda che non fa per me.
Anche tu vedo che sei alquanto permalosetta :asd:

A quello che hai elencato, io aggiungerei "prestazioni della concorrente" ;)

andreamarra
03-05-2004, 13:17
Originariamente inviato da Paoletta Corsini
Anche tu vedo che sei alquanto permalosetta :asd:

A quello che hai elencato, io aggiungerei "prestazioni della concorrente" ;)

Permalosetta :O

Rispondi ai PVT :O

devis
03-05-2004, 13:18
Originariamente inviato da Paoletta Corsini
Anche tu vedo che sei alquanto permalosetta :asd:


Aggiungo anche che sono disinibita :asd:


A quello che hai elencato, io aggiungerei "prestazioni della concorrente"

Infatti ho scritto che il giudizio difinitivo me lo farò quando ci sraanno i test della concorrente :)

Diciamo che in Open GL le nVidia hanno sempre rullato di più

Ti credo, ha praticamente comprato Silicon Graphics

Dark Schneider
03-05-2004, 13:23
Originariamente inviato da JENA PLISSKEN
Si...solo che voi state parlando di una scheda da 500€ che ANCORA DEVE uscire....vi faccio notare che io HO un AA superiore già a quello della 6800 da FEBBRAIO 2003!!!!!!!!...Nn da Giugno 2004:sofico: :sofico: :sofico: ...e mquesto Nn vuol essere un discorso del tipo ...a chi orina + lontano o mioCUGGGGINO, mio CUGGINO....lo faccio solo x farvi capire che dovreste aprire gli occhi e cercare di spendere meglio i vostri soldi...state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""...poi della X800XT a me nn me ne impipa una cavolo bsta ed avanza le mia 9700...ed è proprio questo il BELLO...mentre qui c' è gente che si vedrà costretta a cambiare schede acquistate 1 mese fa....poi Nn c' è peggior sordo di chi NN vuol sentire...io cerco sempre di sfruttsare al max i soldi.

Certo che sono eccitato dal Taa....provate a giocarci con le vostre schede a Fc con aa4x ed af 8x:sofico: :sofico:


Scusa ma allora rimani con la tua 9700. Chi ti dice niente. Mica sei obbligato a cambiare per forza. Anzi io personalmente credevo addirittura che i possessori di schede come 9700 e 9800 non prendessero nemmeno in considerazione NV40/R420.
Uno i soldi li spende quando può spenderli anche. Io li spendo adesso. Altri li spenderanno adesso. Altri ancora tra sei mesi. Altri tra un anno.
Al massimo il tuo discorso lo puoi fare a chi ha schede equivalenti alla tua. Ma chi ha schede meno potenti...non ha mica commesso un errore a non comprare allora(che tra l'altro c'è gente che ha comprato anche prima dell'uscita di 9700 e company)...magari tra un anno qlc altro se ne esce dicendo "avete fatto na minchiata a non comprare un anno fa...la mia scheda è ancora il top gioco con filtri e shader a palla...con i vari doom 3, hl2,stalker e chi ne ha più ne metta...a palla....NV50 e R500 costano di più, ma NV40 e R420 fanno giocare con gli shader a palla ancora adesso". No. Uno compra quando vuole e/o può comprare. Ognuno si fa le proprie pianificazioni sugli acquisti.

nonikname
03-05-2004, 13:24
Originariamente inviato da JENA PLISSKEN
Si...solo che voi state parlando di una scheda da 500€ che ANCORA DEVE uscire....vi faccio notare che io HO un AA superiore già a quello della 6800 da FEBBRAIO 2003!!!!!!!!...Nn da Giugno 2004:sofico: :sofico: :sofico: ...e mquesto Nn vuol essere un discorso del tipo ...a chi orina + lontano o mioCUGGGGINO, mio CUGGINO....lo faccio solo x farvi capire che dovreste aprire gli occhi e cercare di spendere meglio i vostri soldi...state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""...poi della X800XT a me nn me ne impipa una cavolo bsta ed avanza le mia 9700...ed è proprio questo il BELLO...mentre qui c' è gente che si vedrà costretta a cambiare schede acquistate 1 mese fa....poi Nn c' è peggior sordo di chi NN vuol sentire...io cerco sempre di sfruttsare al max i soldi.

Certo che sono eccitato dal Taa....provate a giocarci con le vostre schede a Fc con aa4x ed af 8x:sofico: :sofico:

Scusa , hai guardato l'indirizzo nella barra degli stumenti ???

Forse hai sbagliato forum , ti consiglio vivamente
questo (http://www.rage3d.com/board/index.php?) : qui potrai condividere la tua "eccitazione" fra chi ti capisce meglio!!!

Ma sinceramente non capisco perchè posti nel Thread della 6800 .... puoi benissimo postare nella discussione :" aspettando R420" se sei così sbilanciato !!!

Ma , certa gente proprio non la capisco :rolleyes:

Resta comunque valido il concetto "don't feed the troll" , anche se sono stato io il primo a non seguirlo......

Dark Schneider
03-05-2004, 13:25
Originariamente inviato da nonikname
No , ti posso garantire che la MSI geffo 6800(credo sia la ultra), non è raffreddata ad acqua , e di clock è 450/1100..

Ti spiego : questa mattina ho chiesto le freq delle mie due 6800ultra e mi hanno confermato 450/1100Mhz ... e bada , io ho prenotato 2 ultra e non due Extreme !!!

Mentre la Gainward con raffreddamento ad acqua è clokkata a 500/1200!!!


Capito!! :)

Interessante!

Quindi i prezzi sono un po' da rivedere immagino per i vari modelli.

Dark Schneider
03-05-2004, 13:28
Originariamente inviato da andreamarra
Per il fatto che ho letto che la scheda nvidia ha dei limiti nell'overclok causato proprio dall'architettura estremamente complessa, in quanto la gpu strabocca di milioni di transistor.. e ho letto in giro che il suo limite fisico è quasi quello di produzione..

E quindi 50 MHz che per una gpu non sono bruscolini sono ancora di più pensando a questo limite "teorico"

Tutto da verificare però nel pratico :)


Però in realtà da come ci ha detto Vifani, la scheda a 450 era tiepida. Quindi una questione di calore non è. Penso che le soluzioni a liquido...a 500 ci si arriva.

andreamarra
03-05-2004, 13:31
Originariamente inviato da Dark Schneider
Però in realtà da come ci ha detto Vifani, la scheda a 450 era tiepida. Quindi una questione di calore non è. Penso che le soluzioni a liquido...a 500 ci si arriva.


Allora è un limite strutturale del chip :confused: ?

nonikname
03-05-2004, 13:37
Originariamente inviato da Dark Schneider
Capito!! :)

Interessante!

Quindi i prezzi sono un po' da rivedere immagino per i vari modelli.

Credo che l'EXTREME , nei primi 2 mesi , sarà venduta al prezzo della X800XT : in Italia 600€ e passa ...

La ultra e X800pro 500€

La GT e la liscia di ati(se ci sarà) a meno di 400€

e la 6800liscia e la X800se a meo di 300€

Passato il boom iniziale i prezzi caleranno vertiginosamente a causa della concorrenza , sempre se il livello di prestazioni rimane simile ....... mentre se una delle 2 "orina + lontano"(come ha detto jenaqualcosa prima ) il prezzo della vincitrice dovrebbe rimanere invariato per più tempo!!! :rolleyes:

andreamarra
03-05-2004, 13:39
Originariamente inviato da nonikname
Credo che l'EXTREME , nei primi 2 mesi , sarà venduta al prezzo della X800XT : in Italia 600€ e passa ...

La ultra e X800pro 500€

La GT e la liscia di ati(se ci sarà) a meno di 400€

e la 6800liscia e la X800se a meo di 300€

Passato il boom iniziale i prezzi caleranno vertiginosamente a causa della concorrenza , sempre se il livello di prestazioni rimane simile ....... mentre se una delle 2 "orina + lontano"(come ha detto jenaqualcosa prima ) il prezzo della vincitrice dovrebbe rimanere invariato per più tempo!!! :rolleyes:

ciao vulcaniano :D

perchè nelle versioni da 500 MHz i costruttori si affideranno al liquido? E soprattutto come faranno?

Eppure dicono la scheda già a 450 non ha problemi dio temperatura... :confused:

JENA PLISSKEN
03-05-2004, 13:49
Originariamente inviato da nonikname
Scusa , hai guardato l'indirizzo nella barra degli stumenti ???

Forse hai sbagliato forum , ti consiglio vivamente
questo (http://www.rage3d.com/board/index.php?) : qui potrai condividere la tua "eccitazione" fra chi ti capisce meglio!!!

Ma sinceramente non capisco perchè posti nel Thread della 6800 .... puoi benissimo postare nella discussione :" aspettando R420" se sei così sbilanciato !!!

Ma , certa gente proprio non la capisco :rolleyes:

Resta comunque valido il concetto "don't feed the troll" , anche se sono stato io il primo a non seguirlo......

Sbilanciato?...ma x favore....hai perso l' occasione x dimostrare la tua intelligenza:rolleyes: :rolleyes:

La prossima volta almeno leggi quello che scrivo:O :O

Quello che Nn mi va e vedere threads MELENSI pieni di sottomessa ammirazione verso un marchio e basta, privi di discussioni tecniche e soprattutto di confronti con la diretta concorrenza...Nn vorrei che gente che Nn ne capisce granchè si facesse abbindolare da certi discorsi:sofico:

Tanto è ovvio che a quanto pare le magagne ci saranno da entrambe le parti....ma x or aquelle della 6800 sono certe:sofico: ...altrimenti scrvete a caratteri cubitali ATTENZIONE PUBBLICITA' x NV o ATI....e così facciamo prima:sofico:

don' t feed the troll...detto d ate è un complimento:rotfl: :rotfl: :rotfl:

JENA PLISSKEN
03-05-2004, 13:53
Originariamente inviato da nonikname
Credo che l'EXTREME , nei primi 2 mesi , sarà venduta al prezzo della X800XT : in Italia 600€ e passa ...

La ultra e X800pro 500€

La GT e la liscia di ati(se ci sarà) a meno di 400€

e la 6800liscia e la X800se a meo di 300€

:

:eek: :eek: NO...veramente....:eek: :eek: ...che news:D

nonikname
03-05-2004, 13:59
Originariamente inviato da andreamarra
Allora è un limite strutturale del chip :confused: ?

No : se rimane tiepida ma non si overclokka è la tensione di alimentazione volutamente bassa ........

In teoria per "costruire l'EXtreme" basta alzare il vcore e cambiare fisicamente le gddr3 550mhz con quelle a 600mhz:
se non ricordo male , il limite delle samsung installate sulla 6800u dovrebbe essere 550Mhz , quindi può darsi che Nvidia abbia tenuto basso anche qui il vmem delle ram per non farle overclokkare facilmente , perchè è risaputo che queste GDDR3 scaldano pochissimo dato i soli 1,8v necessari per farle funzionare...
A detta di molte fonti vicine a nvidia , i sample sono stati ritoccati prima delle spedizioni , pe funzionare a freq. minori , infatti sulla scheda hanno montato anche il dissi per la ram che a quelle freq . è sicuramente sovradimensionato . Per rendersene conto basta vedere la X800XT che è senza dissi sulle ram pur lavorando alle stessa freq......

Raven
03-05-2004, 14:00
Jena e Nonik... STOP!

andreamarra
03-05-2004, 14:02
Originariamente inviato da nonikname
No : se rimane tiepida ma non si overclokka è la tensione di alimentazione volutamente bassa ........

In teoria per "costruire l'EXtreme" basta alzare il vcore e cambiare fisicamente le gddr3 550mhz con quelle a 600mhz:
se non ricordo male , il limite delle samsung installate sulla 6800u dovrebbe essere 550Mhz , quindi può darsi che Nvidia abbia tenuto basso anche qui il vmem delle ram per non farle overclokkare facilmente , perchè è risaputo che queste GDDR3 scaldano pochissimo dato i soli 1,8v necessari per farle funzionare...
A detta di molte fonti vicine a nvidia , i sample sono stati ritoccati prima delle spedizioni , pe funzionare a freq. minori , infatti sulla scheda hanno montato anche il dissi per la ram che a quelle freq . è sicuramente sovradimensionato . Per rendersene conto basta vedere la X800XT che è senza dissi sulle ram pur lavorando alle stessa freq......


:oink:

Cioè praticamente se faranno uscire come credo e spero delle schede modificate nei voltaggi si dovrebbero avere (soprattutto per la ati, confermate?) frequenze mostruose di gpu e soprattutto di ram :oink: !

JENA PLISSKEN
03-05-2004, 14:04
Originariamente inviato da Raven
Jena e Nonik... STOP!

;) ...cmq si discuteva....nulla +;)

ronaldovieri
03-05-2004, 14:06
Originariamente inviato da Dark Schneider
Scusa ma allora rimani con la tua 9700. Chi ti dice niente. Mica sei obbligato a cambiare per forza. Anzi io personalmente credevo addirittura che i possessori di schede come 9700 e 9800 non prendessero nemmeno in considerazione NV40/R420.
Uno i soldi li spende quando può spenderli anche. Io li spendo adesso. Altri li spenderanno adesso. Altri ancora tra sei mesi. Altri tra un anno.
Al massimo il tuo discorso lo puoi fare a chi ha schede equivalenti alla tua. Ma chi ha schede meno potenti...non ha mica commesso un errore a non comprare allora(che tra l'altro c'è gente che ha comprato anche prima dell'uscita di 9700 e company)...magari tra un anno qlc altro se ne esce dicendo "avete fatto na minchiata a non comprare un anno fa...la mia scheda è ancora il top gioco con filtri e shader a palla...con i vari doom 3, hl2,stalker e chi ne ha più ne metta...a palla....NV50 e R500 costano di più, ma NV40 e R420 fanno giocare con gli shader a palla ancora adesso". No. Uno compra quando vuole e/o può comprare. Ognuno si fa le proprie pianificazioni sugli acquisti.

quotissimo

JENA PLISSKEN
03-05-2004, 14:06
Originariamente inviato da andreamarra
:oink:

Cioè praticamente se faranno uscire come credo e spero delle schede modificate nei voltaggi si dovrebbero avere (soprattutto per la ati, confermate?) frequenze mostruose di gpu e soprattutto di ram :oink: !

Ma basta OV già quelle ULTRA;) ....Nn c' è bisogno di spendere d +;)
Anche se OV una scheda nuova di quel prezzo...mah:rolleyes:

Thunder82
03-05-2004, 14:06
Originariamente inviato da nonikname
Scusa , hai guardato l'indirizzo nella barra degli stumenti ???

Forse hai sbagliato forum , ti consiglio vivamente
questo (http://www.rage3d.com/board/index.php?) : qui potrai condividere la tua "eccitazione" fra chi ti capisce meglio!!!

Ma sinceramente non capisco perchè posti nel Thread della 6800 .... puoi benissimo postare nella discussione :" aspettando R420" se sei così sbilanciato !!!

Ma , certa gente proprio non la capisco :rolleyes:

Resta comunque valido il concetto "don't feed the troll" , anche se sono stato io il primo a non seguirlo......

Cioè in questo thread è obbligatorio solo esaltare la 6800? Complimenti... :rolleyes:

nonikname
03-05-2004, 14:12
Originariamente inviato da JENA PLISSKEN
Sbilanciato?...ma x favore....hai perso l' occasione x dimostrare la tua intelligenza:rolleyes: :rolleyes:

La prossima volta almeno leggi quello che scrivo:O :O

Quello che Nn mi va e vedere threads MELENSI pieni di sottomessa ammirazione verso un marchio e basta, privi di discussioni tecniche e soprattutto di confronti con la diretta concorrenza...Nn vorrei che gente che Nn ne capisce granchè si facesse abbindolare da certi discorsi:sofico:

Tanto è ovvio che a quanto pare le magagne ci saranno da entrambe le parti....ma x or aquelle della 6800 sono certe:sofico: ...altrimenti scrvete a caratteri cubitali ATTENZIONE PUBBLICITA' x NV o ATI....e così facciamo prima:sofico:

don' t feed the troll...detto d ate è un complimento:rotfl: :rotfl: :rotfl:

Ho capito allora :

La tua è una missione!! :D

Praticamente non vuoi che qualche utente caschi nella trappola escogitata da Nvidia !!!! :D

Ma per favore............:mad:

1) non credo di doverti dimostrare qualcosa

2) tu fai tanto il fighetto perchè hai la 9700 , ma c'è molta gente che ha ancora schede dx 8 e vuole aggiornare il pc adesso :
per te cosa deve fare..... si deve comprare una 9800 , perche le altre sono solo una fregatura !!!!

Ogni tanto dovresti provare a metterti nei panni di qualcun'altro prima di sparare qualsiasi sentenza.......

a me nn me ne impipa una cavolo bsta ed avanza le mia 9700...ed è proprio questo il BELLO...mentre qui c' è gente che si vedrà costretta a cambiare schede acquistate 1 mese fa....poi Nn c' è peggior sordo di chi NN vuol sentire..
Sei un grande : mi accorgo solo ora che il tuo post era completamente obbiettivo , e tu stavi solo cercando di mettere in guardia della gente che dire che ne capisce più di te è un'offesa : ma hai visto con chi stavi parlando ????

originariamente inviato da Thunder82
Cioè in questo thread è obbligatorio solo esaltare la 6800? Complimenti...
Come mai sti discorsi li fa solo su questo thread mentre su "Aspettando r420" continua a scrivere ATI rulez???

JENA PLISSKEN
03-05-2004, 14:13
Originariamente inviato da Thunder82
Cioè in questo thread è obbligatorio solo esaltare la 6800? Complimenti... :rolleyes:

INFATTI....hanno diviso i threads x creare delle DISCUSSIONI \ PUBBLICITA'....molto costruttive d' altronde;)

Mah...credo che il bello sia discutere e fare i paragoni...Nn parlare di programmare gli acquisti...dato che programmare un acquisto x fedeltà nn è = ad acuisto del MIGLIOR prodotto;)

Mah...contenti loro:boh: :boh: :boh:

JENA PLISSKEN
03-05-2004, 14:17
Originariamente inviato da nonikname
Ho capito allora :

La tua è una missione!! :D

Praticamente non vuoi che qualche utente caschi nella trappola escogitata da Nvidia !!!! :D

Ma per favore............:mad:

1) non credo di doverti dimostrare qualcosa

2) tu fai tanto il fighetto perchè hai la 9700 , ma c'è molta gente che ha ancora schede dx 8 e vuole aggiornare il pc adesso :
per te cosa deve fare..... si deve comprare una 9800 , perche le altre sono solo una fregatura !!!!

Ogni tanto dovresti provare a metterti nei panni di qualcun'altro prima di sparare qualsiasi sentenza.......


Sei un grande : mi accorgo solo ora che il tuo post era completamente obbiettivo , e tu stavi solo cercando di mettere in guardia della gente che dire che ne capisce più di te è un'offesa : ma hai visto con chi stavi parlando ????


Come mai sti discorsi li fa solo su questo thread mentre su "Aspettando r420" continua a scrivere ATI rulez???


Mah...ripeto RIleggi quello che ho scritto...Nn c ' entra nulla con quello che dici...NN è che ci voglia molto a capire;) ...ne è mia intenzione fare PUBBLICITA' a nessuno....nell' altro thread scrivo solo 9700 RULEZ NN ATI...dato che ancora devo leggere delle rece sul 420;) se vedi bene io sto confrontando la mia 9700 con una 6800....ci 6 arrivato??

Poi se ci si vuol confrontare è bene...se si vuol litigare = sospensione...Nn gradita:D

JENA PLISSKEN
03-05-2004, 14:19
Originariamente inviato da JENA PLISSKEN
Mah...ripeto RIleggi quello che ho scritto...Nn c ' entra nulla con quello che dici...NN è che ci voglia molto a capire;) ...ne è mia intenzione fare PUBBLICITA' a nessuno....nell' altro thread scrivo solo 9700 RULEZ NN ATI...dato che ancora devo leggere delle rece sul 420;) se vedi bene io sto confrontando la mia 9700 con una 6800....ci 6 arrivato??

Poi se ci si vuol confrontare è bene...se si vuol litigare = sospensione...Nn gradita:D

P\S
STRABEN vengano polemiche costruttive nell' altro thread quando sapremo dell' R420;) D' altromnde stai parlando con uno che si è sempre lamentato dell' AF ATI...quindi di parte Nn lo sono;)

Legolas84
03-05-2004, 14:24
Non ho parole per alcuni interventi.... :rolleyes:

Comunque io resto dell'idea che la 6800 è una grande evoluzione in casa nvidia....

ballero
03-05-2004, 14:25
Originariamente inviato da nonikname
Ho capito allora :

La tua è una missione!! :D

Praticamente non vuoi che qualche utente caschi nella trappola escogitata da Nvidia !!!! :D



Lo credo anch'io.
Sta cercando di convincerci che la 6800U fa schifo
:mc:

miiiiii ... quanto schifo che fa la 6800U :sofico: :sofico:

nonikname
03-05-2004, 14:25
Lungi da me litigare , ma non puoi affermare che chi compra la 6800 è un babbeo , perchè non ha comprato un anno fa la 9700.....

C'è gente come DarkS. che se deve cambiare la 4200 adesso cosa fa???

Non vorrai mica che si compri una 9800xt quando fra poco ci saranno le 6800gt che costeranno di meno e andranno sicuramente più veloci , con l'aa che non sarà ai livelli di ATI , ma la differenza è anche vero che potrai notarla solo a immagine ferma e ingrandita .....

Se non capisci questo , amici come prima lo stesso , però non puoi chiedermi di non intervenire quando sento questi discorsi :D


Infine direi anche : Scambiamoci un segno di pace , Amen.......;)

JENA PLISSKEN
03-05-2004, 14:26
Originariamente inviato da Legolas84
Non ho parole per alcuni interventi.... :rolleyes:

Comunque io resto dell'idea che la 6800 è una grande evoluzione in casa nvidia....

Grazie ...:D ...l' importante è avaere i paraocchi:D

Thunder82
03-05-2004, 14:27
Sto solo cercando di far notare che la tendenza in questo thread è solo di osannare la 6800. Per carità, scheda ottima. Ma appena uno trova una cosa che potrebbe essere un difetto: questione di driver, scheda beta, sbornia del sabato sera, ecc... fino ad arrivare all'estremo di nonikname, che dice addirittura "se vuoi parlare male di NV40 vai a farlo in un altro thread o addirittura in un altro forum. :rolleyes:

Per carità, io rispetto tutte le scelte di chiunque, ad esempio Dark Schneider dato che usa linux fa benissimo a scegliere nVidia, visto che con ATi è un'agonia (provato personalmente). Logico anche che uno sia attratto da una marca per simpatia.

Ma siamo qua per discutere dei PRO e dei CONTRO di una scheda, paragonandola con soluzioni esistenti (9800) e in dirittura d'arrivo (x800). Se non vi aggrada questo confronto scrivete chiaramente nel primo thread a caratteri cubitali VIETATO IL CONFRONTO CON ALTRE TECNOLOGIE, vedrai nonikname che avrai il tuo bel thread pubblicitario in questo modo.

Scusa ma il tuo intervento di invitare qualcuno che confronta due schede a lasciare il thread lo trovo quantomeno fuori luogo e infantile.

JENA PLISSKEN
03-05-2004, 14:30
Originariamente inviato da nonikname
Lungi da me litigare , ma non puoi affermare che chi compra la 6800 è un babbeo , perchè non ha comprato un anno fa la 9700.....

C'è gente come DarkS. che se deve cambiare la 4200 adesso cosa fa???

Non vorrai mica che si compri una 9800xt quando fra poco ci saranno le 6800gt che costeranno di meno e andranno sicuramente più veloci , con l'aa che non sarà ai livelli di ATI , ma la differenza è anche vero che potrai notarla solo a immagine ferma e ingrandita .....

Se non capisci questo , amici come prima lo stesso , però non puoi chiedermi di non intervenire quando sento questi discorsi :D


Infine direi anche : Scambiamoci un segno di pace , Amen.......;)

:cincin: :mano:

Io Nn dico che sia un babbeo...xchè tanto ognuno compra quel che + gli aggrada;)
Xò mi sembra eccessivo fare di questa scheda una svolta epocale...a me sembra il solito passetto in avanti di casa NV...spero solo x loro e x noi ( così Nn mi cambio la scheda:oink: ) che ATI Nn faccia una Passo + grande in avanti comne con l' R300 \NV30...tenendo presente le voci di corridoio pare che il vero progetto innovativo fosse l' R500 o come lo volete chiamare e chq questo sia solo un affinamento dell' r3xx;)
Poi ripeto il discorso Nn è valido x chi ha Linux o chi ha una GF4...lì la situazione è differente....

JENA PLISSKEN
03-05-2004, 14:32
Originariamente inviato da Thunder82
Sto solo cercando di far notare che la tendenza in questo thread è solo di osannare la 6800. Per carità, scheda ottima. Ma appena uno trova una cosa che potrebbe essere un difetto: questione di driver, scheda beta, sbornia del sabato sera, ecc... fino ad arrivare all'estremo di nonikname, che dice addirittura "se vuoi parlare male di NV40 vai a farlo in un altro thread o addirittura in un altro forum. :rolleyes:

Per carità, io rispetto tutte le scelte di chiunque, ad esempio Dark Schneider dato che usa linux fa benissimo a scegliere nVidia, visto che con ATi è un'agonia (provato personalmente). Logico anche che uno sia attratto da una marca per simpatia.

Ma siamo qua per discutere dei PRO e dei CONTRO di una scheda, paragonandola con soluzioni esistenti (9800) e in dirittura d'arrivo (x800). Se non vi aggrada questo confronto scrivete chiaramente nel primo thread a caratteri cubitali VIETATO IL CONFRONTO CON ALTRE TECNOLOGIE, vedrai nonikname che avrai il tuo bel thread pubblicitario in questo modo.

Scusa ma il tuo intervento di invitare qualcuno che confronta due schede a lasciare il thread lo trovo quantomeno fuori luogo e infantile.


STRAIPER QUOTO...:)

Ripeto a questo punto facciamo pubblicità e basta;)

halduemilauno
03-05-2004, 14:39
Originariamente inviato da JENA PLISSKEN
:cincin: :mano:

Io Nn dico che sia un babbeo...xchè tanto ognuno compra quel che + gli aggrada;)
Xò mi sembra eccessivo fare di questa scheda una svolta epocale...a me sembra il solito passetto in avanti di casa NV...spero solo x loro e x noi ( così Nn mi cambio la scheda:oink: ) che ATI Nn faccia una Passo + grande in avanti comne con l' R300 \NV30...tenendo presente le voci di corridoio pare che il vero progetto innovativo fosse l' R500 o come lo volete chiamare e chq questo sia solo un affinamento dell' r3xx;)
Poi ripeto il discorso Nn è valido x chi ha Linux o chi ha una GF4...lì la situazione è differente....

"a me sembra il solito passetto in avanti di casa NV"
una scheda che va al doppio della precedente della stessa casa e della concorrenza me lo chiami il solito passetto.
come definirti un ...
ciao.
:) :)

nonikname
03-05-2004, 14:40
Sto solo cercando di far notare che la tendenza in questo thread è solo di osannare la 6800. Per carità, scheda ottima. Ma appena uno trova una cosa che potrebbe essere un difetto: questione di driver, scheda beta, sbornia del sabato sera, ecc... fino ad arrivare all'estremo di nonikname, che dice addirittura "se vuoi parlare male di NV40 vai a farlo in un altro thread o addirittura in un altro forum.

Guarda che gli avevo detto di andare a parlare della 9700pro in un altro forum e non del NV40 .....

Poi qui non si trattava di un difetto , se vuoi ti riporto l'unico difetto che aveva descritto e per cui io mi sono leggermente spazientito :
"Originariamente inviato da JENA PLISSKEN
Si...solo che voi state parlando di una scheda da 500€ che ANCORA DEVE uscire....vi faccio notare che io HO un AA superiore già a quello della 6800 da FEBBRAIO 2003!!!!!!!!...Nn da Giugno 2004 ...e mquesto Nn vuol essere un discorso del tipo ...a chi orina + lontano o mioCUGGGGINO, mio CUGGINO....lo faccio solo x farvi capire che dovreste aprire gli occhi e cercare di spendere meglio i vostri soldi...state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""...poi della X800XT a me nn me ne impipa una cavolo bsta ed avanza le mia 9700...ed è proprio questo il BELLO...mentre qui c' è gente che si vedrà costretta a cambiare schede acquistate 1 mese fa....poi Nn c' è peggior sordo di chi NN vuol sentire...io cerco sempre di sfruttsare al max i soldi.

Certo che sono eccitato dal Taa....provate a giocarci con le vostre schede a Fc con aa4x ed af 8x

Come vedi non è un difetto , ma l'inutilità di questo post in un thread della 6800......

Poi fai te , se questo lo puoi vedere come singolo difetto ........

Il mondo è bello perchè è vario , ma fino a prova contraria io i paraocchi non li ho ancora messi

Thunder82
03-05-2004, 14:46
Originariamente inviato da nonikname
Guarda che gli avevo detto di andare a parlare della 9700pro in un altro forum e non del NV40 .....

Poi qui non si trattava di un difetto , se vuoi ti riporto l'unico difetto che aveva descritto e per cui io mi sono leggermente spazientito :
"Originariamente inviato da JENA PLISSKEN
Si...solo che voi state parlando di una scheda da 500€ che ANCORA DEVE uscire....vi faccio notare che io HO un AA superiore già a quello della 6800 da FEBBRAIO 2003!!!!!!!!...Nn da Giugno 2004 ...e mquesto Nn vuol essere un discorso del tipo ...a chi orina + lontano o mioCUGGGGINO, mio CUGGINO....lo faccio solo x farvi capire che dovreste aprire gli occhi e cercare di spendere meglio i vostri soldi...state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""...poi della X800XT a me nn me ne impipa una cavolo bsta ed avanza le mia 9700...ed è proprio questo il BELLO...mentre qui c' è gente che si vedrà costretta a cambiare schede acquistate 1 mese fa....poi Nn c' è peggior sordo di chi NN vuol sentire...io cerco sempre di sfruttsare al max i soldi.

Certo che sono eccitato dal Taa....provate a giocarci con le vostre schede a Fc con aa4x ed af 8x

Come vedi non è un difetto , ma l'inutilità di questo post in un thread della 6800......

Poi fai te , se questo lo puoi vedere come singolo difetto ........

Il mondo è bello perchè è vario , ma fino a prova contraria io i paraocchi non li ho ancora messi

Lui ha senza dubbio usato toni un po' coloriti, ma in fin dei conti stava confrontando la generazione precedente con NV40, ed è indubbio che qualitativamente parlando NV40 sia inferiore a R3xx (AA non gamma-corrected, sample non programmabili che rendono impossibile l'implemeentazione di qualsiasi sorta di tempral AA, aniso con trilinear optimizations, ecc...). Per quanto riguarda la velocità è un altro paio di maniche.

Peace & love :)

halduemilauno
03-05-2004, 14:51
http://downloads.guru3d.com/download.php?det=779
;)

JENA PLISSKEN
03-05-2004, 14:51
Originariamente inviato da halduemilauno
"a me sembra il solito passetto in avanti di casa NV"
una scheda che va al doppio della precedente della stessa casa e della concorrenza me lo chiami il solito passetto.
come definirti un ...
ciao.
:) :)

Il doppio coi filtri di una 9800xt in FC??? Nn mi risulta:uh: :uh: :uh:

Poi liberissimi di spendere 500€ x giocare scalettato e sfocato:D

E poi ancora con questi fps...vabbè alla fine voi cercate fps a qualità 0 e quello avrete...tutto qui...purchè lo AFFERMIATE APERTAMENTE;)

JENA PLISSKEN
03-05-2004, 14:54
Originariamente inviato da halduemilauno
http://downloads.guru3d.com/download.php?det=779
;)

;) OTTIMO...adesso vediamo come aggiornare questo
:eek:http://images.anandtech.com/graphs/nvidia%20geforce%206800_04140480410/1896.png


...ma ...oh...peccato che stiamo confrontando qualità ed fps con una 9800xt...scheda della generazione precedente:eek:

nonikname
03-05-2004, 14:54
Originariamente inviato da Thunder82
Lui ha senza dubbio usato toni un po' coloriti, ma in fin dei conti stava confrontando la generazione precedente con NV40, ed è indubbio che qualitativamente parlando NV40 sia inferiore a R3xx (AA non gamma-corrected, sample non programmabili che rendono impossibile l'implemeentazione di qualsiasi sorta di tempral AA, aniso con trilinear optimizations, ecc...). Per quanto riguarda la velocità è un altro paio di maniche.

Peace & love :)

L'avesse detto come l'hai postato tu starei guardando ancora i Simpson ......:D

Però così non è stato , e sfido chiunque a dire che : "state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""." senza ricevere almeno una critica..
Quello che ho risposto io non è stato in difesa di Nvidia , ma mi è uscito spontaneo perchè credevo sinceramente che quello che aveva scritto era quantomeno discutibile ......:rolleyes:

JENA PLISSKEN
03-05-2004, 14:58
Originariamente inviato da nonikname
L'avesse detto come l'hai postato tu starei guardando ancora i Simpson ......:D

Però così non è stato , e sfido chiunque a dire che : "state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""." senza ricevere almeno una criticha..
Quello che ho risposto io non è stato in difesa di Nvidia , ma mi è uscito spontaneo perchè credevo sinceramente che quello che aveva scritto era quantomeno discutibile ......:rolleyes:

Beh...cmq è aderente alla realtà:D ...ed è questo quello che conta;)

Poi se volete ve lo addolcisco un po'...ma la sostanza è quella...quindi qual' è il problema?? Vi ha sato fastidio il tono usato?? Bastava chiedere--->editavo
Vi da fastidio che i filtri Nv siano così??? Mi dispiace Nn è colpa mia;)

Sinc ...ripeto che nn hai capito nulla di quello che ho scritto:)

Thunder82
03-05-2004, 14:58
Originariamente inviato da nonikname
L'avesse detto come l'hai postato tu starei guardando ancora i Simpson ......:D

Però così non è stato , e sfido chiunque a dire che : "state x comprare una scheda che ha le UNICHE FEATURES SUBITO SFRUTTABILI = anzi un po' inferiori a quelle di una sched a di quasi """2 ANNI FA"""." senza ricevere almeno una criticha..
Quello che ho risposto io non è stato in difesa di Nvidia , ma mi è uscito spontaneo perchè credevo sinceramente che quello che aveva scritto era quantomeno discutibile ......:rolleyes:

Però è vero :D

Le uniche feature subito sfruttabili quali sono? I filtri (Video processor a parte che nei giochi non serve) :)
E i filtri sono peggiori di una 9700 (per i motivi che ho elencato precedentemente) QUALITATIVAMENTE parlando :)

JENA PLISSKEN
03-05-2004, 15:00
Adesso provassero con i nuovi Force e confrontassero il tutto con un 2x2 + af8x ottimizzato....vediamo quanti fps e qualitativamente qualì è la differenza;)

Cmq ripeto qui si parla di uan 9800xt:D

JENA PLISSKEN
03-05-2004, 15:01
Originariamente inviato da Thunder82
Però è vero :D

Le uniche feature subito sfruttabili quali sono? I filtri (Video processor a parte che nei giochi non serve) :)
E i filtri sono peggiori di una 9700 (per i motivi che ho elencato precedentemente) QUALITATIVAMENTE parlando :)

Grazie...x fortuna in giro c' è gente che cerca di eviscerare un po' le recensioni che si trovano in giro;)

Thunder82
03-05-2004, 15:04
Questa gif l'ho fatta io... non potete dire che l'AA di nVidia sia migliore di una 9700 (identico a quello di una R360), neghereste l'evidenza ;)


http://supraptor.altervista.org/immagini/forum/antialiasing.gif

Aspettate che si carichi perchè è grossa :)

andreamarra
03-05-2004, 15:06
Originariamente inviato da JENA PLISSKEN
Ma basta OV già quelle ULTRA;) ....Nn c' è bisogno di spendere d +;)
Anche se OV una scheda nuova di quel prezzo...mah:rolleyes:

Io intendo overvolt di fabbrica... ;)

nonikname
03-05-2004, 15:08
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/ut16004xaa8xaniso.gifhttp://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/halo1600.gif
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/farcry1600aa.gif http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/sc1600.gif

Se a voi questo sembra il solito passetto in avanti di NVidia.........(con i driver che giudicare acerbi è un eufemismo...)


Vi ripeto una cosa:

Quando abbiamo comprato la 9700 , quanti giochi c'erano che sfruttavano gli shader 2.0???

In quest'ottica bisognerebbe prendere questa scheda.....

Con il senno del poi , reputare giusta la scelta di comprare una 9700 sebra la cosa migliore , perchè allora dovrebbe essere sbagliato l'acquisto di una 6800u con gli shaders 3.0????

Verro
03-05-2004, 15:11
Scusate, nn c'entro niente e non vorrei creare flames, perché a me non interessano nessuna delle due case:D , ma non era stato dimostrato che Nvidia anche con la 6800 aveva "falsato" i bench e invece forzando l'r3xx deviced andava molto meno?:confused:

JENA PLISSKEN
03-05-2004, 15:15
Originariamente inviato da Verro
Scusate, nn c'entro niente e non vorrei creare flames, perché a me non interessano nessuna delle due case:D , ma non era stato dimostrato che Nvidia anche con la 6800 aveva "falsato" i bench e invece forzando l'r3xx deviced andava molto meno?:confused:

:D :D :D Nn so come sia andata a finire quella storia

X nn parlare del fatto che io la 9800xt adesso la confronterei con un bel 2x2 Taa...tanto x:sofico: :sofico:

nonikname
03-05-2004, 15:16
GeForce 6800 Ultra
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/3dmnv40.png



RADEON 9800 XT
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/3dmati.png



GeForce 6800 Ultra 4xaa
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/27.png



RADEON 9800 XT4xaa
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/29.png


Trova le differenze e vinci una vacanza di 7gg a Montreal :D

Anche a detta dei recensori , la qualità è pressochè identica , con un lieve vantaggio per ATI , dato che ha la correzione di gamma (implementabile via driver...fra l'altro)

andreamarra
03-05-2004, 15:16
Originariamente inviato da nonikname
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/ut16004xaa8xaniso.gifhttp://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/halo1600.gif
http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/farcry1600aa.gif http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/sc1600.gif

Se a voi questo sembra il solito passetto in avanti di NVidia.........(con i driver che giudicare acerbi è un eufemismo...)


Vi ripeto una cosa:

Quando abbiamo comprato la 9700 , quanti giochi c'erano che sfruttavano gli shader 2.0???

In quest'ottica bisognerebbe prendere questa scheda.....

Con il senno del poi , reputare giusta la scelta di comprare una 9700 sebra la cosa migliore , perchè allora dovrebbe essere sbagliato l'acquisto di una 6800u con gli shaders 3.0????

I bench sono a dir poco sorprendenti :)
A sto punto se la R420 dovesse essere anche leggermente superiore ci troviamo di fronte a due mostri :oink:

Però la mia domanda è la seguente: i filtri di questa nuova scheda sono uguali alla controparte di ati? Perchè se dovessero esserci delle differenze (anche minime) non si potrebbero equiparare con un grafico.

andreamarra
03-05-2004, 15:19
Originariamente inviato da nonikname

Trova le differenze e vinci una vacanza di 7gg a Montreal :D

Anche a detta dei recensori , la qualità è pressochè identica , con un lieve vantaggio per ATI , dato che ha la correzione di gamma (implementabile via driver...fra l'altro)


Non voglio sembrare di parte (non prendo una lira da ati o da nvidia... :asd: )m però nei primi due shot la differenza secondo me è consistente. Basta guardare la parte inferiore dell'ala dell'areo per vedere la differenza di scalettature. Cerco, ti devi soffermare, ma ci sono :)

la differenza si nota anche nell'aereo dietro, basta guardare le ali. Nello shot nvidia ha una qualità a mio giudizio abbastanza inferiore al secondo shot. Se le due schede dovessero essere di due piani identici (R420 e NV40) allora la differenza sarebbe "impercettibile". Ma qua si paragonano una scheda nuyovissima e una della generazione scorsa.

La cosa è implementabile da driver, vero. Però a me viene da pensare che la nvidia non voglia implementare maggior definizione. E se ci facciamo caso avere un degradamento della qualità, anche se minima, comporta un aumento di prestazione sensibili..

Correggetemi se sbaglio :p

nonikname
03-05-2004, 15:20
Originariamente inviato da andreamarra
I bench sono a dir poco sorprendenti :)
A sto punto se la R420 dovesse essere anche leggermente superiore ci troviamo di fronte a due mostri :oink:

Però la mia domanda è la seguente: i filtri di questa nuova scheda sono uguali alla controparte di ati? Perchè se dovessero esserci delle differenze (anche minime) non si potrebbero equiparare con un grafico.

Guarda tu stesso , l'ala sinistra ( per l'osservatore) sopra la stella , con la 9800xt si vede la scalettatura , mentre nella 6800 no ..........


P.S. quotate solo le parole e non le immagini , se no ogni pagina pesa 5 mebyte :sofico:

JENA PLISSKEN
03-05-2004, 15:22
Ma qual' è il problema?' Il problema è che qui escono"" quasi"" ad armi pari con una scheda di generazione precedente..quindi dov' è il miglioramento?? Rispetto alla 5900?? Beh...ma quella Nn era il max della generazion eprecedente....immaginate tutto questo s un 420;)

Verro
03-05-2004, 15:23
volevo quotare nonikname...si vede piu scalettature su quelle della 9800xt, salvatele e ingrandite l'ala...ma si vede anche già cosi (almeno io le vedo, leggerissimo, ma si vedono)!

JENA PLISSKEN
03-05-2004, 15:23
Originariamente inviato da nonikname
Guarda tu stesso , l'ala sinistra ( per l'osservatore) sopra la stella , con la 9800xt si vede la scalettatura , mentre nella 6800 no ..........


P.S. quotate solo le parole e non le immagini , se no ogni pagina pesa 5 mebyte :sofico:

Quelle NV sono leggermente + marcate...cmq bel salto in avanto rispetto alla 5900.....ma ooooooops...il max della generazione precedente era la 9800xt:eek: :eek:

Thunder82
03-05-2004, 15:24
Originariamente inviato da nonikname
Con il senno del poi , reputare giusta la scelta di comprare una 9700 sebra la cosa migliore , perchè allora dovrebbe essere sbagliato l'acquisto di una 6800u con gli shaders 3.0????

Per il semplice motivo che visivamente TUTTI gli effetti ps 3.0 possono essere creati anche coi ps 2.0 :)

Mentre i ps2.0 non possono essere creati a partire dai ps1.x :)

Certo che ora come ora per chi viene da una gf4 non ha senso prendere un r3xx, si sta solo discutendo della qualità generale dei filtri :)

nonikname
03-05-2004, 15:25
Originariamente inviato da andreamarra
Non voglio sembrare di parte (non prendo una lira da ati o da nvidia... :asd: )m però nei primi due shot la differenza secondo me è consistente. Basta guardare la parte inferiore dell'ala dell'areo per vedere la differenza di scalettature. Cerco, ti devi soffermare, ma ci sono :)

Non guardare le immagini compresse , guarda quelle grandi , dove il pattern Nvidia "filtra" meglio data l'angolazione" , mentre se l'inclinazione delle ali fosse diverso il risultato cambierebbe (magari a vantaggio ATI ...)

Phantom II
03-05-2004, 15:25
A me pare che sia leggermente più scalettato lo screen fatto con la 6800.
Comunque la differenza è talmnte infinitesimale che mentre uno gioca non ci farà mai caso.

R@nda
03-05-2004, 15:26
Originariamente inviato da JENA PLISSKEN
Ma qual' è il problema?' Il problema è che qui escono"" quasi"" ad armi pari con una scheda di generazione precedente..quindi dov' è il miglioramento?? Rispetto alla 5900?? Beh...ma quella Nn era il max della generazion eprecedente....immaginate tutto questo s un 420;)

Si ma Jena l'AA è un filtro....non è che lo migliori all'infinito,quando hai un risultato come quello postato negli screen mi spieghi cos'hai da lamentarti?

La resa ce l'ha,da qui in avanti anzichè migliorare la qualità sarebbe meglio che continuino a lavorare in modo che l'impatto sulle prestazioni sia sempre minore.

andreamarra
03-05-2004, 15:28
Originariamente inviato da nonikname
Guarda tu stesso , l'ala sinistra ( per l'osservatore) sopra la stella , con la 9800xt si vede la scalettatura , mentre nella 6800 no ..........


P.S. quotate solo le parole e non le immagini , se no ogni pagina pesa 5 mebyte :sofico:

Effettivamente in quel particoalre l'AA è leggermente migliore per nvidia.

Però se guardi il resto della scena mi sembra che l'AA nvidia sia leggermente peggiore della scheda ati. La cosa che mi lascia un pò perplesso è il fatto che praticamente tra i due AA ci siano leggerissime differenze (a parte l'ala sopra la stella io noto un AA leggermente migliore nel resto dei modelli per la scheda ati), ma le due schede sono di due generazioni differenti.

Io sono troppo curioso di vedere le differenze di AA con l'R420. Semplicemente perchè io, considerando la potenza bruta di entrambe le schede, preferisco avere una qualità grafica migliore in assoluto. Non per questo ho comprato Matrox per anni :D :cool:

Thunder82
03-05-2004, 15:28
Io sono dell'opinione che la differenza fra l'AA di ATi e quello di nVidia si noti soprattutto sui particolari sottili. Guardate alla pag. precedente la gif che ho postato... praticamente nVidia nn applica l'AA ai rami sottili e ai ciuffi d'erba, si vedono scalettature grandi come case :)

Invece sui profili "grossi" gli AA sono *quasi* paragonabili

Thunder82
03-05-2004, 15:29
Originariamente inviato da andreamarra
Effettivamente in quel particoalre l'AA è leggermente migliore per nvidia.

Però se guardi il resto della scena mi sembra che l'AA nvidia sia leggermente peggiore della scheda ati. La cosa che mi lascia un pò perplesso è il fatto che praticamente tra i due AA ci siano leggerissime differenze (a parte l'ala sopra la stella io noto un AA leggermente migliore nel resto dei modelli per la scheda ati), ma le due schede sono di due generazioni differenti.

Io sono troppo curioso di vedere le differenze di AA con l'R420. Semplicemente perchè io, considerando la potenza bruta di entrambe le schede, preferisco avere una qualità grafica migliore in assoluto. Non per questo ho comprato Matrox per anni :D :cool:

Io penso che l'AA di R420 sarà identico a quello di R360 (magari con una più oculata disposizione dei sample), con l'aggiunta del temporal AA ;)

andreamarra
03-05-2004, 15:30
Originariamente inviato da Phantom II
A me pare che sia leggermente più scalettato lo screen fatto con la 6800.
Comunque la differenza è talmnte infinitesimale che mentre uno gioca non ci farà mai caso.

Appunto, non si nota più di tanto. Lo si nota però a livello di punteggi di bench, per me. Non è una accusa, cmq.

Hai fatto caso anche tu che è leggermente migliore (particolare dell'ala sinistra sopra la stella a parte) l'AA nel resto della scena nella 9800XT?

andreamarra
03-05-2004, 15:31
Originariamente inviato da Thunder82
Io penso che l'AA di R420 sarà identico a quello di R360 (magari con una più oculata disposizione dei sample), con l'aggiunta del temporal AA ;)


Allora sono curioso di vedere l'impatto prestazionale con il loro utilizzo :) !

JENA PLISSKEN
03-05-2004, 15:31
Originariamente inviato da R@nda
Si ma Jena l'AA è un filtro....non è che lo migliori all'infinito,quando hai un risultato come quello postato negli screen mi spieghi cos'hai da lamentarti?

La resa ce l'ha,da qui in avanti anzichè migliorare la qualità sarebbe meglio che continuino a lavorare in modo che l'impatto sulle prestazioni sia sempre minore.

E quindi?? Stiamo dicendo la stessa cosa;)
Mentre Dark diceva che i FILTRI ormai NN servono a nulla xchè tecnologia vecchia...servono solo gli shaders:muro:

JENA PLISSKEN
03-05-2004, 15:32
Originariamente inviato da Thunder82
Io penso che l'AA di R420 sarà identico a quello di R360 (magari con una più oculata disposizione dei sample), con l'aggiunta del temporal AA ;)

Il bello sarà vedere la diff qualitativa fra 4x e 2x2...se è = o simile al 4x NV saranno acidissimi cavoli;)

nonikname
03-05-2004, 15:34
Originariamente inviato da Thunder82
Per il semplice motivo che visivamente TUTTI gli effetti ps 3.0 possono essere creati anche coi ps 2.0 :)

Mentre i ps2.0 non possono essere creati a partire dai ps1.x :)

Certo che ora come ora per chi viene da una gf4 non ha senso prendere un r3xx, si sta solo discutendo della qualità generale dei filtri :)

Infatti (a parte il displacement mapping che già da solo , dà profondità reale e non virtuale come il bump , e di per se è un'aumento delle capacità di visualizzazione e non di performance...) magari più avanti quando alcuni shader necessiteranno di moltissime passate sul pixel , Nvidia e i suoi branching potrebbe avvantaggiarsi di molto , perchè questi shaders 3.0 sono notoriamente fatti per aumentare le prestazioni per mezzo di espedienti tipo salti o memoriz di dati nella cache L2 che ha l'NV40...
Comunque sarai daccordo con me , che sono feature che è meglio avere che non avere , (oltre alla forza bruta di cui dispone)
O non siamo daccordo nemmeno su questo???

Phantom II
03-05-2004, 15:34
Originariamente inviato da andreamarra
Appunto, non si nota più di tanto. Lo si nota però a livello di punteggi di bench, per me. Non è una accusa, cmq.

Hai fatto caso anche tu che è leggermente migliore (particolare dell'ala sinistra sopra la stella a parte) l'AA nel resto della scena nella 9800XT?
Guardando le ali del B-17 in basso a sinistra mi pare che la 9800xt sia un pelino superiore alla 6800, ma ripeto ci vuole la lente d'ingrandimento per notare la differenza.

andreamarra
03-05-2004, 15:35
Originariamente inviato da Verro
volevo quotare nonikname...si vede piu scalettature su quelle della 9800xt, salvatele e ingrandite l'ala...ma si vede anche già cosi (almeno io le vedo, leggerissimo, ma si vedono)!


Ci sto facendo caso: nell'aereo in primo piano la turbina fa notare molto che l'AA nv40 è migliore. Però la cosa strana è che, non so se ci avete fatto caso, negli oggetti in secondo piano la qualità degradi rispetto a quelli in primo piano. L'aereo in primo piano è dal punto di vista di AA leggermente superiore da parte dellnv40, negli aerei in secondo piano noto il contrario...

Confermate :confused: ?

ballero
03-05-2004, 15:36
Originariamente inviato da Thunder82
Questa gif l'ho fatta io... non potete dire che l'AA di nVidia sia migliore di una 9700 (identico a quello di una R360), neghereste l'evidenza ;)


La correzione del gamma puoi averla anche con nv40 tramite post-processing (come ad usare gli smartshader).
Quindi rispondendo alla tua domanda: sì, tra il 4x di nvidia e il 4x di ati non c'è nessuna notabile differenza qualitativa.

Esiste anche un test condotto da MikeC di nvnews.net: ha preparato un paio di screen e relativi ingrandimenti per i 2 AA (9800xt e 6800U) e poi ha chiesto: quale AA e' il piu' qualitativo?


link (http://www.nvnews.net/vbulletin/showthread.php?t=27425)

la soluzione e' in seconda pagina.;)

halduemilauno
03-05-2004, 15:36
Originariamente inviato da JENA PLISSKEN
Ma qual' è il problema?' Il problema è che qui escono"" quasi"" ad armi pari con una scheda di generazione precedente..quindi dov' è il miglioramento?? Rispetto alla 5900?? Beh...ma quella Nn era il max della generazion eprecedente....immaginate tutto questo s un 420;)


che va al doppio di frames.
il doppio rispetto alla 9800xt e che va al doppio di frames e maggior qualità rispetto alla 5950.
se ti pare poco...
si me lo posso immaginare ma aspetto domani le 15 per saperne di più.
ciao.


:) :)

JENA PLISSKEN
03-05-2004, 15:37
Originariamente inviato da nonikname
Infatti (a parte il displacement mapping che già da solo , dà profondità reale e non virtuale come il bump , e di per se è un'aumento delle capacità di visualizzazione e non di performance...) magari più avanti quando alcuni shader necessiteranno di moltissime passate sul pixel , Nvidia e i suoi branching potrebbe avvantaggiarsi di molto , perchè questi shaders 3.0 sono notoriamente fatti per aumentare le prestazioni per mezzo di espedienti tipo salti o memoriz di dati nella cache L2 che ha l'NV40...
Comunque sarai daccordo con me , che sono feature che è meglio avere che non avere , (oltre alla forza bruta di cui dispone)
O non siamo daccordo nemmeno su questo???

Questa è fanta-tecnologia...forse...se...ma....;) Nn ci vedo nulla di buono

Ma in pratica oggi questi 500€ che mi danno d +?? :uh:
E soprattutto voglio proprio vedere chi di voi nn passerà al PCIx a fine anno o giù di li...magari affinano anche le gpu:D

JENA PLISSKEN
03-05-2004, 15:38
Originariamente inviato da halduemilauno
che va al doppio di frames.
il doppio rispetto alla 9800xt e che va al doppio di frames e maggior qualità rispetto alla 5950.
se ti pare poco...
si me lo posso immaginare ma aspetto domani le 15 per saperne di più.
ciao.


:) :)

Si...ma il confronto con una 9800xt sarebbe interessante con 2x2:D

Cmq...aspetto la x800;)

andreamarra
03-05-2004, 15:38
Originariamente inviato da nonikname
Infatti (a parte il displacement mapping che già da solo , dà profondità reale e non virtuale come il bump , e di per se è un'aumento delle capacità di visualizzazione e non di performance...) magari più avanti quando alcuni shader necessiteranno di moltissime passate sul pixel , Nvidia e i suoi branching potrebbe avvantaggiarsi di molto , perchè questi shaders 3.0 sono notoriamente fatti per aumentare le prestazioni per mezzo di espedienti tipo salti o memoriz di dati nella cache L2 che ha l'NV40...
Comunque sarai daccordo con me , che sono feature che è meglio avere che non avere , (oltre alla forza bruta di cui dispone)
O non siamo daccordo nemmeno su questo???

Io sono daccordo. Nei miei post facevo presente soltanto il fatto che attualmente questo branching non verrà utilizzato, e quando lo sarà la ati probabilemten lo inserirà. nvidia però avrà il vantaggio di avere per prima inserita questa features.

La scheda nvidia ha cache L2? :oink:
quanto è capiente? Si sa qualcosa per la R420?

R@nda
03-05-2004, 15:40
Questa è fanta-tecnologia...forse...se...ma.... Nn ci vedo nulla di buono

Questa è evoluzione;)

Altrimenti al "fotorealismo" non ci arriviamo manco fra 3 secoli.
Ed io ci conto:D

andreamarra
03-05-2004, 15:41
Originariamente inviato da JENA PLISSKEN
Questa è fanta-tecnologia...forse...se...ma....;) Nn ci vedo nulla di buono

Ma in pratica oggi questi 500€ che mi danno d +?? :uh:
E soprattutto voglio proprio vedere chi di voi nn passerà al PCIx a fine anno o giù di li...magari affinano anche le gpu:D

A livello di consumer il fatto di avere adesso o meno il branching non credo cambi molto. Anzi. Il vero punto a favore sarà (come ha espresso fek su nvitalia) che i programmatori possono prenderci la mano. E non è cosa da poco.

Per il resto il pieno supporto agli shader 3.0 100% è inutile tanto quanto le Dx9 all'epoca dell'R300. E' marketing, però la ati ha fatto da pioniere esattamente come adesso nvidia con il branching :)

nonikname
03-05-2004, 15:41
Originariamente inviato da JENA PLISSKEN
Il bello sarà vedere la diff qualitativa fra 4x e 2x2...se è = o simile al 4x NV saranno acidissimi cavoli;)

Infatti non ci sarà modo di vederli negli shots , ma solo in movimento , e ti ripeto che usandoli , a volte non si vede nessuna differenza .....dipende da quanti FPS macina la scheda

Converrai con me che è un sistema troppo limitativo di usare l'AA , dato che poi non si puo vedere nemmeno in foto per far capire che efficacia abbia sui giochi.......

Sulla scatola ATI vuoi mica che scrivano TAA attivabile solo sopra i 75fps .....

halduemilauno
03-05-2004, 15:43
Originariamente inviato da JENA PLISSKEN
Il doppio coi filtri di una 9800xt in FC??? Nn mi risulta:uh: :uh: :uh:

Poi liberissimi di spendere 500€ x giocare scalettato e sfocato:D

E poi ancora con questi fps...vabbè alla fine voi cercate fps a qualità 0 e quello avrete...tutto qui...purchè lo AFFERMIATE APERTAMENTE;)


ma chi ha parlato di filtri in far cry. io ho parlato del doppio in generale.
ah ora nV40=qualità 0.
:confused: :confused: :( :(

Thunder82
03-05-2004, 15:43
Originariamente inviato da nonikname
Comunque sarai daccordo con me , che sono feature che è meglio avere che non avere , (oltre alla forza bruta di cui dispone)
O non siamo daccordo nemmeno su questo???

Certo, è sempre meglio avere qualcosa in pi, resta da vedere se la NV40 avrà potenza sufficiente per sfruttare questi branch, che sembrano essere molto pesanti. :)

Cmq dobbiamo solo aspettare un altro paio di giorni, sarà svelato R420 e finalmente si potrà decidere con cognizione di causa quale sarà la nuova regina del mercato (che cmq io non prenderò mai, dato che reputo la spesa di un milione per una scheda video veramente assurda: per fare un esempio ho preferito prendere la 9600XT a 190€ + LA calcolatrice (hp49g+ con SD da 64MB= 245€) piuttosto che una 9800xt... alla fine con gli stessi soldi gioco lo stesso bene e in più ho un incredibile aiuto per gli esami ;) ). :)

JENA PLISSKEN
03-05-2004, 15:43
Originariamente inviato da R@nda
Questa è evoluzione;)

Altrimenti al "fotorealismo" non ci arriviamo manco fra 3 secoli.
Ed io ci conto:D

Si...peccato che se mi vendessi la mia 9700 e pasassi ad una 6800 vedrei i giochi allo stesso modo:sofico: :sofico: :sofico:

Grande passo in avanti :rolleyes: :D ...sperando che questi Force abbiano risolto le magagne di vario genere:muro: ;)

JENA PLISSKEN
03-05-2004, 15:45
Originariamente inviato da Thunder82
Certo, è sempre meglio avere qualcosa in pi, resta da vedere se la NV40 avrà potenza sufficiente per sfruttare questi branch, che sembrano essere molto pesanti. :)

Cmq dobbiamo solo aspettare un altro paio di giorni, sarà svelato R420 e finalmente si potrà decidere con cognizione di causa quale sarà la nuova regina del mercato (che cmq io non prenderò mai, dato che reputo la spesa di un milione per una scheda video veramente assurda: per fare un esempio ho preferito prendere la 9600XT a 190€ + LA calcolatrice (hp49g+ con SD da 64MB= 245€) piuttosto che una 9800xt... alla fine con gli stessi soldi gioco lo stesso bene e in più ho un incredibile aiuto per gli esami ;) ). :)

Io mi devo prendere un cell nuovo...è giunta l' ora...con chip grafico Nv chiaramente:D

andreamarra
03-05-2004, 15:45
Originariamente inviato da JENA PLISSKEN
Si...peccato che se mi vendessi la mia 9700 e pasassi ad una 6800 vedrei i giochi allo stesso modo:sofico: :sofico: :sofico:

Grande passo in avanti :rolleyes: :D ...sperando che questi Force abbiano risolto le magagne di vario genere:muro: ;)

Forse un "pochetto" più fluidi? ;)

JENA PLISSKEN
03-05-2004, 15:47
Originariamente inviato da andreamarra
Forse un "pochetto" più fluidi? ;)

QUale gioco?? GTR?? NFSU?? TOCA 2?? NO!!! FC lo abbiamo (hanno!!) già finito di giocare da una vita...che fai te lo rigiochi?? DUBITO:D

R@nda
03-05-2004, 15:47
Ma che c'entra?
Se nessuno inserisce nuove feature a piccoli passi come pensate che si proceda nello sviluppo di nuove grafiche e nuovi motori 3d?

Sono cose che richiedono anni di sviluppo,non due giorni ecco perchè è meglio inserirle a priori per permettere ai programmatori di cominciare a farsi un idea di come funzionano e cosa si può fare.

Non è questione di necessità...ma di evoluzione tecnologica.
Oggi non avremmo un sacco di chicche nei nostri videogiochi se nessuno avesse inserito poco per volta nuove tecnologie nei chip video (sia Ati che Nvidia).

Piano piano...

Thunder82
03-05-2004, 15:48
Originariamente inviato da R@nda
Ma che c'entra?
Se nessuno inserisce nuove feature a piccoli passi come pensate che si proceda nello sviluppo di nuove grafiche e nuovi motori 3d?

Sono cose che richiedono anni di sviluppo,non due giorni ecco perchè è meglio inserirle a priori per permettere ai programmatori di cominciare a farsi un idea di come funzionano e cosa si può fare.

Non è questione di necessità...ma di evoluzione tecnologica.
Oggi non avremmo un sacco di chicche nei nostri videogiochi se nessuno avesse inserito poco per volta nuove tecnologie nei chip video (sia Ati che Nvidia).

Piano piano...

Vero ;)

JENA PLISSKEN
03-05-2004, 15:48
Originariamente inviato da R@nda
Ma che c'entra?
Se nessuno inserisce nuove feature a piccoli passi come pensate che si proceda nello sviluppo di nuove grafiche e nuovi motori 3d?

Sono cose che richiedono anni di sviluppo,non due giorni ecco perchè è meglio inserirle a priori per permettere ai programmatori di cominciare a farsi un idea di come funzionano e cosa si può fare.

Non è questione di necessità...ma di evoluzione tecnologica.
Oggi non avremmo un sacco di chicche nei nostri videogiochi se nessuno avesse inserito poco per volta nuove tecnologie nei chip video (sia Ati che Nvidia).

Piano piano...

Si...però nn bisogna mai dimenticarsi della tecnologia utile...quella che ci serve ora...e qui che ahanno fatto hanno fatto un aqualcosa = al R3xx:rolleyes:

Le cose devono andare a braccetto;) Cioè sono d' accordo con le new features...ma nn ci dimentichiamo delle features di base da migliorare;)

nonikname
03-05-2004, 15:52
Originariamente inviato da JENA PLISSKEN
Ma in pratica oggi questi 500€ che mi danno d +?? :uh:
:D

Quando hai comprato la 9700 hai pensato la stessa cosa???
Secondo me l'hai presa perchè andava di brutto confronto alla gen precedente e perchè potevi cominciare a giocare con i filtri..
Solo adesso sappiamo quanto valgono gli shader 2.0 , come solo fra un po sapremo effettivamente quanto varranno gli shader3.0

Quindi ora se prendi un X800 o una 6800 la prendi primo perchè rulla di brutto confronto alla gen prima , e secondo perchè puoi applicare i filtri a tutte le risoluzioni .......(cosa che con la 9700 a 1600x 1200 fai molto di rado con AA4x AF 16x , a meno che non sei uno di quelli che ritiene fluido un gioco a 25fps)

Puoi capire che i filtri più di tanto non possono filtrare , infatti ATI rimane su 6x mentre Nvidia a 8x crolla , perciò si migliora il migliorabile , cioè gli shader.....

Perciò prendendo una scheda della nuova gen ora , uno ha le stesse motivazioni per cui tu hai comperato la 9700 l'anno scorso .. :D

Dark Schneider
03-05-2004, 15:59
Originariamente inviato da JENA PLISSKEN
E quindi?? Stiamo dicendo la stessa cosa;)
Mentre Dark diceva che i FILTRI ormai NN servono a nulla xchè tecnologia vecchia...servono solo gli shaders:muro:


Sbagliato. Non ho detto che sono inutili, ma solo che per me sono ormai secondari agli shader. Ho per caso detto che la scheda che prenderò la utilizzero senza filtri? Ho detto l'esatto contrario. Ho espresso una mia semplice preferenza: SE domani un gioco sarà pesante...preferirei avere un livello più basso di filtri e continuare ad utilizzare gli shader al massimo livello consentito. Il contrario mi prenderebbe un po' male. Io personalmente siccome prediligo più gli shader preferirei scegliere così. Gusto e parere personale.

Ho cercato di spiegarlo più volte, nell'ultimo ho cercato di renderlo ancora più chiaro possibile...possibile che ancora non sia chiaro? :confused:L'ho riquoto:

Semplicemente voglio dire che visto che con i filtri già siamo a buon punto, di strada se ne fatta parecchia, adesso io preferirei che ci si concentrasse maggiormente sugli shader. Non dico di tralasciare i filtri, dico solo che siamo già a buon punto..e personalmente arrivati a questo punto sono più interessato ad avere maggiori shader e shader più complessi e sopratutto l'uso degli shader nei giochi. I filtri la loro parte l'hanno in "buona parte" già fatta...adesso tocca agli shader farci fare un gran bel salto di qualità...e le premesse ci sono tutte.



Adesso vi lascio perchè mi tocca iniziare a progettare un ennesimo progetto universitario che devo consegnare a metà giugno...e già so che ci dovrò sbattere la testolina e con sto caldo mi sa che schiatterò!! ;) Addio mondo crudele.... :muro:

A più tardi...buona prosecuzione di discussione.

Bye Bye

nonikname
03-05-2004, 16:02
Quoto su tutta la linea


Per me è chiarissimo , ma per JenaXXX credo che spiegarglielo sia una causa persa in partenza :D

nonikname
03-05-2004, 16:03
Ciao a tutti : alzo le tende!!!

Verro
03-05-2004, 16:12
Originariamente inviato da JENA PLISSKEN
Si...però nn bisogna mai dimenticarsi della tecnologia utile...quella che ci serve ora...e qui che ahanno fatto hanno fatto un aqualcosa = al R3xx:rolleyes:

Le cose devono andare a braccetto;) Cioè sono d' accordo con le new features...ma nn ci dimentichiamo delle features di base da migliorare;)

Certo, però, per fare un esempio, quando usci la Geforce3, non c'era un gioco con Pixel Shader 1.1...ora lo sono quasi tutti, se nessuna casa li avessi fatti uscire...chi li usava?
Voglio dire, all'uscita sembrano inutili, ma servono per essere studiati e sfruttati, magari piu avanti...ora penso che nessuno compri una 6800 solo per i ps3, ma per la velocità con i giochi attuali, poi piu avanti, magari, verranno sfruttati...intanto si fa qualche passetto alla volta...

Cifer
03-05-2004, 16:27
Originariamente inviato da R@nda
Ma che c'entra?
Se nessuno inserisce nuove feature a piccoli passi come pensate che si proceda nello sviluppo di nuove grafiche e nuovi motori 3d?

Sono cose che richiedono anni di sviluppo,non due giorni ecco perchè è meglio inserirle a priori per permettere ai programmatori di cominciare a farsi un idea di come funzionano e cosa si può fare.

Non è questione di necessità...ma di evoluzione tecnologica.
Oggi non avremmo un sacco di chicche nei nostri videogiochi se nessuno avesse inserito poco per volta nuove tecnologie nei chip video (sia Ati che Nvidia).

Piano piano...

condivido.

street
03-05-2004, 17:37
Originariamente inviato da andreamarra
Ci sto facendo caso: nell'aereo in primo piano la turbina fa notare molto che l'AA nv40 è migliore. Però la cosa strana è che, non so se ci avete fatto caso, negli oggetti in secondo piano la qualità degradi rispetto a quelli in primo piano. L'aereo in primo piano è dal punto di vista di AA leggermente superiore da parte dellnv40, negli aerei in secondo piano noto il contrario...

Confermate :confused: ?

Se ricordo, l' accusa era proprio di tagliare qualità in alcuni oggetti rispetto all' immagine che doveva in realtà essere renderizzata. Non si parlava di filtri, ma proprio di quello che era il risultato rispetto a quello atteso.

Oltre al fatto che se veniva forzato il riconoscimento come r3x00 vi era un decadimento delle prestazioni, le immagini diventavano però pressoché identiche (oltre al fatto che erano identiche al risultato atteso)

andreamarra
03-05-2004, 17:55
Originariamente inviato da street
Se ricordo, l' accusa era proprio di tagliare qualità in alcuni oggetti rispetto all' immagine che doveva in realtà essere renderizzata. Non si parlava di filtri, ma proprio di quello che era il risultato rispetto a quello atteso.

Oltre al fatto che se veniva forzato il riconoscimento come r3x00 vi era un decadimento delle prestazioni, le immagini diventavano però pressoché identiche (oltre al fatto che erano identiche al risultato atteso)

quindi sussisterebbe la stessa cosa anche con la nuova NV40 :confused: ?

halduemilauno
03-05-2004, 17:58
ciao.
il link contiene una tabella che raffigura gli incrementi ottenuti con i nuovi 61.11.
http://www.vr-zone.com/?i=751&s=1
;)

street
03-05-2004, 18:02
c'é un 3d al riguardo "ati accusa nvidia di barare".

Riassumendo quello che ho capito:

se forzi la rilevazione r3x0 della nv40 non si vedono i difetti grafici presenti nei giochi (tipo in farcry).
D' altro canto diminuisce il framerate, pur rimanendo sopra quello delle 9800 xt

Se confronti tramite programmi di grafica (quindi non ad occhio nudo) le differenze tra rendering software - 9800 - nv40 ti accorgi che nel renderizzare le immagini la 9800 e la versione software non differiscono per nulla o quasi, la nv40 invece ha zone leggermente diverse, in genere zone in secondo piano.
Se nuovamente forzi il riconoscimento come r3x0 le difefrenze scompaiono.

Ti consiglio però di andarti a leggere l' articolo, la memoria inizia a farmi cilecca

halduemilauno
03-05-2004, 18:06
http://www.gamers-depot.com/hardware/video_cards/nvidia/nv40/1.jpg

JENA PLISSKEN
03-05-2004, 18:14
2° me le 2 cose DEVONO andare di pari passo...mai esagerare solo col vecchio o col nuovo....certo che avete una capoccia tosta eeeehhh??
Stiamo dicendo la stessa cosa solo che io ho aggiunto anche l' ulteriore sviluppo dei filtri;)

devo fare lo SPELLING???:sofico: :sofico:

Hal complimenti x la pubblicità....il bello è che Nn ti pagano:sofico:

andreamarra
03-05-2004, 18:16
Originariamente inviato da halduemilauno
ciao.
il link contiene una tabella che raffigura gli incrementi ottenuti con i nuovi 61.11.
http://www.vr-zone.com/?i=751&s=1
;)

hal io non sono fazioso (non in queste cose :p ), però dopo alcuni giochetti da parte dinvidia starei un pò attento a non prendere sul serio troppo questi bench. Sicuramente sono veritieri, ma non mi assicurano del fatto che l'incremento di velocità (molto su FC) non sia dovuto ad una diminuzione di qualità grafica. Non che stia accusando di avere dei driver ancora farlocchi, però io aspetterei (essendo stata l'nvidia recidiva in questo senso) a valutare ancora l'effetivo boost di prestazioni.

Non vorrei che poi a distanza di qualche giorno ci si accorgesse di alcune cose poco piacevoli, ecco ;)


ciao :)

andreamarra
03-05-2004, 18:18
Originariamente inviato da halduemilauno


la scehda finalmente è davvero bella. Le altre fx mi facevano un pò schifetto a causa del dissy e del pcb in se. Peccato (anche se non compremetterà nulla magari) per il doppio molex.

andreamarra
03-05-2004, 18:20
Originariamente inviato da JENA PLISSKEN

Hal complimenti x la pubblicità....il bello è che Nn ti pagano:sofico:


Neanche a te :asd: :sofico:

;)

JENA PLISSKEN
03-05-2004, 18:21
Originariamente inviato da andreamarra
la scehda finalmente è davvero bella. Le altre fx mi facevano un pò schifetto a causa del dissy e del pcb in se. Peccato (anche se non compremetterà nulla magari) per il doppio molex.

La scheda su cui puntare è chiaramente...almeno x quanto mi riguarda la ""PUNTO GT"":O :O





















:asd: :asd: :asd:
Cmq sul serio quella è molto interessante...a parte un connettore mancante...ma lì entra in funzione la mia cENTRALE TERMOELETTRICA ANTEC:D

JENA PLISSKEN
03-05-2004, 18:22
Originariamente inviato da andreamarra
Neanche a te :asd: :sofico:

;)

Ma almeno smerd@ entrambe:sofico:


Cmq da te Nn me lo aspettavo:cry: :cry: :cry: :cry: :cry:

JENA PLISSKEN
03-05-2004, 18:27
The ATI reference boards seeded to hardware reviewers and clocked at 520MHz VPU and 560MHz memory will be called the XT Platinum. The line up for the R420 launch tomorrow will run from 12x pipeline Radeon X800PRO to 16x pipeline Radeon X800XT Platinum. Radeon X800XT Platinum is quicker overall and by some margin, than the initial Nvidia GeForce 6800 Ultra reference boards that have been reviewed.

Radeon X800 Platinum : 525 MHz core clock, 1120 MHz GDDR3, 16 pixel pipelines, US$499
Radeon X800 Pro : 475 MHz core clock, 900 MHz GDDR, 12 pixel pipelines, US$299

JENA PLISSKEN
03-05-2004, 18:29
Certo spendere 400€ x tentare di trovare altre 4 pipe....che grande caxxata:rolleyes:

Folgore70
03-05-2004, 18:30
ecco la 6800ultra di Leadtek gia prenotabile in germania..

Leadtek WinFast A400 Ultra TDH myVIVO GeForce 6800 Ultra, 256MB
http://www.world-of-pc.de/images/leadtek/2887.jpg


Preis: 539.00 EUR
Status: Lieferzeit


Durchschnittliche Kundenbewertung:
Anzahl der Bewertungen: 3
Ihre Bewertung: bitte wählen10987654321 Pro User und Artikel ist nur eine Bewertung möglich.


Hersteller : Leadtek
Modell : A400
Geforce FX 6800 Ultra
256 MB GDDR3 Speicher
Chiptakt : 400 MHz
Speichertakt : 1100 MHz
VideoCinch, S-Video
1 x VGA, 2 x DVI, VideoCinch, S-Video
Mehr Infos finden Sie HIER.

Phantom II
03-05-2004, 18:32
Originariamente inviato da Folgore70
ecco la 6800ultra di Leadtek gia prenotabile in germania..

Leadtek WinFast A400 Ultra TDH myVIVO GeForce 6800 Ultra, 256MB
http://www.world-of-pc.de/images/leadtek/2887.jpg
Fa veramente schifo! :eek:

JENA PLISSKEN
03-05-2004, 18:33
Originariamente inviato da Phantom II
Fa veramente schifo! :eek:

La prima volta che Leadtek fa una scheda orrenda;)

cmq in Italia vai coi 600€:sofico:

andreamarra
03-05-2004, 18:35
Originariamente inviato da Phantom II
Fa veramente schifo! :eek:

Non ho fatto in tempo a dire che la nuova NV40 era davvero carina e con un pcb molto pulito, con un dissipatore molto bello...


che ho visto quel mostroooo :eek:


:D

andreamarra
03-05-2004, 18:36
Originariamente inviato da JENA PLISSKEN
Ma almeno smerd@ entrambe:sofico:


Cmq da te Nn me lo aspettavo:cry: :cry: :cry: :cry: :cry:

Io sono obbiettivo :ciapet:

sanitarium
03-05-2004, 18:37
Originariamente inviato da JENA PLISSKEN
The ATI reference boards seeded to hardware reviewers and clocked at 520MHz VPU and 560MHz memory will be called the XT Platinum. The line up for the R420 launch tomorrow will run from 12x pipeline Radeon X800PRO to 16x pipeline Radeon X800XT Platinum. Radeon X800XT Platinum is quicker overall and by some margin, than the initial Nvidia GeForce 6800 Ultra reference boards that have been reviewed.

Radeon X800 Platinum : 525 MHz core clock, 1120 MHz GDDR3, 16 pixel pipelines, US$499
Radeon X800 Pro : 475 MHz core clock, 900 MHz GDDR, 12 pixel pipelines, US$299

Ma allora i prezzi delle schede basate su R420 saranno NETTAMENTE più bassi di quelli che sono stati diffusi finora (non che siano bassi in assoluto, ma sono allineati con quelli delle Geforce 6800)!

Prima non si parlava di 599$ per la versione XT e di 499$ per la versione PRO?

JENA PLISSKEN
03-05-2004, 18:37
Originariamente inviato da andreamarra
Io sono obbiettivo :ciapet:

No.... hai appena detto che la Leadtek fa cag@re:Perfido: :Perfido:

JENA PLISSKEN
03-05-2004, 18:38
Originariamente inviato da sanitarium
Ma allora i prezzi delle schede basate su R420 saranno NETTAMENTE più bassi di quelli che sono stati diffusi finora!

Prima non si parlava di 599$ per la versione XT e di 499$ per la versione PRO?

Quello ho letto su VR....aggiungi 100 ed il conto è fatto;)

sanitarium
03-05-2004, 18:39
Originariamente inviato da JENA PLISSKEN
Quello ho letto su VR....aggiungi 100 ed il conto è fatto;)

Si, che in Italia i prezzi saranno ben più alti siamo d'accordo, ma perlomeno in dollari sono allineati con quelli delle schede NVidia. ;)

halduemilauno
03-05-2004, 18:44
Originariamente inviato da JENA PLISSKEN
2° me le 2 cose DEVONO andare di pari passo...mai esagerare solo col vecchio o col nuovo....certo che avete una capoccia tosta eeeehhh??
Stiamo dicendo la stessa cosa solo che io ho aggiunto anche l' ulteriore sviluppo dei filtri;)

devo fare lo SPELLING???:sofico: :sofico:

Hal complimenti x la pubblicità....il bello è che Nn ti pagano:sofico:

chi te lo dice?

Thunder82
03-05-2004, 18:45
Originariamente inviato da JENA PLISSKEN
Quello ho letto su VR....aggiungi 100 ed il conto è fatto;)

penso che la x800pro si trovi a 350€ ;) :)

andreamarra
03-05-2004, 18:46
Originariamente inviato da JENA PLISSKEN
No.... hai appena detto che la Leadtek fa cag@re:Perfido: :Perfido:

No, ho detto che è un mostro :Perfido:



:D

effettivamente la leadteck ha sfornato un abominio. Sulle prestazioni non discuto, ma sul layout... :eek: ...

Legolas84
03-05-2004, 18:50
Andrea, la asus era bellina.... e poi voglio vedere la POV ^^

halduemilauno
03-05-2004, 18:52
ciao.
a proposito di Far Cry e 61.11.
http://contea.altervista.org/FarCry0000.jpg
fatta con la 5700ultra a 1024x768 no AA, 8XAF.(by Elgabro).

;)

Legolas84
03-05-2004, 19:02
Bisogna vederli su NV40 e non sulla 5700.... spero che qualche sito pubblichi qualcosa.... :)

Thunder82
03-05-2004, 19:06
Originariamente inviato da halduemilauno
ciao.
a proposito di Far Cry e 61.11.
http://contea.altervista.org/FarCry0000.jpg
fatta con la 5700ultra a 1024x768 no AA, 8XAF.(by Elgabro).

;)

Vabbè ma qua non c'è nessun pixel shader in questo shot...

MaBru
03-05-2004, 19:36
Originariamente inviato da Thunder82
Vabbè ma qua non c'è nessun pixel shader in questo shot...

Ehm,
come pensi sia fatta l'acqua? ;)

Thunder82
03-05-2004, 19:39
Originariamente inviato da MaBru
Ehm,
come pensi sia fatta l'acqua? ;)

sì lo so ma da quella distanza non si vede bene la qualità :)

Bisognerebbe fare uno shot negli interni

Raven
03-05-2004, 19:44
Giusto! ;)

Inoltre mi piacerebbe sapere se hanno risolto il problema della patch-nv30 su nv40... :D

andreamarra
03-05-2004, 19:46
Originariamente inviato da halduemilauno
ciao.
a proposito di Far Cry e 61.11.
[fatta con la 5700ultra a 1024x768 no AA, 8XAF.(by Elgabro).

;)


Qualitativamente mi sembra ottima, anche se è un semplice shot e non è facile capire tutti i dettagli... e poi ripeto: dopo le magagne aspetterei a essere trionfalistico. Anch'io sarei portato a dire che questi driver sono ottimi davvero, però come è giusto difendere i driver ancora acerbi non è corretto usare toni di soddisfazione per questi.

Ripeto, io aspetterei. Non vorrei che si riscontrassero delle magagne come in passato (anche se francamente non credo)

andreamarra
03-05-2004, 19:47
Originariamente inviato da Raven
Giusto! ;)

Inoltre mi piacerebbe sapere se hanno risolto il problema della patch-nv30 su nv40... :D

Parrebbe di si.

andreamarra
03-05-2004, 19:49
Originariamente inviato da Thunder82
sì lo so ma da quella distanza non si vede bene la qualità :)

Bisognerebbe fare uno shot negli interni

Magari con \r_displayinfo 1... ;)