NVIDIA GeForce GTX 570, continua la marcia di GF110

A distanza di pochi giorni dalla presentazione di GeForce GTX 580, NVIDIA aggiorna la propria famiglia di GPU, introducendo sul mercato GeForce GTX 570 nuova proposta basata su GF110. In questa analisi andremo ad osservare il comportamento dell'ultima nata in casa NVIDIA
di Gabriele Burgazzi pubblicato il 07 Dicembre 2010 nel canale Schede VideoNVIDIAGeForce
160 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoA parte il 2 che ti meriti in matematica perche non sei capace di fare un calcolo semplice semplice il resto lo lascio ai mod.
Ma siamo all'asilo? Posti un messaggio privato che non contiene persino nulla di offensivo per cosa?
I mod cosa dovrebbero fare? Organizzargli un corso di matematica veloce perché così tu possa capire quello che c'è scritto?
Ma che gente.
Ma perché uno dovrebbe voler giocare a 2500x1660 con una scheda sola? Che cosa ha? Un HTPC in cui non ci sono 2 slot PCI-E ma deve fare un buco nel case per farcela entrare?
Facciamo i seri. Se uno vuole giocare a 2500x1600 si piglia la configurazione migliore per il budget che ha a disposizione: 2 schede high end qualsiasi e si fa un sistema che costa meno della 5970 e va di più. 'sta storia di voler a tutti costi usare una scheda sola con il crossfire/SLI montato sopra è davvero ridicola. E lo sarà finchè non ci sarà una soluzione che permetterà di far vedere ai driver queste schede come fossero una sola GPU in modo da non richiedere alcun driver specifico per ogni singola applicazione.
Se uno volesse giocare a StarCraft 2 per parecchio tempo della sua vita (e non le 10 ore di Crysis) così come lo si è fatto con StarCraft 1, uno SLI/CrossFire è una spesa inutile. Se uno volesse giocare a Dark Age (cento ore forse non bastano per finirlo) sarebbe inutile. Se uno volesse giocare a Flight Simulator X (gioco virtualmente infinito) sarebbe inutile. E in tutti gli altri RPG che conosco non c'è un benchmark vero che mi dica quanto scala la soluzione a doppia GPU nel fortunato caso in cui esistesse il profilo. Non tutti giocano esclusivamente con i titoli usati per i benchmark (che hanno valore relativo... non tutti nemmeno hanno un Quad overcloccato a 4GHz per evitare i colli di bottiglia della CPU). E se per quelli perdo il 20% mentre per gli altri guadagno il 30% non vedo perchè una soluzione singola GPU debba necessariamente essere scartata a priori (ah, prova a fare gli stessi test con AA attivato e vedi se il divario sale o scende). E soprattutto quest'ultima non mi dà nessun mal di testa nel cercare i driver giusti per il titolo giusto al momento giusto con il giusto profilo. Vedi cosa succede con la 5790 quando attivi il CrossFire con StarCraft 2... sui forum si legge di tutto. Ma il problema in 5 rilasci di driver non è stato risolto. Sì, certo se per godermi lo SLI devo giocare per la centesima volta a Crysis (che ci ha un po' spaccato i marroni ad essere sinceri, dato che come già detto ci sarebbero altri titoli più interessanti e attuali da valutare) o a L4D a 200FPS (figata! Vado il 20% in più della GTX570!!!!) allora certamente hai ragione.
Ancora non mi è stato risposto perché al mondo ci sono così tanti "gonzi" che comprano una 5870 (che sembra aver venduto come il pane) quando con 2 5770 che costano meno andrebbero di più! La filosofia dovrebbe essere la stessa, e allora perché non esiste una 5770x2? Forse perché nelle tabelle dei bench risulterebbe anonimamente da qualche parti lì in mezzo insieme a tante altre soluzioni (quindi zero pubblicità, diminuzione degli introiti perché meno "gonzi" comprerebbero una 5870 che rende di più economicamente e una marea di gente che si lamenta ovunque del perché questo non gira bene e quest'altro non parte nemmeno e quando esce il fix e perché non è ancora a posto dopo 5 rilasci e perché ho comprato questa c@g@t@ di scheda dual quando con 50 euro in più mi facevo la 5870 che andrà anche meno ma almeno funziona sempre)?
Ho preso ATI come esempio ma lo stesso vale per nvidia, intendiamoci.
I chip usati per i sistemi Tesla sono quelli della GTX470 leggermente undercloccati rispetto a questa.
Per CUDA non serve assolutamente però una scheda di questo tipo. Con una scheda consumer, della serie 4xx/5xx si ha "solo" la castrazione artificiale (tramite driver) delle capacità di calcolo in virgola mobile a doppia precisione (64bit floating point) rispetto alle schede Quadro/Tesla, mentre è conservata per intero tutto il resto delle capacità elaborative (interi e 32 bit floating point).
Dubito che il SW di rendering da te citati o le applicazioni OpenCL in generale usati nei progetti opensource facciano uso di calcoli a doppia precisione, che normalmente sono usati solo nei progetti di calcolo super raffinati e che richiedono precisione massima nei risultati. Per cui tali test possono essere condotti anche sulle schede di fascia consumer sopra citate senza alcun problema. Se non per il quantitativo di memoria, ma anche qui, dubito che progetti in SmallLux GPU o i benchmark OPenCL in generale siano tanto grandi da riempire completamente la memoria delle schede di fascia consumer.
I conti andrebbero rifatti, per rifare solo quello della prima rilevazione quindi
34.5*1,25 = 43.125... e via dicendo..Io intendevo un altro conto..
Ad ogni modo poco importa mi scuso per la cosa e per l'estenuante discussione, chiuso qui.
A parte il 2 che ti meriti in matematica perche non sei capace di fare un calcolo semplice semplice il resto lo lascio ai mod.
I messaggi privati non sono cose che si possono postare in pubblico senza il consenso dell´autore. Sinceramente questa é l´ultima di una lunga serie di comportamenti spesso ben oltre l´accettabile. Nick bannato, vediamo se la lezione serve.
Per CUDA non serve assolutamente però una scheda di questo tipo. Con una scheda consumer, della serie 4xx/5xx si ha "solo" la castrazione artificiale (tramite driver) delle capacità di calcolo in virgola mobile a doppia precisione (64bit floating point) rispetto alle schede Quadro/Tesla, mentre è conservata per intero tutto il resto delle capacità elaborative (interi e 32 bit floating point).
Dubito che il SW di rendering da te citati o le applicazioni OpenCL in generale usati nei progetti opensource facciano uso di calcoli a doppia precisione, che normalmente sono usati solo nei progetti di calcolo super raffinati e che richiedono precisione massima nei risultati. Per cui tali test possono essere condotti anche sulle schede di fascia consumer sopra citate senza alcun problema. Se non per il quantitativo di memoria, ma anche qui, dubito che progetti in SmallLux GPU o i benchmark OPenCL in generale siano tanto grandi da riempire completamente la memoria delle schede di fascia consumer.
Sono daccordo, ( grazie per la precisazione, non sapevo che fosse addirittura la 470! ) infatti la maggior parte di chi fa render con sw via Cuda/OpenCL non usa le Tesla, l'unica accortezza pare essere quella di non far lavorare le desktop per molte ore, oltre le 10-15, rischio fusione della stessa, visto che si pala di full load, e le Tesla dovrebbero essere ottimizzate per simili carichi di lavoro, ovviamente direi, sono usate per questo scopo in cluster.
Per la ram, dipende, generalmente i sw sono ottimizzati per usare poca vram, ma non è raro che certe scene, specialmente grandi, e con molti poligoni, sforino i 2 giga, un render A1/A0 a 150 dpi, con una grossa scena sfora di sicuro, capita anche con la ram di sistema qualche volta!
Sìsì, possibilissimo con fare delle scene enormi e saturare la memoria.
Quello che intendevo è che come demo esisteranno senza dubbio delle cose più semplici che possono girare senza problemi anche su schede senza millemila giga di RAM (stavo scrivendo mega di RAM, ma poi mi sono accorto che i tempi sono cambiati da quando si usavano schede con 2, 4 o 16 MB!).
Anandtech, come hai giustamente evidenziato tu, è già un po' di tempo che li usa. Non per altro sono anche quelli che hanno le review migliori e i bench ogni tanto comprendono anche le schede delle generazioni precedenti.
Qui invece si consigliano soluzioni dual come fossero la stessa cosa di una GPU singola di pari potenza. Mah.
Dopo tutto ormai la mia GTX470 è vecchia! L'ho comprata ad agosto...
E poi mi è costata solo 285 euri...
E ci ho già finito UN gioco!
Questa GTX570 è proprio un affare!
E poi scommetto che potrò guadagnare almeno 100 punti al 3D Mark!
Devo averla!!!
MA VADANO A QUEL PAESE
Dopo tutto ormai la mia GTX470 è vecchia! L'ho comprata ad agosto...
E poi mi è costata solo 285 euri...
E ci ho già finito UN gioco!
Questa GTX570 è proprio un affare!
E poi scommetto che potrò guadagnare almeno 100 punti al 3D Mark!
Devo averla!!!
MA VADANO A QUEL PAESE
Mah .... guarda che non ti costringe nessuno a comprare sempre e cmq la schedina nuova per seguire la moda è...
.Byez
Piuttosto quando i giochi cominceranno a sfruttare sti mostri?
.
.
.
.
.
.
.
Ha no, ci sono le scatolette, dimenticavo...
Scaffale, a prescindere che sia una vga di AMD o Nvidia, non sento il bisogno di aggiornare il mio pc, il portafogli ringrazia!
Sei si gioca a 2560X1200 ha un senso magari su Crysis 2
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".