ATI Radeon HD 5870: la prima scheda video per DirectX 11

Con la nuova serie ATI Radeon HD 5800 AMD apre la stagione delle schede video dotate di supporto hardware nativo alle API DirectX 11, al debutto solo dal mese di Ottobre con Windows 7 e Windows Vista.
di Gabriele Burgazzi , Paolo Corsini pubblicato il 23 Settembre 2009 nel canale Schede VideoATIAMDWindowsRadeonMicrosoft
646 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoNon so se questo risponde alla tua domanda ma è l'unica differenza di metodo che ho riscontrato.
ma un cambio di software di test può portare agli 80w di differenza per la gtx285?
giusto, (per fare un esempio sul multimonitor ho detto la mia e non ti dico sosa è saltato fuori...), come sulla storia di Phisx che funziona(per ora) solo con le schede nvidia, ma se non sbaglio ati puo chiamar in causa quella tecnica che permette di aumentar i poligoni, cosa che con le nvidia non si puo fare.In poche parole si è alla pari
l' ali da 450watt puo bastare ma sulla linea da 12v quanti hampere deve rilasciar per far funzionar il sistema? penso che con 450watt l' ali sia sempre al 100% e questo non è bene
(fonte)
Apperò. Quasi 10 fps massimi in più abilitando DX11.
Batte pure la X2, così.
ma aspettiamo la nuova nvidia e poi ne riparliamo...se segue sempre la solita filosofia vga nuova=potenza superiore a uno sli delle piu' potenti precedenti...allora continuera' stracciarla (parlando sempre di singola gpu ovviamente)...e ati tornera' cmq e sempre a far parte di un mercato di fascia media medio/alta e a raggiungere/superare nvidia solo con un crossfire.
l'idea di farla uscire gia' da adesso e' una buona trovata..visto che si accaparrera' una buona fetta di mercato, finche' nvidia nn si decide a far debuttare il gt300...ottimi i consumi in idle cmq..ma le temp?
tra l'altro e' orrenda da vedere XD
Già. Ma sono dettagli, le DX10.1 sono inutili, così anche le DX11. Parola di NVIDIA.
ma aspettiamo la nuova nvidia e poi ne riparliamo...se segue sempre la solita filosofia vga nuova=potenza superiore a uno sli delle piu' potenti precedenti...allora continuera' stracciarla (parlando sempre di singola gpu ovviamente)...e ati tornera' cmq e sempre a far parte di un mercato di fascia media medio/alta e a raggiungere/superare nvidia solo con un crossfire.
l'idea di farla uscire gia' da adesso e' una buona trovata..visto che si accaparrera' una buona fetta di mercato, finche' nvidia nn si decide a far debuttare il gt300...ottimi i consumi in idle cmq
Credo che la parte grassettata sarà quello che accadrà. Anche in questo caso NVIDIA sfornerà un mostro (e qualche rumor dice che la resa sia al 2%... Non molto confortante).
Tutto dipende da se e come questo mostro si porrà in contrapposizione con la serie HD 5xx0. Se accadrà la stessa cosa che è accaduta tra G200 e HD 4xx0, NVIDIA prenderà ancora bastonate e sarà costretta ad abbassare i prezzi.
Il problema è che stavolta non c'è un "nuovo" processo (i 55 nm) alle porte su cui potrà saltare subito dopo...
Ovviamente si aspetta, direi. Non sono sicuro che cambierò GPU, ma di sicuro non la cambio fino a quando non vedo G300.
Perchè come minimo, si abbassano i prezzi
Non mi pare. So che le ATI hanno avuto TRUFORM, mi pare dalle 8500.
Originariamente inviato da: ndrmcchtt491
(si sentiva realmente la necessità di aumentare ancor di più le performance visto che chi ha una 4870 o una 275gtx gioca tutto o quasi al massimo dettaglio vicino al fullHD?)
con questo ragionamento oggi staremmo giocando a crysis con le voodoo1
il tuo non fa 1 piega,è veramente sensato...passi dalle generazioni attuali e future alla preistoria
Commento # 432 di: g.luca86x
dischi esterni, altoparlanti non li alimenti con l'alimentatore del computer!
Ai ragione, però ci sono i dischi da 2,5" alimentati tramite usb,senza contar chi aggiungie neon o altri gingilli e con un ali da 450watt con efficienza del 80% a 25 gradi si è pericolosamente vicini al carico massimo totale del sistema(senza contar sbalzi si temperatura vedi estate-inverno). Secondo me 450watt sono insufficienti per un sistema cosi, almeno un 620watt per sicurezza
[I]A survey on over 100 senior developers of various development houses, mainly working on PC, PlayStation 3 or XBox 360
[/I]
:-)
Se accadrà la stessa cosa che è accaduta tra G200 e HD 4xx0, NVIDIA prenderà ancora bastonate e sarà costretta ad abbassare i prezzi.
QUOTE]
beh bastonate non direi...se e' lecito dire bastonate NON sempre prese da un crossfire..contro UNA singola gpu...in alcune cose e' meglio il cross (con tutti i problemi del cross che almeno sono meno di prima)..il altre la singola gpu nvidia va meglio...in media sono pari come skede...la differenza sta solo nel dual e nel mono gpu..un confronto cmq impari.
le bastonate ke ha preso nvidia le indirizzerei solo sui prezzi alti di nvidia..con quelli si...e anche grazie a una stupida politica di rimarchiare 100 volte con qualche aggiunta le schede precedenti.
per quanto mi riguarda resto con la 88gtx..che fa ancora il suo sporco lavoro e nn c'e' niente nel campo ludico che dia una forte spinta a cambiare
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".