ATI Radeon HD 5870: la prima scheda video per DirectX 11

ATI Radeon HD 5870: la prima scheda video per DirectX 11

Con la nuova serie ATI Radeon HD 5800 AMD apre la stagione delle schede video dotate di supporto hardware nativo alle API DirectX 11, al debutto solo dal mese di Ottobre con Windows 7 e Windows Vista.

di , pubblicato il nel canale Schede Video
ATIAMDWindowsRadeonMicrosoft
 
  • Articoli Correlati
  • ATI Eyefinity: la prima tecnologia delle GPU DX11 ATI Eyefinity: la prima tecnologia delle GPU DX11 Eyefinity è il nome della nuova tecnologia sviluppata da ATI per la gestione di configurazioni multimonitor, sino ad un massimo di 6 display contemporaneamente collegati al sistema. Non solo produttività personale: Eyefinity estende il concetto di surround gaming a nuovi livelli e risoluzioni
646 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
g.luca86x24 Settembre 2009, 11:05 #391
Originariamente inviato da: Ratatosk
Per l'articolo della 5870 hanno usato HAWX come stress della GPU, nelle altre che hai linkato la scena 18 di shadermark.

Non so se questo risponde alla tua domanda ma è l'unica differenza di metodo che ho riscontrato.


ma un cambio di software di test può portare agli 80w di differenza per la gtx285?
ndrmcchtt49124 Settembre 2009, 11:11 #392
P.S.: infatti mica mi infiammo, discuto con te sui dubbi che hai portato alla piazza

giusto, (per fare un esempio sul multimonitor ho detto la mia e non ti dico sosa è saltato fuori...), come sulla storia di Phisx che funziona(per ora) solo con le schede nvidia, ma se non sbaglio ati puo chiamar in causa quella tecnica che permette di aumentar i poligoni, cosa che con le nvidia non si puo fare.In poche parole si è alla pari

l' ali da 450watt puo bastare ma sulla linea da 12v quanti hampere deve rilasciar per far funzionar il sistema? penso che con 450watt l' ali sia sempre al 100% e questo non è bene
MadJackal24 Settembre 2009, 11:27 #393
Link ad immagine (click per visualizzarla)
(fonte)

Apperò. Quasi 10 fps massimi in più abilitando DX11.
Batte pure la X2, così.
Micene.124 Settembre 2009, 11:34 #394
mi sembra cosi a pelle che amd abbia fatto un ottimo lavor...le mie attese nn sono state deluse...attendo a q eusto punto le sorelle minori
DarkVampire24 Settembre 2009, 11:41 #395
mmm..che dire...la nuova scheda certo e' buona, il netto vantaggio sulla 285 e' netto...sarebbe stato un disastro se nn lo fosse stato..il dual gpu della stessa ati e' superiore (e quindi nn si e' superata)il confronto e' con una 295..che sono 2 gpu della 260...immagino quanto uno sli di 285 stracci la singola 5xxx, ma fare questi paragoni e' inutile..del resto e' una nuova scheda...che attualmente si pone nella fascia top di gamma di tutte le vga a singola scheda

ma aspettiamo la nuova nvidia e poi ne riparliamo...se segue sempre la solita filosofia vga nuova=potenza superiore a uno sli delle piu' potenti precedenti...allora continuera' stracciarla (parlando sempre di singola gpu ovviamente)...e ati tornera' cmq e sempre a far parte di un mercato di fascia media medio/alta e a raggiungere/superare nvidia solo con un crossfire.

l'idea di farla uscire gia' da adesso e' una buona trovata..visto che si accaparrera' una buona fetta di mercato, finche' nvidia nn si decide a far debuttare il gt300...ottimi i consumi in idle cmq..ma le temp?

tra l'altro e' orrenda da vedere XD
BodyKnight24 Settembre 2009, 11:47 #396
Ma la tessellation non ce l'aveva già anche la geforce 3?
MadJackal24 Settembre 2009, 11:49 #397
Originariamente inviato da: Ratatosk
Notare che già batte la GTX295 anche senza DX11, perché prima di ieri era un gioco DX10.1


Già. Ma sono dettagli, le DX10.1 sono inutili, così anche le DX11. Parola di NVIDIA.

Originariamente inviato da: DarkVampire
mmm..che dire...la nuova scheda certo e' buona, il netto vantaggio sulla 285 e' netto...sarebbe stato un disastro se nn lo fosse stato..il dual gpu della stessa ati e' superiore (e quindi nn si e' superata)il confronto e' con una 295..che sono 2 gpu della 260...immagino quanto uno sli di 285 stracci la singola 5xxx, ma fare questi paragoni e' inutile..del resto e' una nuova scheda...che attualmente si pone nella fascia top di gamma di tutte le vga a singola scheda

ma aspettiamo la nuova nvidia e poi ne riparliamo...se segue sempre la solita filosofia vga nuova=potenza superiore a uno sli delle piu' potenti precedenti...allora continuera' stracciarla (parlando sempre di singola gpu ovviamente)...e ati tornera' cmq e sempre a far parte di un mercato di fascia media medio/alta e a raggiungere/superare nvidia solo con un crossfire.

l'idea di farla uscire gia' da adesso e' una buona trovata..visto che si accaparrera' una buona fetta di mercato, finche' nvidia nn si decide a far debuttare il gt300...ottimi i consumi in idle cmq


Credo che la parte grassettata sarà quello che accadrà. Anche in questo caso NVIDIA sfornerà un mostro (e qualche rumor dice che la resa sia al 2%... Non molto confortante).
Tutto dipende da se e come questo mostro si porrà in contrapposizione con la serie HD 5xx0. Se accadrà la stessa cosa che è accaduta tra G200 e HD 4xx0, NVIDIA prenderà ancora bastonate e sarà costretta ad abbassare i prezzi.

Il problema è che stavolta non c'è un "nuovo" processo (i 55 nm) alle porte su cui potrà saltare subito dopo...


Ovviamente si aspetta, direi. Non sono sicuro che cambierò GPU, ma di sicuro non la cambio fino a quando non vedo G300.
Perchè come minimo, si abbassano i prezzi

Originariamente inviato da: BodyKnight
Ma la tessellation non ce l'aveva già anche la geforce 3?


Non mi pare. So che le ATI hanno avuto TRUFORM, mi pare dalle 8500.
ndrmcchtt49124 Settembre 2009, 11:55 #398
Commento # 431 di: ninja750 pubblicato il 24 Settembre 2009, 10:57


Originariamente inviato da: ndrmcchtt491
(si sentiva realmente la necessità di aumentare ancor di più le performance visto che chi ha una 4870 o una 275gtx gioca tutto o quasi al massimo dettaglio vicino al fullHD?)



con questo ragionamento oggi staremmo giocando a crysis con le voodoo1

il tuo non fa 1 piega,è veramente sensato...passi dalle generazioni attuali e future alla preistoria



Commento # 432 di: g.luca86x


dischi esterni, altoparlanti non li alimenti con l'alimentatore del computer!

Ai ragione, però ci sono i dischi da 2,5" alimentati tramite usb,senza contar chi aggiungie neon o altri gingilli e con un ali da 450watt con efficienza del 80% a 25 gradi si è pericolosamente vicini al carico massimo totale del sistema(senza contar sbalzi si temperatura vedi estate-inverno). Secondo me 450watt sono insufficienti per un sistema cosi, almeno un 620watt per sicurezza
MiKeLezZ24 Settembre 2009, 11:56 #399
Originariamente inviato da: Ratatosk
Affascinante, chissà che metodologia altamente scientifica hanno utilizzato per ricavare queste percentuali

[I]A survey on over 100 senior developers of various development houses, mainly working on PC, PlayStation 3 or XBox 360
[/I]
:-)
DarkVampire24 Settembre 2009, 12:02 #400
[QUOTE=MadJackal;29009126]Già. Ma sono dettagli, le DX10.1 sono inutili, così anche le DX11. Parola di NVIDIA.



Se accadrà la stessa cosa che è accaduta tra G200 e HD 4xx0, NVIDIA prenderà ancora bastonate e sarà costretta ad abbassare i prezzi.

QUOTE]

beh bastonate non direi...se e' lecito dire bastonate NON sempre prese da un crossfire..contro UNA singola gpu...in alcune cose e' meglio il cross (con tutti i problemi del cross che almeno sono meno di prima)..il altre la singola gpu nvidia va meglio...in media sono pari come skede...la differenza sta solo nel dual e nel mono gpu..un confronto cmq impari.

le bastonate ke ha preso nvidia le indirizzerei solo sui prezzi alti di nvidia..con quelli si...e anche grazie a una stupida politica di rimarchiare 100 volte con qualche aggiunta le schede precedenti.

per quanto mi riguarda resto con la 88gtx..che fa ancora il suo sporco lavoro e nn c'e' niente nel campo ludico che dia una forte spinta a cambiare

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^