![]() |
|
Quote:
Ora, visto che molte più persone hanno acquistato una RX 6800 (xt) il tuo discorso si sta facendo sostanzialmente stucchevole, questo è il thread delle radeon, se vuoi/volete decantare lodi ad nvidia, c'è l'altro thread apposito...GRAZIE!! |
Quote:
I test ormai stanno sotto i nasi di tutti, e la 3080 vince a mani basse. Rt più veloce....col dlss aumenta ancor di più il divario. In raster sono alla pari. Per 50€ in più personalmente preferisco la 3080. Ovviamente tenendo di conto dei prezzi di lancio, e non le ladrate di adesso. |
Quote:
Quote:
"Rt più veloce....col dlss aumenta ancor di più il divario. In raster sono alla pari." è un overall, dai bench di hwupgrade: 7 a 6 in raster e 5 a 1 in RT, totale 12 a 7. |
Non mi sembrano proprio equivalenti in rt.
![]() Togliendo dirt5 dal mucchio la situazione è ancora più marcata: ![]() E tutto questo senza DLSS attivo nei giochi che lo supportano. Con tutto il rispetto per le nuove amd che sono un ottimo prodotto, ma per 50€ preferisco la 3080. |
Io vedo due schede dai valori simili ma non uguali, ognuna ha punti di forza e punti deboli. Sinceramente risulta fastidioso quando si cerca di imporre agli altri la propria soggettiva visione delle cose. Un "secondo me" ci dovrebbe sempre stare quando si danno giudizi così poco tecnici.
|
Quote:
|
Quote:
Qui l'unico che parla per sentito dire sei tu visto che allo stato attuale non hai Una scheda video, nvidia o amd, mentre io ed altre persone ne parliamo da possessori. Da settembre sei partito col dire che il tuo budget erano 500 euro, passando per astrusità varie tipo, cut del cut del cut, per arrivare a dire che ora l'rt è la feature più importante del 3° millennio e che acquisterai una 3080 i cui prezzi sono ben al di sopra degli 800 euro... Bella coerenza. Ora, delle due l'una, o si parla delle rx 6800 visto che diverse persone ce l'hanno nel case oppure vai a flammare in un altro thread! |
Quote:
Ti saluto grid ;) PS: non ho detto che acquisterò una 3080, ma che valuterò l'evoluzione di performance e prezzi in rt di amd e che per ora sarei sul 55/45 lato scelta che mi pare tutto tranne che aver deciso di comprare "x", ma capisco che è troppo materiale da computare per taluni (che ci spenderei oltre 800 euro poi :rotfl:...) |
comunque questo è un thread tecnico sulla 6800xt, non il thread del duello 6800xt vs 3080.
sono 40 post che parlate solo di questo, potete farlo anche in un altro thread e lasciare ai possessori della scheda la possibilità di confrontarsi sul prodotto acquistato invece che inquinare di continuo con la solita faidetta nvidia vs amd. |
Quote:
|
Quote:
P.s. A chi ha comprato un rx 6800 non gliene può fregare di meno di Rt e dlss, adesso è chiaro? |
Quote:
|
Quote:
Comunque globalmente non sono uguali :) se teniamo di conto dlss+rt+raster globalmente la 3080 è migliore, e non di poco. Ovvio, amd è arrivata dopo su tali tecnologie, ma siccome spesso si fa paragoni sui prezzi e disponibilità ad oggi, i quali penalizzano non poco nvidia, allora prendiamo in considerazione anche le prestazioni di oggi. Ho voluto solo puntualizzare che spesso il dlss va nel dimenticatoio, ma per me è una delle tecnologie più all'avanguardia da 15 anni a questa parte! Sarà che le reti neurali mi affascinano, e le schede nvidia hanno i Tensor core adibiti solo a tale calcolo, ma per me solo per questo vale i 50€ di differenza ;) |
Quote:
|
Quote:
https://www.youtube.com/watch?v=xHCAZQDfy6Y |
Quote:
Entrambe le frasi potrebbero essere corrette... e invece sono entrambe false, perchè non sono dei paramerti assoluti. Entrambe le schede sono validissimi prodotti con alcune caratteristiche differenti. Per chi cerca determinate caratteristiche, può risultare migliore l'una o l'altra. Prendere il RT come parametro fondamentale o "conditio sine qua non", mi fa venire in mente quanto successo qualche anno fa, quando il futuro era Physx e qualcuno si era addirittura comprato la vga di supporto per gestirla. Il RT non dico che sia su quel livello, anzi la ritengo una tecnologia molto valida... però prima di ragionare per assoluti, bisognerebbe avere un pò di memoria storica ed andarci coi piedi di piombo. ;) |
Quote:
Sminuire l'elemento che nel medio periodo potrebbe dare il risultato migliore a costo zero o quasi (se arrivi, arrivi), non ha senso. I trascorsi dovrebbero fare storia su quanto si sia rivelata utile una quantità superiore di VRAM, in questo caso superiore ai 10GB che non arrivano al minimo indispensabile, come si può già vedere da qualche gioco più disponibile delle schede in questione... Gli stereotipi sulla potenza necessaria a giustificare una buona quantità di VRAM hanno fatto anch'essi storia, se non fosse che la memoria vacilla facilmente quando conviene. Se hai VRAM sufficiente, alzare l'asticella relativa alle texture in pratica non pesa nulla, eppure permette di migliorare una delle cose che si notano di più, e che è anche facile da far notare ai profani, tra l'altro. Se la norma dice che il grosso degli asset non vengono migliorati (o non venngono scalati su console, sarebbe meglio dire), dice anche che su console si dà volentieri una strettarella alle texture di contorno (ma che si vedono, sia chiaro). Poi non si capisce perché i "favori" dei pacchi texture riservati al PC debbano diventare anomali, come se fossero fastidiosi. Non si capisce parlando chiaro, perché di solito quelli che se li possono permettere li scaricano eccome e se li godono... Quanti GB riservati al gioco aveva la PS4-Pro? Sai che in quelli c'era anche il necessario al processore? (l'altra è riservata all'OS) Togliendo quest'ultima quanti ne rimanevano al tipico frame buffer da GPU? Su PC quelli bastavano? Manco per il c... Questo senza considerare la VRAM necessaria all'aumento della qualità/quantità di alcuni effetti tipici del PC, così come al LOD più ampio. Quei 50mt in più che potresti vedere su PC sai dove devono stare? Già le console nuove si aggirano dinamicamente sui 1440p, senza asset da next-gen, e quelli da 4K in tutto e per tutto ancora devo vederli... Aggiungo che è nell'interesse di AMD far fruttare il più possibile quel buffer che può aumentare i dettagli quasi a gratis, e il quadro è in vendita. Comunque, tra qualche mese vedremo in quanti giochi bisognerà abbassare la stecca con una 3080, così vedremo pure quanti cadranno dal pero di mezzo metro... :) Ho risposto a te perché la metti sul categorico. Minimizzare in questo modo quel +60% di VRAM ha un ché di nichilistico. |
Quote:
Quote:
Quote:
|
Quote:
|
Quote:
|
Tutti gli orari sono GMT +1. Ora sono le: 20:24. |
|
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.