![]() |
Mi permetto di fare una considerazione dopo aver letto centinaia di post.
Premetto che anche io sono molto indeciso su quale sara' la prossima scheda (andro' a sostituire una evga 1080ti che rulla con 9900K@5000 all core su un Alienware AW3418DW 3440x1440@120mhz), e tuttora le idee sono confuse. Partiamo dal presupposto che se uscisse una 3080ti 20 GB a 900 euro si taglierebbe la testa al toro ......... :D :D Ragioniamo sulle due antagoniste 3080 vs 6800xt..... Oramai si e' eviscerato tutti i pro ed i contro di una e dell' altra. La realta e' che i prezzi sono stragonfiati se non addirittura irreali. Pero' nessuno ha fatto notare una cosa... vi e' sfuggito il periodo in cui siamo entrati? Lasciamo perdere sto cazzo di Covid che secondo me centra poco con l' hardware, siamo praticamente alle porte del Natale ... Ma lasciano perdere la scimmia che e' in noi cosa ci siamo sempre detti tra smaliziati consumer.... che questo e' il peggior periodo per comprare hardware.... ce lo siamo dimenticati tutti? Da Novembre a tutto Gennaio il periodo peggiore, poi dopo si comincia pian piano a rientrare nella normalita' e poi fine primavera e' il periodo migliore, intendo sotto profilo del mercato prezzi disponibilita'. Quindi perche' tanto meravigliarci della situazione attuale, studiata ben bene dai vari marketing aziendali per mettercela in quel :ciapet: Ora e' chiaro che la 3080 tuf a 739 come i preordini a settembre permettevano (preordini sian ben chiaro) o 6800xt a 685 come alcuni fortunati sono riusciti ad avere sono prezzi accettabili e che la scelta ricade secondo me sulla prima delle due che uno riesce ad avere. La differenza di prezzo ci sta, da una parte RT dall altra piu ram. Ma tutti gli altri prezzi non sono nemmeno da considerare.. e non parliamo poi dei prezzi di AMD che hanno fatto uscire; ma seriamente pensate di comprare una scheda a quel prezzo? Big Navi e' sicuramente un ottimo progetto, un ottimo prodotto (se riesco la prendero' pure io) ma deve costare comunque dai 50~100 in meno della 3080 altrimenti siamo fuori Questo per dirvi ed anche per AUTOCONVICERMI :sofico: aspettiamo aspettiamo e compriamo la prima che viene disponibile al prezzo giusto. E che la scimmia sia sempre con NOI !!!!! Fabrizio |
Quote:
Poi logico, se riesci a prendere una 6800xt all'msrp e per le 3080 vogliono 800€ e forse ti arriva fra un mese o due, lì si possono fare altre valutazioni... Resta il fatto che amd finalmente ha tirato fuori una roba paragonabile nella fascia enthusiast, non succedeva da tipo 10 anni, io mi accontenterei di quello, considerando il salto generazionale han fatto un miracolo |
Quote:
Sono post su post che lo dico e mi avete ignorato in modo spregevole :D :D :D |
Quote:
|
Quote:
|
Quote:
|
Quote:
Che 10GB siano sufficienti l'avevo scritto. Certo se spendi certe cifre avere un serbatoio future proof schifo non fa. Sui consumi parliamo di 60-70Watt quando ti va bene.. non sono pochi, e in OC con 3080 arriveresti a 400W.. Quindi altro piccolo potenziale vantaggio in performance che comunque va considerato anche se poi a te non interessa. RT di oggi vale come il 2 di picche. Per te è indispensabile ma per altri attualmente è una mezza crepa. Sono 70 usd sul prezzo. La 3080 reference a 699 dove sarebbe?? Non esiste, e chi la comprerebbe? Hanno tutte per forza dei dissipatori custom generosi. E la reference di AMD ha un dissipatore di qualità non un blower, puoi considerarla alla pari della "FE". Per me è giusto paragonare 649 a 719 e visto che costano molto, un 10% di sconto schifo non fa. Sicuramente ci sono molte altre differenze sia a favore e contro di entambe da valutare. La mia risposta non voleva essere una polemica verde rossa ; rispetto la tua preferenza e quella di alessandro ma è l'affermare: "lo dicono i numeri, non i secondo me" ad essere "intelletualmente disonesto" ed "oppugnabile". Secondo me la 6800xt è preferibile, sono libero di avere i miei motivi. Tu sei libero di pensare che "secondo te" io sia uno stolto; non mi offendo. |
Quote:
Sottolineo poi il "AL MOMENTO" del mio precedente commento, è possibile che con il tempo la 6800xt si riveli più prestante causa driver/più ram, ma attualmente sta sotto la 3080. Poi ripeto, li ritengo due prodotti assolutamente comparabili, son nella stessa fascia, non è che una sia merda l'altra sia cioccolata. E riallacciandomi ad un paio di commenti visti in qualche pagina fa, si dice sempre peste e corna del software amd, ma nvidia quando si decide di passare al nuovo millennio? Ho provato una 2060 per un po', l'interfaccia geforce sembra targata 1998, ma come mai sta cosa? |
Quote:
L'interfaccia AMD è fantastica, mi mancherà:) |
E comunque, al di là di analisi e opinioni più o meno tecniche di "amd vs nvidia", tutto ciò è annullato dall'attuale mercato, i prezzi e le disponibilità sono tutte ad cazzum, e non c'è la possibilità di fare considerazioni a bocce ferme, quello che si trova a prezzi umani va preso e bom, sia rosso o sia verde
|
Quote:
|
Quote:
|
Quote:
|
Quote:
-la 6800xt con sam = chipset e procio obbligati e nemmeno in tutti i giochi scala. Posto che nvidia ha già pronta la risposta e senza legarsi a una piattaforma -la ram in più se i giochi non la usano sta li a far nulla, 10gb sono quello che usano le console per il frame buffer per gli asset next gen. Non te li rifaranno mai per pc, scordatelo. -si overclocca di più e le prende uguale in rt. La occhi per far cosa? 150 fame anzichè 125 in raster? La 6800 oggi non va bene proprio in quella che è la novità a livello di effettistica del momento. Poi a me nemmeno frega più di tanto l'RT, ma la globalità della performance oggi lo include e tutti, spinti dal marketing, si muovono in quella direzione piaccia o no. Quindi la 3080 con i metri di misura attuali "vince". E ora sappiamo perchè in merito all'RT AMD sia stata bella che zitta e muta, e continua a glissare Quote:
|
Quote:
6800xt consuma già tanto. La 3080 sfiora il ridicolo. Specifico che non ne faccio una questione di costi.. non saranno 5€ in più all'anno a fare la differenza ma rigorosamente "a me" non piace una stufetta nel case. Siamo in inverno per fortuna. Quote:
Siamo sicuri che avrà il medesimo boost? Ryzen 5000 e RDNA2 sono stati pensati in sinergia. Sicuro che la cache enorme di entrambi non dia vantaggi anche al SAM? Che Intel e geforce abbiano un boost analogo? Io finchè non vedo non esiste. Quote:
|
Quote:
Che poi AMD abbia tirato fuori delle signore GPU sono il primo a dirlo e l'ultimo a metterlo in dubbio. Ma dire che il RT conta come il 2 di picche mi sembra eccessivo, specie ora che se ne iniziano a vedere sempre più i titoli che lo utilizzano. Un discorso del genere mi stava bene con la serie 2000, che infatti ho saltato completamente, ma ora le carte in tavola non sono le stesse e con la next gen a me sembra che questa tecnologia si sempre più sulla bocca di tutti. Applicata bene o meno bene sta ai devs stabilirlo, ma resta il fatto che è quel qualcosa in più che la controparte stenta ancora a offrire. In tutto questo ci sarebbe da aggiungere un certo DLSS. Ma ripeto, rispetto qualsiasi scelta e ne capisco perfettamente le ragioni che ne sono alla base. |
Però ragazzi l'RT visto nei giochi attuali è monotematico nvidia dai. Mi ripeterò al costo di sembrare noioso: Era impossibile per AMD andare forte in RT nei giochi attuali che sono stati scritti tenendo conto solo delle gpu nvidia.
Poi per il discorso del futuro RT non vedo come AMD potrebbe essere in difficoltà avendo praticamente la sua arch. su tutte le nuove console next-gen che saranno il traino per l'RT. Discorso DLSS anche AMD ha annunciato una tecnologia analoga quindi perché non tenerne conto? Del SAM versione nvidia è bastato un comunicato per praticamente darlo già come disponibile quando al momento non c'è nulla. A me personalmente dell'RT frega quasi niente (quasi niente perché tutti i giochi con RT me li sono giocati tutti senza con la 1080Ti e me li sono goduti benissimo ugualmente), potrebbe interessarmi di più in futuro ma rimane comunque il fatto che attivando quegli effetti il frame rate crolla di brutto e nessuna delle due (nvidia e amd) riesce a gestirlo in maniera ottimale. Il raster che vogliate o no è la base del 99,9% dei giochi attuali e anche di quelli futuri da qui ad almeno 2/3 anni (sia sony che ms hanno già detto che supporteranno le console old-gen per quel periodo la). In definitiva tra 3080 e 6800 xt non ce n'è una OBBIETTIVAMENTE migliore. La migliore è quella che tu scegli che lo sia. |
Quote:
Ora, visto che molte più persone hanno acquistato una RX 6800 (xt) il tuo discorso si sta facendo sostanzialmente stucchevole, questo è il thread delle radeon, se vuoi/volete decantare lodi ad nvidia, c'è l'altro thread apposito...GRAZIE!! |
Quote:
I test ormai stanno sotto i nasi di tutti, e la 3080 vince a mani basse. Rt più veloce....col dlss aumenta ancor di più il divario. In raster sono alla pari. Per 50€ in più personalmente preferisco la 3080. Ovviamente tenendo di conto dei prezzi di lancio, e non le ladrate di adesso. |
Quote:
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() Poi con l'ultima frase che hai scritto: Quote:
|
Quote:
Quote:
"Rt più veloce....col dlss aumenta ancor di più il divario. In raster sono alla pari." è un overall, dai bench di hwupgrade: 7 a 6 in raster e 5 a 1 in RT, totale 12 a 7. |
Non mi sembrano proprio equivalenti in rt.
![]() Togliendo dirt5 dal mucchio la situazione è ancora più marcata: ![]() E tutto questo senza DLSS attivo nei giochi che lo supportano. Con tutto il rispetto per le nuove amd che sono un ottimo prodotto, ma per 50€ preferisco la 3080. |
Io vedo due schede dai valori simili ma non uguali, ognuna ha punti di forza e punti deboli. Sinceramente risulta fastidioso quando si cerca di imporre agli altri la propria soggettiva visione delle cose. Un "secondo me" ci dovrebbe sempre stare quando si danno giudizi così poco tecnici.
|
Quote:
|
Quote:
Qui l'unico che parla per sentito dire sei tu visto che allo stato attuale non hai Una scheda video, nvidia o amd, mentre io ed altre persone ne parliamo da possessori. Da settembre sei partito col dire che il tuo budget erano 500 euro, passando per astrusità varie tipo, cut del cut del cut, per arrivare a dire che ora l'rt è la feature più importante del 3° millennio e che acquisterai una 3080 i cui prezzi sono ben al di sopra degli 800 euro... Bella coerenza. Ora, delle due l'una, o si parla delle rx 6800 visto che diverse persone ce l'hanno nel case oppure vai a flammare in un altro thread! |
Quote:
E io ripeto: esiste anche chi come me dell'rt gliene importa poco e giocando a 1440p la 6800 xt va un pelo meglio. Aggiungici 6gb di vram in più e il SAM (io ho x570 e 5600x) ed ecco che si ritorna a quello che ho detto prima: non esiste una scheda migliore dell'altra OGGETTIVAMENTE. Ci sono pro e contro per entrambe. L'unico ago della bilancia è l'utente che le compra. Quote:
Se tu preferisci la 3080 fai bene a prendere quella ci mancherebbe altro. Quote:
|
Quote:
Ti saluto grid ;) PS: non ho detto che acquisterò una 3080, ma che valuterò l'evoluzione di performance e prezzi in rt di amd e che per ora sarei sul 55/45 lato scelta che mi pare tutto tranne che aver deciso di comprare "x", ma capisco che è troppo materiale da computare per taluni (che ci spenderei oltre 800 euro poi :rotfl:...) |
comunque questo è un thread tecnico sulla 6800xt, non il thread del duello 6800xt vs 3080.
sono 40 post che parlate solo di questo, potete farlo anche in un altro thread e lasciare ai possessori della scheda la possibilità di confrontarsi sul prodotto acquistato invece che inquinare di continuo con la solita faidetta nvidia vs amd. |
Quote:
|
Quote:
P.s. A chi ha comprato un rx 6800 non gliene può fregare di meno di Rt e dlss, adesso è chiaro? |
Quote:
|
Quote:
Comunque globalmente non sono uguali :) se teniamo di conto dlss+rt+raster globalmente la 3080 è migliore, e non di poco. Ovvio, amd è arrivata dopo su tali tecnologie, ma siccome spesso si fa paragoni sui prezzi e disponibilità ad oggi, i quali penalizzano non poco nvidia, allora prendiamo in considerazione anche le prestazioni di oggi. Ho voluto solo puntualizzare che spesso il dlss va nel dimenticatoio, ma per me è una delle tecnologie più all'avanguardia da 15 anni a questa parte! Sarà che le reti neurali mi affascinano, e le schede nvidia hanno i Tensor core adibiti solo a tale calcolo, ma per me solo per questo vale i 50€ di differenza ;) |
Quote:
|
Ma poi ragazzi in raster va un pelo meglio la 6800xt (a 1440p da il suo massimo, che è la risoluzione a cui gioco io tra l'altro). Quindi dire che GLOBALMENTE va meglio non è corretto :)
Comunque è l'ultimo post che faccio sull'argomento. Stiamo diventando tutti quanti logorroici :sofico: |
Quote:
https://www.youtube.com/watch?v=xHCAZQDfy6Y |
Quote:
Entrambe le frasi potrebbero essere corrette... e invece sono entrambe false, perchè non sono dei paramerti assoluti. Entrambe le schede sono validissimi prodotti con alcune caratteristiche differenti. Per chi cerca determinate caratteristiche, può risultare migliore l'una o l'altra. Prendere il RT come parametro fondamentale o "conditio sine qua non", mi fa venire in mente quanto successo qualche anno fa, quando il futuro era Physx e qualcuno si era addirittura comprato la vga di supporto per gestirla. Il RT non dico che sia su quel livello, anzi la ritengo una tecnologia molto valida... però prima di ragionare per assoluti, bisognerebbe avere un pò di memoria storica ed andarci coi piedi di piombo. ;) |
Quote:
Sminuire l'elemento che nel medio periodo potrebbe dare il risultato migliore a costo zero o quasi (se arrivi, arrivi), non ha senso. I trascorsi dovrebbero fare storia su quanto si sia rivelata utile una quantità superiore di VRAM, in questo caso superiore ai 10GB che non arrivano al minimo indispensabile, come si può già vedere da qualche gioco più disponibile delle schede in questione... Gli stereotipi sulla potenza necessaria a giustificare una buona quantità di VRAM hanno fatto anch'essi storia, se non fosse che la memoria vacilla facilmente quando conviene. Se hai VRAM sufficiente, alzare l'asticella relativa alle texture in pratica non pesa nulla, eppure permette di migliorare una delle cose che si notano di più, e che è anche facile da far notare ai profani, tra l'altro. Se la norma dice che il grosso degli asset non vengono migliorati (o non venngono scalati su console, sarebbe meglio dire), dice anche che su console si dà volentieri una strettarella alle texture di contorno (ma che si vedono, sia chiaro). Poi non si capisce perché i "favori" dei pacchi texture riservati al PC debbano diventare anomali, come se fossero fastidiosi. Non si capisce parlando chiaro, perché di solito quelli che se li possono permettere li scaricano eccome e se li godono... Quanti GB riservati al gioco aveva la PS4-Pro? Sai che in quelli c'era anche il necessario al processore? (l'altra è riservata all'OS) Togliendo quest'ultima quanti ne rimanevano al tipico frame buffer da GPU? Su PC quelli bastavano? Manco per il c... Questo senza considerare la VRAM necessaria all'aumento della qualità/quantità di alcuni effetti tipici del PC, così come al LOD più ampio. Quei 50mt in più che potresti vedere su PC sai dove devono stare? Già le console nuove si aggirano dinamicamente sui 1440p, senza asset da next-gen, e quelli da 4K in tutto e per tutto ancora devo vederli... Aggiungo che è nell'interesse di AMD far fruttare il più possibile quel buffer che può aumentare i dettagli quasi a gratis, e il quadro è in vendita. Comunque, tra qualche mese vedremo in quanti giochi bisognerà abbassare la stecca con una 3080, così vedremo pure quanti cadranno dal pero di mezzo metro... :) Ho risposto a te perché la metti sul categorico. Minimizzare in questo modo quel +60% di VRAM ha un ché di nichilistico. |
Quote:
Quote:
Quote:
|
Quote:
|
Quote:
|
Tutti gli orari sono GMT +1. Ora sono le: 18:59. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2022, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.