Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


Ale55andr0 28-11-2020 20:31

Quote:

Originariamente inviato da ninja750 (Messaggio 47133242)
visto che a gennaio il panettiere verde sfornerà la 3080ti 20gb e la 3070ti 16gb vuol dire che ti accaparreresti "il fratello scemo della serie" (cit.) che si deprezzerà in men che non si dica, sempre che non passi pure Lui al pregiato :ave: silicio dei nodi magici TSMC :ave: dove ampere potrà quindi pasturare di watts e bustare a tre gigaerZ che dobbiamo rallentare gli effetti RT altrimenti la tipa di Control ci andrebbe a sciare in quei pavimenti lustrati più che mai :O

wrong: la 3080ti come la 6900xt, è prodotto fuori budget e fa storia a se. Ma la a 3080 resta un chip cazzuto anche post cut, la 6800 liscia invece, è letteralmente stata violentata, ed ha pure meno CU di una fetentissima fury. Tenetevela, specie a 7/800, passo ;)
La 3070ti da 16gb quando la 3080 ne ha 10 esiste solo nella fantasia dell'utenza, e anche dovesse arrivare, si sa che prima o poi cio' che oggi è all'ultimo grido domani è obsoleto, sticazzi non ce li metti? :O Quando tu compri, qualunque cosa sia, è "oggi" non domani. Anche la mia macchina quando l'ho presa mi entusiasmava ma oggi la getterei in un fosso :asd:
Allora non compriamo nulla, si passerà ai 5nm e ai chip "modulari" al prossimo giro, ste schede sono tutte merda fumante, no? :D Ma anche quelle è, TSMC avrà pronti i 3nm prima di fine 22 :asd:

Blee 28-11-2020 20:48

Quote:

Originariamente inviato da Ale55andr0 (Messaggio 47133209)
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:


-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:


-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...

-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.


-e infine puzza: vuol dire che è da uomini :O



per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...

Non fa una piega. Poi i consumi reali sono vicinissimi tra le due gpu.

Blee 28-11-2020 21:08

Quote:

Originariamente inviato da ninja750 (Messaggio 47133242)
visto che a gennaio il panettiere verde sfornerà la 3080ti 20gb e la 3070ti 16gb vuol dire che ti accaparreresti "il fratello scemo della serie" (cit.) che si deprezzerà in men che non si dica, sempre che non passi pure Lui al pregiato :ave: silicio dei nodi magici TSMC :ave: dove ampere potrà quindi pasturare di watts e bustare a tre gigaerZ che dobbiamo rallentare gli effetti RT altrimenti la tipa di Control ci andrebbe a sciare in quei pavimenti lustrati più che mai :O

Non ci ho capito nulla, ma apprezzo l'impegno :D

Gyammy85 28-11-2020 21:17

Quote:

Originariamente inviato da Mallardo (Messaggio 47133121)
Quando ci saranno 3080 in quantità decenti vedrai se non si abbasseranno. A pari prezzo e disponibilità non ne venderanno molte.

Si si tutte nelle patatine appena nvidia le scende

Quote:

Originariamente inviato da Ale55andr0 (Messaggio 47133209)
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:


-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:


-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...

-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.


-e infine puzza: vuol dire che è da uomini :O



per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...

Allora vedi che nvidia fa bene a metterti 10 giga sulla top? e tu che la criticavi :asd: per il discorso rt, chi si aspetta perf scarse non ha capito bene la situazione, e non ha visto che tutta la roba nuova è tarata su rdna2, non certo sui due techdemo azzoppa amd fatti dalla spinoff su ue4

Quote:

Originariamente inviato da Ale55andr0 (Messaggio 47133256)
wrong: la 3080ti come la 6900xt, è prodotto fuori budget e fa storia a se. Ma la a 3080 resta un chip cazzuto anche post cut, la 6800 liscia invece, è letteralmente stata violentata, ed ha pure meno CU di una fetentissima fury. Tenetevela, specie a 7/800, passo ;)
La 3070ti da 16gb quando la 3080 ne ha 10 esiste solo nella fantasia dell'utenza, e anche dovesse arrivare, si sa che prima o poi cio' che oggi è all'ultimo grido domani è obsoleto, sticazzi non ce li metti? :O Quando tu compri, qualunque cosa sia, è "oggi" non domani. Anche la mia macchina quando l'ho presa mi entusiasmava ma oggi la getterei in un fosso :asd:
Allora non compriamo nulla, si passerà ai 5nm e ai chip "modulari" al prossimo giro, ste schede sono tutte merda fumante, no? :D Ma anche quelle è, TSMC avrà pronti i 3nm prima di fine 22 :asd:

Ti sei fissato, guarda quanto va la misera versione da 60 cu (che per inciso era la nvidia killer che andava il 15% in più della 2080ti)

Per il resto, compri una scheda adesso per giocare a control col riflessino di lei sui vetri oggi perché domani spenderai altri 1000 per giocare bene all'oggi (di domani)? fortuna che ci si lamenta sempre dei prezzi in salita

Gyammy85 28-11-2020 21:20

Quote:

Originariamente inviato da ninja750 (Messaggio 47133242)
visto che a gennaio il panettiere verde sfornerà la 3080ti 20gb e la 3070ti 16gb vuol dire che ti accaparreresti "il fratello scemo della serie" (cit.) che si deprezzerà in men che non si dica, sempre che non passi pure Lui al pregiato :ave: silicio dei nodi magici TSMC :ave: dove ampere potrà quindi pasturare di watts e bustare a tre gigaerZ che dobbiamo rallentare gli effetti RT altrimenti la tipa di Control ci andrebbe a sciare in quei pavimenti lustrati più che mai :O

:asd: nessun problema, si piazza a 900 euro la 10 giga e si preordina la 3080ti da 1200 e con soli 300 euro hai le perf della 3090 da 2000

Blee 28-11-2020 21:26

Quote:

Originariamente inviato da Dotto Raus (Messaggio 47133313)
Ragazzi ho un "problema". Sapete come mai al riavvio non mi applica il settaggio manuale della ventola?



Al riavvio praticamente mi tiene applicato il profilo manuale come da screen ma riporta tutti i settaggi a stock ovvero: il zero-RPM che mi si riattiva e la curva di rotazione delle ventole che mi ritorna stock. Spero di essermi spiegato.

Non capisco dove sta il problema :muro:

I drivers. Però negli ultimi della 5700xt il problema era stato risolto. Infatti adesso a me mantiene il setting. Agli inizi no.

Il Satrapo 28-11-2020 21:27


Ludus 28-11-2020 21:28

Quote:

Originariamente inviato da Ludus (Messaggio 47132949)
ma quanti punti fate su time spy ? io faccio solo 16400 di GS a default, mentre sopra ne vedo anche 2 mila in più di punti.
nel pannello AMD non ho toccato niente e lasciato la modalità game.

comunque sto provando un pò di downvolt. sono arrivato a 1.075mv e sembra stabilissima, con temperature e consumo inferiori.

ci riprovo :)

Gyammy85 28-11-2020 21:46





Notare i 100 watt in meno

DJurassic 28-11-2020 21:49

Quote:

Originariamente inviato da Ale55andr0 (Messaggio 47133209)
-consumi: non è che consuma 200w più della 6800xt. E per inciso valeva anche il contrario quando i verdi rompevano i maroni su quello ma tutti a difendere le proprie AMD anche quando lo facevano andando meno e con nodo di vantaggio.... Poi capirai, sono schede high end: schede da 250/300w di per loro, ergo non sono fatte per chi cerca il prodotto che consuma poco a priori ma per chi vuole il massimo. E alcuni acquirenti invece di giocare li vedi più a benchare e occare :asd:, cosa che non è fatta certo per amor del risparmio energetico :D
Io per dire mi sarei eclissato dal thread e starei giocando adesso :asd:


-memoria: asset e texture sono tarati sulle console, non te li rifanno da capo su pc dove ti mettono più che altro qualche filtro extra ed effetti luce/ombre più spinti, tutte cose "a costo 0". Per dirti, quella meraviglia di RDR2 su one x ha le stesse, identiche, texture della verisone PC col presset massimo...non le hanno rifatte per la master race...hanno tagliato risoluzione, draw distance, ed effettini, ma gli assetts e i modelli quelli sono e restano.
La console next gen più performante, la series x, ha dichiaratamente 10gb di memoria video, ergo i titoli multipiattaforma saranno più o meno tarati su quel livello. 8Gb sono pochini per una vga top, ma 10gb anche se al pelo, sono "giusti" alla luce di cio'. Ovvio poi che qualche singolo titolo potrà voler di più, tipo quelli col texture pack fatto apposta per saturarte 10gb come godfall :D (che poi rispetto un cyberpunk2077 graficamente è na merda ma vabè..) ma parliamo appunto di singoli casi perchè col cassio che il video gioco "medio" della next gen vorrà 16gb di videoram. Bisogna poi non confondendere ram richiesta con ram allocata, perchè se è per quello oggi ci sono titoli che sulla carta sforano (RDR2 incluso) ma poi li vedi e ti girano bene uguale e dici "boh meglio così" :fagiano:


-zero margine di oc: l'oc vale per chi è interessato a quello (io per dire, me ne batto le terga), posto che poi c'è chi le occa le 3080 (vedere relativo thread), salgono meno non è che non si occano. E in ogni caso occare per amor dell'oc se poi in rt vieni suonato uguale a che serve? a nulla. Vedi il nuovo 3dmark in versione RT "puro": ha mostrato un risultato imbarazzante per la 6800xt, viene praticamente doppiata, hai voja occare per compensare una simile differenza, e il bench non ha il loghino verde eh...

-costa di più: 649 dollari vs 699, 50$ se vai uguale in raster ma nettamente più in RT per me significa avere prezzo prestazioni simile se non migliore nella verde. Posto che OGGI, nel mercato delle schede fantasma (:asd:) costano meno le 3080 che puoi preordinare, anche meno di 800, quando le 6800xt, sempre preorder te le sparano a 1000.


-e infine puzza: vuol dire che è da uomini :O



per rivalutare la 6800xt saranno fondamentali due cose:
che il prezzo cali drasticamente e sia inferiore, mediamente, proprio di quei famosi 50$ che oggi sono solo su carta, e che coi driver migliorino nettamente le performance in RT, almeno nei titoli futuri visto che inizierà a diffondersi di più a partire da adesso, visto che lo supportano anche le scatolette. Ma questo solo il futuro può dirlo, oggi ripeto, la situazione è esattamente questa se si è obiettivi e intellettualmente onesti...

Più leggo questo post e più mi convinco che non c'è nulla da aggiungere ne da sottrarre. Si potrebbe fare qualche modifica alla punteggiatura ma a livello di contenuti è inoppugnabile.

Ale55andr0 28-11-2020 22:07

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47133309)

Allora vedi che nvidia fa bene a metterti 10 giga sulla top? e tu che la criticavi :asd: per il discorso rt, chi si aspetta perf scarse non ha capito bene la situazione, e non ha visto che tutta la roba nuova è tarata su rdna2, non certo sui due techdemo azzoppa amd fatti dalla spinoff su ue4


io ho sempre e solo lamentato gli 8 della 3070 :read:, e lo sa anche l'ultimo degli utenti del thread verde per quante volte credo di averlo ripetuto :asd:. Della 3080 ho sempre detto quello che ho detto sopra, che 10gb sono sufficienti perchè sono quello che avranno più o meno a disposizione le nuove console dei 16 a loro disposizione una volta sottratte le risorse per il SO e per il codice di gioco che comprende audio, ia, fisica ecc.. Certo ho anche detto che con 12 sarebbe stata meglio col bus full 384, ma non mi sono mica lamentato :asd:
Ah e il 3dmark non è una "tech demo che azzoppa amd", sennò non postavi tutto "trionfante" i sintetici della stessa casa quando erano a favore della 6800 o no? cos'è, azzoppano amd o sono veritieri a convenienza tua a sconda del risultato? quello dedicato all'rtx, è fatto dalla medesima software house e non è sponsorizzato nvidia, anzi, nella stessa pagina di presentazione dello stesso hanno fatto un bocchino ad amd dicendo "l'egemonia di nividia in rtx è finita"...solo che poi il risultato prodotto da amd non ha supportato l'assist che le avevano fatto con un risultato sconcertante: va la metà.
La roba nuova tarata su rdna 2 significa che girerà anche su AMD in versione "low setting", non che andrà meglio su PC. Vediamo come evolverà, di certo sarebbe positivo, ma per la miliardesima volta, OGGI, non è cosi.
A ogni modo, spero che un giorno all'altro il tuo per nulla cringe e insensato attaccamento per un'azienda che non sa manco che esisti trovi una spiegazione sensata, no perchè tu parli, parli, parli per difenderli come fossero tuoi parenti e poi non gli compri manco na cpu da che han fatto il primo ryzen che tanto hai vantato e al massimo gli prendi i fermacarte come la 580 ogni papa morto...gli spezzeresti il cuore a lisona se solo sapesse :O

Fabbry 28-11-2020 22:07

Mi permetto di fare una considerazione dopo aver letto centinaia di post.

Premetto che anche io sono molto indeciso su quale sara' la prossima scheda (andro' a sostituire una evga 1080ti che rulla con 9900K@5000 all core su un Alienware AW3418DW 3440x1440@120mhz), e tuttora le idee sono confuse.

Partiamo dal presupposto che se uscisse una 3080ti 20 GB a 900 euro si taglierebbe la testa al toro ......... :D :D

Ragioniamo sulle due antagoniste 3080 vs 6800xt.....
Oramai si e' eviscerato tutti i pro ed i contro di una e dell' altra.
La realta e' che i prezzi sono stragonfiati se non addirittura irreali.
Pero' nessuno ha fatto notare una cosa... vi e' sfuggito il periodo in cui siamo entrati? Lasciamo perdere sto cazzo di Covid che secondo me centra poco con l' hardware, siamo praticamente alle porte del Natale ...

Ma lasciano perdere la scimmia che e' in noi

cosa ci siamo sempre detti tra smaliziati consumer.... che questo e' il peggior periodo per comprare hardware.... ce lo siamo dimenticati tutti?
Da Novembre a tutto Gennaio il periodo peggiore, poi dopo si comincia pian piano a rientrare nella normalita' e poi fine primavera e' il periodo migliore, intendo sotto profilo del mercato prezzi disponibilita'.

Quindi perche' tanto meravigliarci della situazione attuale, studiata ben bene dai vari marketing aziendali per mettercela in quel :ciapet:

Ora e' chiaro che la 3080 tuf a 739 come i preordini a settembre permettevano (preordini sian ben chiaro) o 6800xt a 685 come alcuni fortunati sono riusciti ad avere sono prezzi accettabili e che la scelta ricade secondo me sulla prima delle due che uno riesce ad avere. La differenza di prezzo ci sta, da una parte RT dall altra piu ram.

Ma tutti gli altri prezzi non sono nemmeno da considerare.. e non parliamo poi dei prezzi di AMD che hanno fatto uscire; ma seriamente pensate di comprare una scheda a quel prezzo?

Big Navi e' sicuramente un ottimo progetto, un ottimo prodotto (se riesco la prendero' pure io) ma deve costare comunque dai 50~100 in meno della 3080 altrimenti siamo fuori

Questo per dirvi ed anche per AUTOCONVICERMI :sofico: aspettiamo aspettiamo e compriamo la prima che viene disponibile al prezzo giusto.

E che la scimmia sia sempre con NOI !!!!!

Fabrizio

EdMetal 28-11-2020 22:09

Quote:

Originariamente inviato da DJurassic (Messaggio 47133364)
Più leggo questo post e più mi convinco che non c'è nulla da aggiungere ne da sottrarre. Si potrebbe fare qualche modifica alla punteggiatura ma a livello di contenuti è inoppugnabile.

Io anche son d'accordo con Ale55andr0, oggettivamente AL MOMENTO la 3080 è una scheda migliore della 6800xt, è più completa sotto quasi tutti i punti di vista.
Poi logico, se riesci a prendere una 6800xt all'msrp e per le 3080 vogliono 800€ e forse ti arriva fra un mese o due, lì si possono fare altre valutazioni...
Resta il fatto che amd finalmente ha tirato fuori una roba paragonabile nella fascia enthusiast, non succedeva da tipo 10 anni, io mi accontenterei di quello, considerando il salto generazionale han fatto un miracolo

Blee 28-11-2020 22:26

Quote:

Originariamente inviato da EdMetal (Messaggio 47133391)
Io anche son d'accordo con Ale55andr0, oggettivamente AL MOMENTO la 3080 è una scheda migliore della 6800xt, è più completa sotto quasi tutti i punti di vista.
Poi logico, se riesci a prendere una 6800xt all'msrp e per le 3080 vogliono 800€ e forse ti arriva fra un mese o due, lì si possono fare altre valutazioni...
Resta il fatto che amd finalmente ha tirato fuori una roba paragonabile nella fascia enthusiast, non succedeva da tipo 10 anni, io mi accontenterei di quello, considerando il salto generazionale han fatto un miracolo




Sono post su post che lo dico e mi avete ignorato in modo spregevole :D :D :D

Ale55andr0 28-11-2020 22:27

Quote:

Originariamente inviato da Fabbry (Messaggio 47133390)

Big Navi e' sicuramente un ottimo progetto, un ottimo prodotto (se riesco la prendero' pure io) ma deve costare comunque dai 50~100 in meno della 3080 altrimenti siamo fuori

Fabrizio

:mano:

OvErClOck82 28-11-2020 22:33

Quote:

Originariamente inviato da EdMetal (Messaggio 47133391)
Io anche son d'accordo con Ale55andr0, oggettivamente AL MOMENTO la 3080 è una scheda migliore della 6800xt, è più completa sotto quasi tutti i punti di vista.
Poi logico, se riesci a prendere una 6800xt all'msrp e per le 3080 vogliono 800€ e forse ti arriva fra un mese o due, lì si possono fare altre valutazioni...
Resta il fatto che amd finalmente ha tirato fuori una roba paragonabile nella fascia enthusiast, non succedeva da tipo 10 anni, io mi accontenterei di quello, considerando il salto generazionale han fatto un miracolo

in raster vanno in modo simile, col SAM probabilmente la 6800xt ne ha un po' di più.. per il resto consuma di più, si overclocca meno, ha meno ram... che non sia un brutto prodotto in assoluto ok, ma completa sotto quasi tutti i punti di vista, francamente, mi sembra un'esagerazione.

Blee 28-11-2020 22:39

Quote:

Originariamente inviato da OvErClOck82 (Messaggio 47133419)
in raster vanno in modo simile, col SAM probabilmente la 6800xt ne ha un po' di più.. per il resto consuma di più, si overclocca meno, ha meno ram... che non sia un brutto prodotto in assoluto ok, ma completa sotto quasi tutti i punti di vista, francamente, mi sembra un'esagerazione.

Quanto consuma di più?

AkiraFudo 28-11-2020 22:42

Quote:

Originariamente inviato da DJurassic (Messaggio 47133364)
Più leggo questo post e più mi convinco che non c'è nulla da aggiungere ne da sottrarre. Si potrebbe fare qualche modifica alla punteggiatura ma a livello di contenuti è inoppugnabile.

e madò stampatelo.. :D


Che 10GB siano sufficienti l'avevo scritto. Certo se spendi certe cifre avere un serbatoio future proof schifo non fa.

Sui consumi parliamo di 60-70Watt quando ti va bene.. non sono pochi, e in OC con 3080 arriveresti a 400W.. Quindi altro piccolo potenziale vantaggio in performance che comunque va considerato anche se poi a te non interessa.

RT di oggi vale come il 2 di picche. Per te è indispensabile ma per altri attualmente è una mezza crepa.

Sono 70 usd sul prezzo. La 3080 reference a 699 dove sarebbe?? Non esiste, e chi la comprerebbe? Hanno tutte per forza dei dissipatori custom generosi. E la reference di AMD ha un dissipatore di qualità non un blower, puoi considerarla alla pari della "FE". Per me è giusto paragonare 649 a 719 e visto che costano molto, un 10% di sconto schifo non fa.

Sicuramente ci sono molte altre differenze sia a favore e contro di entambe da valutare.

La mia risposta non voleva essere una polemica verde rossa ; rispetto la tua preferenza e quella di alessandro ma è l'affermare: "lo dicono i numeri, non i secondo me" ad essere "intelletualmente disonesto" ed "oppugnabile".

Secondo me la 6800xt è preferibile, sono libero di avere i miei motivi. Tu sei libero di pensare che "secondo te" io sia uno stolto; non mi offendo.

EdMetal 28-11-2020 22:43

Quote:

Originariamente inviato da OvErClOck82 (Messaggio 47133419)
in raster vanno in modo simile, col SAM probabilmente la 6800xt ne ha un po' di più.. per il resto consuma di più, si overclocca meno, ha meno ram... che non sia un brutto prodotto in assoluto ok, ma completa sotto quasi tutti i punti di vista, francamente, mi sembra un'esagerazione.

Io parlo dal punto di vista dell'utilizzatore medio e non di noi "smanettatori seriali", uno che vuole una scheda come la 3080 sicuramente non guarda i consumi, la ram prima che non bastino 10gb secondo me siamo già a rdna4, l'overclock ti do ragione, ma son finezze.
Sottolineo poi il "AL MOMENTO" del mio precedente commento, è possibile che con il tempo la 6800xt si riveli più prestante causa driver/più ram, ma attualmente sta sotto la 3080. Poi ripeto, li ritengo due prodotti assolutamente comparabili, son nella stessa fascia, non è che una sia merda l'altra sia cioccolata.

E riallacciandomi ad un paio di commenti visti in qualche pagina fa, si dice sempre peste e corna del software amd, ma nvidia quando si decide di passare al nuovo millennio?
Ho provato una 2060 per un po', l'interfaccia geforce sembra targata 1998, ma come mai sta cosa?

Blee 28-11-2020 22:46

Quote:

Originariamente inviato da EdMetal (Messaggio 47133430)
Io parlo dal punto di vista dell'utilizzatore medio e non di noi "smanettatori seriali", uno che vuole una scheda come la 3080 sicuramente non guarda i consumi, la ram prima che non bastino 10gb secondo me siamo già a rdna4, l'overclock ti do ragione, ma son finezze.
Sottolineo poi il "AL MOMENTO" del mio precedente commento, è possibile che con il tempo la 6800xt si riveli più prestante causa driver/più ram, ma attualmente sta sotto la 3080. Poi ripeto, li ritengo due prodotti assolutamente comparabili, son nella stessa fascia, non è che una sia merda l'altra sia cioccolata.

E riallacciandomi ad un paio di commenti visti in qualche pagina fa, si dice sempre peste e corna del software amd, ma nvidia quando si decide di passare al nuovo millennio?
Ho provato una 2060 per un po', l'interfaccia geforce sembra targata 1998, ma come mai sta cosa?


L'interfaccia AMD è fantastica, mi mancherà:)


Tutti gli orari sono GMT +1. Ora sono le: 20:35.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.