Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


Gyammy85 19-07-2021 09:54

Quote:

Originariamente inviato da Esagerao (Messaggio 47486565)
Tutte conclusioni valide che apprezzo e condivido, rimane il fatto che partendo dalle 6800xt/3080, entrambe pagano il famoso 10% rispetto a 6900xt/3080ti le sorelle maggiori (come logico step di prezzo più alto tralasciando la 3090).
Quindi a parte il caro prezzo e differenza , che ognuno può ritenere giustificato o meno, anche in casa nvidia lo step in upgrade di prestazioni è del 10%, quindi comparabile con amd.

Naturalmente c'è chi lo ritiene ingiustificato o chi come me unitamente all'overclock vuole e pretende prestazioni assolute senza compromessi.

Inoltre poi entrano in campo le variabili tecniche come abbinamento cpu, monitor assolutamente rilevanti ai fini della scelta.

In nessun sito hardware raccomandano nè la 6900/3080ti rispetto a 6800/3080 (reperibilità permettendo).

Occorre precisare che una 6900xt dal sito amd costa quanto una 3070 :asd:

incorreggiubile 19-07-2021 10:03

Quote:

Originariamente inviato da alexgti (Messaggio 47486544)
Bello il confrontro DLSS e FSR, ho imparato un sacco di cosette!
Una cosa è certa però, il DLSS riesci a fare i capelli meglio dell'immagine nativa...

Il motivo l'ho detto prima ;)

FSR cmq si è mangiato tutte le tecniche "classiche" di upscaling in un colpo solo.

Gyammy85 19-07-2021 10:08

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47486596)
Il motivo l'ho detto prima ;)

FSR cmq si è mangiato tutte le tecniche "classiche" di upscaling in un colpo solo.

Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati

Esagerao 19-07-2021 10:10

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47486575)
Occorre precisare che una 6900xt dal sito amd costa quanto una 3070 :asd:


Guarda non mi parlare di soldi che ho donato un rene per la ultimate nonostante il ricavato della 2080ti.
Lavorando non sarei mai riuscito a prendermi una radeon 6900 il giovedì sul sito amd a (prezzo di fabbrica) non avendo tempo...

Se consideriamo inizio luglio, tagliando fuori amz per assenza schede, e considerando il resto del mondo dei negozi web con prezzi pazzi e tutte schede fittizie, finite , da riassortire o solo presso fornitori con tutte le variabili del caso,
ho deciso di prendere questa con il motto pago e spedisci subito in quanto fisicamente disponibile che del resto rimane la mia filosofia e-shopping...

So di essere stato fin troppo eroico (pirla), ma poi nell'ergonomia di spese annuali ho dovuto considerare ferie settembre, e a ottobre tagliando e gomme nuove...

Esagerao 19-07-2021 10:16

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47486608)
Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati

Concordo totalmente, creare un qualcosa che non c'è quasi un bleff astuto e geniale.

manu89ft 19-07-2021 10:33

Giocando a Resident evil Village in 4k tutto maxato ho visto che usa quasi 13Gb di ram della scheda dicono le impostazioni! Paura :D

Comunque funziona davvero bene anche questo titolo!

ray_hunter 19-07-2021 10:39

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47486608)
Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati

Il DLSS non si inventa niente, semplicemente viene allenta con immagini a risoluzioni molto alte dove vi sono più dettagli che in 4K.

Detto questo però vi posso dire che a mio avviso, dopo aver provato il gioco sulla mia scheda e su 2070 super, FSR fa meglio in alcune texture.
Quello che però avvantaggia DLSS è l'antialiasing temporale che rende l'immagine più stabile.
In linea di massima, in 4K, DLSS quality vs FSR Ultra sono davvero molto vicini i risultati, e io noto differenze solo zoomando le immagini e solo in alcune cose come fili sottili e capelli.
Se passiamo al 1440P sempre con DLSS quality e FSR ultra il DLSS produce un'immagine più stabile.

Io credo che se AMD vorrà investire per un'analisi non solo spaziale ma anche temporale con FSR 2.0 sarà possibile avere davvero risultati strepitosi

ninja750 19-07-2021 10:44

Quote:

Originariamente inviato da alexgti (Messaggio 47486544)
Bello il confrontro DLSS e FSR, ho imparato un sacco di cosette!
Una cosa è certa però, il DLSS riesci a fare i capelli meglio dell'immagine nativa...

beh non c'è dubbio io mi farei solo la tipa DLSS

che cessa la FSR





oh sono in ufficio col 24" FHD e fatico a trovare differenze pure appoggiando il naso allo schermo: l'unico punto in cui il DLSS è notevolmente meglio fissando per un po l'immagine è la ciocca di capelli sulla sx sopra al colletto verde

indicatemene altre per favore

alexgti 19-07-2021 10:45

Quote:

Originariamente inviato da Esagerao (Messaggio 47486565)
Tutte conclusioni valide che apprezzo e condivido, rimane il fatto che partendo dalle 6800xt/3080, entrambe pagano il famoso 10% rispetto a 6900xt/3080ti le sorelle maggiori (come logico step di prezzo più alto tralasciando la 3090).
Quindi a parte il caro prezzo e differenza , che ognuno può ritenere giustificato o meno, anche in casa nvidia lo step in upgrade di prestazioni è del 10%, quindi comparabile con amd.

Naturalmente c'è chi lo ritiene ingiustificato o chi come me unitamente all'overclock vuole e pretende prestazioni assolute senza compromessi.

Inoltre poi entrano in campo le variabili tecniche come abbinamento cpu, monitor assolutamente rilevanti ai fini della scelta.

In nessun sito hardware raccomandano nè la 6900/3080ti rispetto a 6800/3080 (reperibilità permettendo).

si infatti ho sempre detto che con il mercato attuale ormai sono concetti filosofici :D
Di sicuro le 6900xt sono tutte binnate e con potenziali di overclock più alti rispetto alla 6800xt che in fin dei conti è quasi sempre una 6900 difettosa. Poi oh ci stanno pure le 6800xt che vanno a 2700mhz ma si contano sulle dita di una mano.

alexgti 19-07-2021 10:47

Quote:

Originariamente inviato da ninja750 (Messaggio 47486676)
beh non c'è dubbio io mi farei solo la tipa DLSS

che cessa la FSR





oh sono in ufficio col 24" FHD e fatico a trovare differenze pure appoggiando il naso allo schermo: l'unico punto in cui il DLSS è notevolmente meglio fissando per un po l'immagine è la ciocca di capelli sulla sx sopra al colletto verde

indicatemene altre per favore

devi guardare le punte dei capelli, il DLSS fa scuola in questo caso!

Gyammy85 19-07-2021 10:49

Quote:

Originariamente inviato da ray_hunter (Messaggio 47486665)
Il DLSS non si inventa niente, semplicemente viene allenta con immagini a risoluzioni molto alte dove vi sono più dettagli che in 4K.

Detto questo però vi posso dire che a mio avviso, dopo aver provato il gioco sulla mia scheda e su 2070 super, FSR fa meglio in alcune texture.
Quello che però avvantaggia DLSS è l'antialiasing temporale che rende l'immagine più stabile.
In linea di massima, in 4K, DLSS quality vs FSR Ultra sono davvero molto vicini i risultati, e io noto differenze solo zoomando le immagini e solo in alcune cose come fili sottili e capelli.
Se passiamo al 1440P sempre con DLSS quality e FSR ultra il DLSS produce un'immagine più stabile.

Io credo che se AMD vorrà investire per un'analisi non solo spaziale ma anche temporale con FSR 2.0 sarà possibile avere davvero risultati strepitosi

Solo su quei capelli però ma guarda il caso, e spammato ovunque col ritaglio viola, casomai non si notasse...mi spiace ma non ci credo...tipo rdr2 dove alcune scritte sulle insegne non si leggono bene, lì la megares non l'hanno usata?

Esagerao 19-07-2021 10:50

Qualcuno ha avuto problemi con i flight sim 2020? O conosce potenziali soluzioni?

Tutti i test e giochi senza problemi eccetto questo simulatore che random entro poco dall'avvio va in crash to desktop.
Con la 2080ti mai avuto problemi.
Ps anche con gli ultimi drivers 21.7.1

ray_hunter 19-07-2021 10:54

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47486686)
Solo su quei capelli però ma guarda il caso, e spammato ovunque col ritaglio viola, casomai non si notasse...mi spiace ma non ci credo...tipo rdr2 dove alcune scritte sulle insegne non si leggono bene, lì la megares non l'hanno usata?

Su tutti i capelli di ogni personaggio, non solo su quelli. Anche sui fili sottili, es. ponte in lontananza.

Cmq a mio parere la godibilità del titolo è del tutto identica. Giocando, ma anche soffermandosi a guardare le immagini davvero difficile ravvisare differenze tra i due.

ninja750 19-07-2021 11:01

Quote:

Originariamente inviato da alexgti (Messaggio 47486684)
devi guardare le punte dei capelli, il DLSS fa scuola in questo caso!

ok ma sempre seriamente: com'è possibile che sembra più capelluta in nativa e più pelata con DLSS sulla fronte?

ma in effetti in quel punto FSR si è comportato male

incorreggiubile 19-07-2021 11:06

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47486608)
Mi piacerebbe sapere come fa il dlss a inventarsi cose che non ci sono neanche a nativa, o è semplicemente un trucchetto dei "divelopers" che attivano texture migliori appena spunti il dlss...immagine ritagliata in modo tale da non far vedere cosa succede al resto della scena...sono i soliti ottimi confronti certificati

Fare un corso sulle reti neurali e su come funziona l'accoppiata training/inferenza? :D
Attenzione a capire bene la backpropagation ( https://it.wikipedia.org/wiki/Retrop..._dell%27errore ) , altrimenti non si capisce dove starebbe la componente di apprendimento.

DLSS si allena a risoluzioni molto più alte di 4K e l'inferenza permette di capire dove/come poi agire sul dettaglio.

Ma la cosa veramente bella è che quanto la rete impara "essere adeguato" in ambito visivo poi può essere usato pure altrove (questa è la parte dove l'apprendimento dà infine elasticità)

ninja750 19-07-2021 11:08

i prezzi della VGA tornano a risalire



https://videocardz.com/newz/nvidia-r...ers-a-slowdown

Gyammy85 19-07-2021 11:10

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47486711)
Fare un corso sulle reti neurali e su come funziona l'accoppiata training/inferenza? :D

Mannaggia non ci avevo pensato, dipende tutto da inference training con stimatori BLUE, e difatti la tipa ha gli occhi blu, lampante...come physics su metro 2033, che necessitava della potenza di cuda cores per girare a più di 5 fps e poi si è scoperto che invece girava uguale via software

incorreggiubile 19-07-2021 11:14

Quote:

Originariamente inviato da Esagerao (Messaggio 47486625)
Concordo totalmente, creare un qualcosa che non c'è quasi un bleff astuto e geniale.

BLEFF? :D Tipo inventarsi la lingua? :sofico:

incorreggiubile 19-07-2021 11:16

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47486722)
Mannaggia non ci avevo pensato, dipende tutto da inference training con stimatori BLUE, e difatti la tipa ha gli occhi blu, lampante...come physics su metro 2033, che necessitava della potenza di cuda cores per girare a più di 5 fps e poi si è scoperto che invece girava uguale via software

Questo perchè in realtà si era già nella fase in cui PhysX era ottimizzato per CPU SSE/AVX ma se non veniva trovata nel sistema una GPU NVidia veniva usato il path x87. Il che non significa minimamente che in certi casi la GPU dedicata alla fisica non serva, semplicemente si è sempre preferito evitare di renderla veramente importante nell'equazione. Si può fare eh.....

Gyammy85 19-07-2021 11:18

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47486733)
Questo perchè in realtà si era già nella fase in cui PhysX era ottimizzato per CPU SSE/AVX ma se non venita trovata una GPU NVidia veniva usato il path x87. Il che non significa minimamente che in certi casi la GPU dedicata alla fisica non serva, semplicemente si è sempre preferito evitare di renderla veramente importante nell'equazione. Si può fare eh.....

Resta il fatto che era la solita features esclusiva che non poteva in alcun modo girare diversamente, strano che tutto avvenga sempre con una cadenza regolare


Tutti gli orari sono GMT +1. Ora sono le: 22:13.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.