Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


ray_hunter 04-06-2021 14:50

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431839)
Quella implementazione di VSR non era vera "VSR" ma solo downsampling in-engine. VSR dovrebbe funzionare in modo intelligente, e dinamico cioè "capendo" le parti della scena che richiedono una maggior frequenza di aggiornamento degli shader applicati da quelli necessitanti frequenza minore.

Dai video di promozione di AMD però si evince, diversamente da quanto stia dicendo, che va a ridurre la qualità di shading solo in zone dove non vi è un focus percezionale e solo in movimento.
Mi sembra un metodo intelligente e simile ai concetti di compressione video che si applicano in fase di codifica della compressione...

A me sinceramente non dispiace affatto come concetto. Ti becchi il max dettaglio sullo statico ma se c'è una scena con movimento elevato dove è impossibile percepire differenze di dettaglio va ad incrementare le prestazioni.

Mi ricordano tanto le QMF che usavo per comprimere i video in Xvid o x264:D :D :D :D

incorreggiubile 04-06-2021 14:53

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47431882)
No figurati, un semplicissimo variable rate shading

Ecco un video di warzone a 4k ultra+rt con radeon boost e vrs

https://www.youtube.com/watch?v=z87bgS01X_U&t=301s

Minuto 2 e 50

Ehm, VSR non riguarda il numero di pixel effettivi della scena ma solo quelli a cui viene applicato un aggiornamento dello shader.
Radeon Boost (che uso con Borderlands 3) semplicemente fa downsampling e piuttosto brutale se non c'è un filtro temporale (TAA/TXAA o Motion Blur) a "nascondere" gli artefatti.

Davvero, non confondete VSR con un downsampling solo perchè in Metro hanno messo lo stesso nome :asd:

VSR è una cosa estremamente più complessa e non per niente il supporto va oltre alle specifiche delle DX 12.1

incorreggiubile 04-06-2021 14:54

Quote:

Originariamente inviato da ray_hunter (Messaggio 47431886)
Mi ricordano tanto le QMF che usavo per comprimere i video in Xvid o x264:D :D :D :D

E' quello infatti eh, solo applicato allo shading e non all'immagine già esistente (il frame che ancora non c'è)
Il paragone migliore è con h265 cmq.

E' qualcosa che riguarda l'aggiornamento dei pixel della scena più che il loro numero nel frame (numero di pixel aggiornati vs numero di pixel totali del frame).

E come dicevo richiede GPU con supporto alla tecnologia che va oltre le specifiche 12.1, per questo quello di Metro (non EE) non c'entrava nulla ma semplicemente usarono lo stesso nome per del normalissimo downsampling in-engine.

ray_hunter 04-06-2021 14:56

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431891)
Ehm, VSR non riguarda il numero di pixel effettivi della scena ma solo quelli a cui viene applicato un aggiornamento dello shader.
Radeon Boost (che uso con Borderlands 3) semplicemente fa downsampling e piuttosto brutale se non c'è un filtro temporale (TAA/TXAA o Motion Blur) a "nascondere" gli artefatti.

Davvero, non confondete VSR con un downsampling solo perchè in Metro hanno messo lo stesso nome :asd:

VSR è una cosa estremamente più complessa e non per niente il supporto va oltre alle specifiche delle DX 12.1

Continui a chiamarlo VSR ma si chiama VRS. Quello della riduzione di risoluzione si applica ai giochi DX11. Il VRS lo hanno implementato da poco, tipo 2 release di driver fa e non scala la risoluzione.

incorreggiubile 04-06-2021 15:01

Non ci stiamo capendo.

VSR è 2 cose:

*Virtual Super Resolution (che è downscaling a livello del dialogo GPU-monitor)
*Variable Shader Rate che fa parte delle DX come specifica

Il secondo lo puoi chiamare anche Variable Rate Shading che è la stessissima cosa di quello che intendevo io.

Il primo è banale dowsampling appunto e nel 4A Engine di Metro hanno usato 2) per chiamare 1) - dovete prendervela con loro, mica con me :p

Qui c'è tutta la spiegazione (più di un anno fa): https://www.hwupgrade.it/articoli/sk...vrs_index.html

incorreggiubile 04-06-2021 15:08

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431913)
.

Il primo è banale dowsampling appunto e nel 4A Engine di Metro hanno usato 2) per chiamare 1) - dovete prendervela con loro, mica con me :p

Toh, la prova :D



Uno appunto è portato a pensare che sia il VRS questo (V)SR in quanto c'è scritto "Shading Rate" ma in realtà era solo downsampling in-engine (cioè paradossalmente come il VSR appunto, magari era una trollata voluta)

Nella EE invece c'è la versione "giusta", VRS/VSR autentico inteso come "shading rate", non come "super resolution" :p
Io rispondevo a chi ha fatto l'esempio di "Metro non EE" infatti, non sapendo che in realtà era banale downsampling pur avendo la dicitura "shading rate".

incorreggiubile 04-06-2021 15:41

https://gpuopen.com/fsr-announce/

Fixed and arbitrary scaling supported.

:asd: :asd: :asd:

Ci sarà lo sliderone :sofico:
A meno che AMD abbia assunto dei geni della matematica e dell'ottimizzazione (sarà eseguito come shader, dai, c'è solo da capire a che punto della pipeline di rendering per questo necessita di supporto in-engine anche se facilmente integrabile) la vedo dura avere un'ottima qualità dell'immagine E scaling arbitrario insieme :stordita: :fagiano:
2 giorni dopo lo vedrete come shader applicabile via reshade, artefatti da posizione nella pipeline a parte. Col CAS è successo così :D

floop 05-06-2021 08:44

ma il Radeon Boost come funziona???

c'entra qualcosa con FSR?

Gigibian 05-06-2021 08:55

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431972)
https://gpuopen.com/fsr-announce/

Fixed and arbitrary scaling supported.

:asd: :asd: :asd:

Ci sarà lo sliderone :sofico:
A meno che AMD abbia assunto dei geni della matematica e dell'ottimizzazione (sarà eseguito come shader, dai, c'è solo da capire a che punto della pipeline di rendering per questo necessita di supporto in-engine anche se facilmente integrabile) la vedo dura avere un'ottima qualità dell'immagine E scaling arbitrario insieme :stordita: :fagiano:
2 giorni dopo lo vedrete come shader applicabile via reshade, artefatti da posizione nella pipeline a parte. Col CAS è successo così :D

Vabbè, una ca*ata immane...assurdo che hanno creato una roba tanto banale...

incorreggiubile 05-06-2021 09:13

Quote:

Originariamente inviato da floop (Messaggio 47432587)
ma il Radeon Boost come funziona???

c'entra qualcosa con FSR?

Fa una stima di velocità e accelerazione lungo gli assi del mouse e in relazione a quella (banale proporzione?) downscala il frame con un limite inferiore che setti nel pannello dei driver (100% -> 66% -> 50%).
Fa l'opposto dell'upscaling, parte da una risoluzione alta e la riduce quando c'è meno possibilità di accorgersi della riduzione conseguente di dettaglio, cioè durante movimenti rotatorii.

Tecnologia esistente già nell'Unreal Engine 1.5 (Deus Ex Invisible War / Thief Deadly Shadows) creata in funzione dei limiti della prima XBOX, operante a livello del viewport.

E' visivamente accettabile SOLO con T(X)AA attivo o meglio ancora il motion blur. O entrambi. Cosa che ne porta l'interesse per il PCGamer medio a.....0.

A meno che uno giochi in 4K su monitor 24 pollici.
Col 24 QHD si nota ahimè ancora troppo......(a quel punto preferiscon l'integer scaling per uniformità di segnale e conservazione del dettaglio, se poi alla fine della catena devo proprio metterci il T(X)AA - ad esempio in Breakpoint non c'è altra alternativa per l'AA )

incorreggiubile 05-06-2021 09:19

Quote:

Originariamente inviato da Gigibian (Messaggio 47432594)
Vabbè, una ca*ata immane...assurdo che hanno creato una roba tanto banale...

Non è detto che lo sia, dipende dal ricostruttore usato (l'oggettino matematico che si occupa di "generare" pixel per pixel il segnale upscalato).
E dalla sensibilità personale, un po' come per il ricampionamento audio (non è detto che la tua sensibilità personale vada di pari passo con i criteri matematici, c'è di mezzo il training sensoriale che ti porta ad apprezzare magari cose "matematicamente errate" ma che il tuo cervello via occhio/orecchio impara ad apprezzare e che lo soddisfano - c'è gente che abituata al Nearest-neighbor filtering degli anni '90 odia ancora oggi bilinear, trilinear e anisotropic filtering perchè "E' TUTTO SMARMELLATO!!1111" cit. l'utente di prima :D :D :D ).

incorreggiubile 05-06-2021 10:57

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47430900)
meglio ancora in Quake 2 RTX.

Ricordo che il Temporal Upscaling in Q2RTX ha un'implementazione *AGNOSTICA*, è totalmente indipendente dai tensor core che si occupano del DLSS (che non c'è in Q2 RTX penso per limiti dell'engine che è quello di Q2 Pro di base).

Secondo me è già un ottimo esempio di upscaling "intelligente" senza alcun bisogno di AI :)

1920x1080 100% + Temporal AA:




1920x1080 50% (960x540!) + Temporal Upscaling (e AA):




Per questo servono i motion vector (forniti dall'engine) e basta.....mi stupirei se FSR riuscisse a fare di meglio di così.

floop 05-06-2021 11:03

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47432608)
Fa una stima di velocità e accelerazione lungo gli assi del mouse e in relazione a quella (banale proporzione?) downscala il frame con un limite inferiore che setti nel pannello dei driver (100% -> 66% -> 50%).
Fa l'opposto dell'upscaling, parte da una risoluzione alta e la riduce quando c'è meno possibilità di accorgersi della riduzione conseguente di dettaglio, cioè durante movimenti rotatorii.

Tecnologia esistente già nell'Unreal Engine 1.5 (Deus Ex Invisible War / Thief Deadly Shadows) creata in funzione dei limiti della prima XBOX, operante a livello del viewport.

E' visivamente accettabile SOLO con T(X)AA attivo o meglio ancora il motion blur. O entrambi. Cosa che ne porta l'interesse per il PCGamer medio a.....0.

A meno che uno giochi in 4K su monitor 24 pollici.
Col 24 QHD si nota ahimè ancora troppo......(a quel punto preferiscon l'integer scaling per uniformità di segnale e conservazione del dettaglio, se poi alla fine della catena devo proprio metterci il T(X)AA - ad esempio in Breakpoint non c'è altra alternativa per l'AA )

parli del boost?

quindi io con la 6700xt e un 27" 1440p mi conviene?

incorreggiubile 05-06-2021 16:11

Quote:

Originariamente inviato da floop (Messaggio 47432734)
parli del boost?

->
Quote:

ma il Radeon Boost come funziona???
:mbe: :fagiano:

Quote:

quindi io con la 6700xt e un 27" 1440p mi conviene?
Vedresti tutto sgranato a meno di filtrare pesantemente il segnale con MB o TAA.
Francamente lo consiglio solo a chi ha un 24" 4K. Senza considerare che ad esempio nei giochi di guida, RPG/RTS top-down è perfettamente inapplicabile.

Ma non vedo il problema, riguarda solo 4 giochi in croce.
Spera piuttosto per l'FSR. Magari AMD fa davvero la magia......non dico che matematicamente sia impossibile, in sostanza di tratta di "vettorializzare" la coda di frame in output.....certo che insospettisce molto il fatto che venga dichiarato "spatial upscaling" allora, come ad intendere che non venga presa in considerazione la correlazione fra un frame e l'altro. E' una dimensione decisamente utile (vedi risultati che ho postato sopra da Q2 RTX).

Gigibian 05-06-2021 17:54

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47432614)
Non è detto che lo sia, dipende dal ricostruttore usato (l'oggettino matematico che si occupa di "generare" pixel per pixel il segnale upscalato).
E dalla sensibilità personale, un po' come per il ricampionamento audio (non è detto che la tua sensibilità personale vada di pari passo con i criteri matematici, c'è di mezzo il training sensoriale che ti porta ad apprezzare magari cose "matematicamente errate" ma che il tuo cervello via occhio/orecchio impara ad apprezzare e che lo soddisfano - c'è gente che abituata al Nearest-neighbor filtering degli anni '90 odia ancora oggi bilinear, trilinear e anisotropic filtering perchè "E' TUTTO SMARMELLATO!!1111" cit. l'utente di prima :D :D :D ).

Che ero sempre io quell'utente ...ed in origine era una citazione dal telefilm "Boris" :D

Bi/Tri linear sono filtri preistorici e non implementano niente di particolarmente innovativo per l'upscaling.

Per ricostruire in maniera sensata un'immagine serve sempre partire da info aggiuntive (come ad esempio i motion vector ) , se queste non sono presenti è.impossibile fare qualcosa di decente probabilmente...

Gigibian 05-06-2021 17:56

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47433030)
->

:mbe: :fagiano:


Vedresti tutto sgranato a meno di filtrare pesantemente il segnale con MB o TAA.
Francamente lo consiglio solo a chi ha un 24" 4K. Senza considerare che ad esempio nei giochi di guida, RPG/RTS top-down è perfettamente inapplicabile.

Ma non vedo il problema, riguarda solo 4 giochi in croce.
Spera piuttosto per l'FSR. Magari AMD fa davvero la magia......non dico che matematicamente sia impossibile, in sostanza di tratta di "vettorializzare" la coda di frame in output.....certo che insospettisce molto il fatto che venga dichiarato "spatial upscaling" allora, come ad intendere che non venga presa in considerazione la correlazione fra un frame e l'altro. E' una dimensione decisamente utile (vedi risultati che ho postato sopra da Q2 RTX).

A naso se venisse presa in considerazione la cosa di frame (tipo negli algo video MPEG &co) si sarebbe necessariamente un delay aggiuntivo, corretto ?

incorreggiubile 05-06-2021 20:31

Quote:

Originariamente inviato da Gigibian (Messaggio 47433132)
Che ero sempre io quell'utente ...ed in origine era una citazione dal telefilm "Boris" :D

Bi/Tri linear sono filtri preistorici e non implementano niente di particolarmente innovativo per l'upscaling.

Per ricostruire in maniera sensata un'immagine serve sempre partire da info aggiuntive (come ad esempio i motion vector ) , se queste non sono presenti è.impossibile fare qualcosa di decente probabilmente...

Quello dei filtraggi di texture era un esempio per dire che c'è gente che li disprezza, anisotropo (in italiano è anisotropo) compreso, perchè ha la sensibilità visiva "educata" al nearest-neighbor degli anni '90. Che poi è tornato di moda (Dusk, Prodeus, Graven, ecc. ecc. ecc.)

Anche per l'upscaling c'è da considerare la sensibilità individuale da "abitudine" (mi pareva chiara l'analogia e che fosse appunto una analogia).

incorreggiubile 05-06-2021 20:34

Quote:

Originariamente inviato da Gigibian (Messaggio 47433136)
A naso se venisse presa in considerazione la cosa di frame (tipo negli algo video MPEG &co) si sarebbe necessariamente un delay aggiuntivo, corretto ?

Ovvio, come ci insegna il principio di indeterminazione di Heisenberg (è la stessa cosa, maggiore è il buffer per analizzare meglio il segnale statisticamente, maggiore è la latenza introdotta dalla processazione conseguente perdendo quindi in "località" dell'informazione, potremmo dire "precisione" - infatti quando si vuole fare un esempio "semplice" di cosa sia l'indeterminazione si prende un diagramma tempo-frequenza di un segnale audio: non puoi "zoomare" su entrambe le dimensioni, sono in mutua esclusione).

E infatti in Q2 RTX te ne accorgi un po', ma niente di drammatico. Ho visto in certi engine lag immensamente più paurose (quelle del Creation Engine di Bethesda sono proverbiali :D ) senza alcuna necessità (motivata) che ci fossero! L'upscaling invece è una motivazione più che sana, dato che QHD e 4K costano ancora molto in termini di performance e ci stiamo letteralmente passando in 2 generazioni di GPU.....con tanto di penuria delle stesse mentre abbiamo monitor QHD e con un bel po' di FIUCIOR interessanti :asd: a 150 euro.

Gigibian 07-06-2021 08:29

Su reddit un utente ha scaricato il video in 4k alla massima qualità dell'FSR, e salvato dei PNG e zoomato, ecco il risultato:

Codice:

www reddit com /r/Amd/comments/nqd0lz/fidelityfx_super_resolution_ultra_quality/
Anche in "ultra quality" mode, la resa è abbastanza pessima... purtroppo... :(

ninja750 07-06-2021 09:43

Quote:

Originariamente inviato da Gigibian (Messaggio 47434476)
Su reddit un utente ha scaricato il video in 4k alla massima qualità dell'FSR, e salvato dei PNG e zoomato, ecco il risultato:

Codice:

www reddit com /r/Amd/comments/nqd0lz/fidelityfx_super_resolution_ultra_quality/
Anche in "ultra quality" mode, la resa è abbastanza pessima... purtroppo... :(

diciamo che estrapolare dei PNG da un video compresso non è il massimo per capire come potrà funzionare questo algoritmo, ma credo che nessuno si aspetti alla presentazione di avere un immediato DLSS2.0 né lato qualitativo né tantomeno lato titoli supportati che sarà la cosa primaria per AMD da raggiungere

per me sarà una vittoria arrivare open source a quello che fu il DLSS1.0 per poi essere sviluppato via con gli anni e che non richieda unità dedicate, che come fatto vedere potrà funzionare sia su APU che su schede vecchie nvidia che adesso sono tagliate fuori

aspettate di metterci le mani sopra poi shitstormate a piacere :p

ray_hunter 07-06-2021 10:13

Dal punto di vista dei possibili miglioramenti sono meno ottimistico.

Mentre da una parte il DLSS aveva ampi margini di miglioramento, sia come metodologia di training che come sviluppo della feature in se, qua stiamo parlando di un upscaler spaziale che è basato su un algoritmo sul quale non vedo molto margine di manovra.

Diciamo che il risultato del livello qualitativo ultra non è nemmeno così male. E' il livello quality che blurra davvero in maniera aggressiva.

incorreggiubile 07-06-2021 10:26

Quote:

Originariamente inviato da ninja750 (Messaggio 47434591)
e che non richieda unità dedicate

Sì ma le "unità dedicate" per l'AI servono in computer graphics innanzitutto per il denoising nel raytracing, ergo non vedo perchè AMD non debba implementarle sulle prossime GPU.

incorreggiubile 07-06-2021 10:28

Quote:

Originariamente inviato da ray_hunter (Messaggio 47434646)
E' il livello quality che blurra davvero in maniera aggressiva.

Diciamo che sarebbe auspicabile che l'Ultra Quality diventi il riferimento base quando non si vuole usare l'AI con a disposizione i motion vector della scena.....un po' come ha fatto il CAS nell'ambito dello sharpening "il più possibile agnostico e privo di artefatti" (l'implemetazione che ho visto su Sniper Ghost Warrior Contracts 2 è davvero buona, non noto ghosting).

Se prendete il CAS e lo paragonate allo sharpening in-engine di Deus Ex Mankind Divided nel 2016 (per compensare il blurring da TAA) capite che alla fine ci lamentiamo davvero un po' troppo :p

Gyammy85 07-06-2021 10:28

Ma almeno sto banalissimo upscaler è dos 5 compatibile come il resizable bar?

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431913)
Non ci stiamo capendo.

VSR è 2 cose:

*Virtual Super Resolution (che è downscaling a livello del dialogo GPU-monitor)
*Variable Shader Rate che fa parte delle DX come specifica

Il secondo lo puoi chiamare anche Variable Rate Shading che è la stessissima cosa di quello che intendevo io.

Il primo è banale dowsampling appunto e nel 4A Engine di Metro hanno usato 2) per chiamare 1) - dovete prendervela con loro, mica con me :p

Qui c'è tutta la spiegazione (più di un anno fa): https://www.hwupgrade.it/articoli/sk...vrs_index.html

Che poi voglio dire, anche la risoluzione nativa è un banale "mettere più pixel così si vede meglio", e grazie bravi tutti così, non c'è niente di intelligente :tapiro:

Tanto per la cronaca, il Virtual Super Resolution serve ad andare oltre la risoluzione nativa del monitor stile super sampling, mentre il VARIABLE RATE SHADING è la feature delle dx12 ultimate per avere un rate diverso in punti della scena, tecnica applicata anche in dirt 5, che applicata di recente al radeon boost pemette di non peggiorare l'immagine entrando in azione in maniera molto soft e garantendo comunque un discreto aumento di perf, ti ho postato anche un video

FroZen 07-06-2021 10:33

Oddio mi gira la testa, non sono più abituato a discutere di cose simili, ormai sono diventato esperto di programmazione bot, gestione dello stress da acquisto compulsivo inapplicato e delazioni su sospetti miner da rinchiudere in galera e buttare la chiave....

incorreggiubile 07-06-2021 10:33

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434679)
Ma almeno sto banalissimo upscaler è dos 5 compatibile come il resizable bar?



Che poi voglio dire, anche la risoluzione nativa è un banale "mettere più pixel così si vede meglio", e grazie bravi tutti così, non c'è niente di intelligente :tapiro:

Tanto per la cronaca, il Virtual Super Resolution serve ad andare oltre la risoluzione nativa del monitor stile super sampling, mentre il VARIABLE RATE SHADING è la feature delle dx12 ultimate per avere un rate diverso in punti della scena, tecnica applicata anche in dirt 5, che applicata di recente al radeon boost pemette di non peggiorare l'immagine entrando in azione in maniera molto soft e garantendo comunque un discreto aumento di perf, ti ho postato anche un video

Appunto.
Ho solo fatto notare che i 4A hanno chiamato 1) con 2) in Metro Exodus *NON* EE :asd:
Nell' EE è tutto corretto, c'è VRS ed è appunto quella che entrambi conosciamo come tale da specifica DX12.

L'intelligenza sta nel crearli i pixel in più, in modo che siano appropriati al contesto.

Gyammy85 07-06-2021 10:40

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434693)
Appunto.
Ho solo fatto notare che i 4Engine hanno chiamato 1) con 2) in Metro Exodus *NON* EE :asd:
Nell' EE è tutto corretto, c'è VRS ed è appunto quella che entrambi conosciamo come tale da specifica DX12.

L'intelligenza sta nel crearli i pixel in più, in modo che siano appropriati al contesto.

Quindi?

ninja750 07-06-2021 10:45

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434674)
Sì ma le "unità dedicate" per l'AI servono in computer graphics innanzitutto per il denoising nel raytracing, ergo non vedo perchè AMD non debba implementarle sulle prossime GPU.

amd ha già unità dedicate al RT in navi2 :mbe:

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434676)
Diciamo che sarebbe auspicabile che l'Ultra Quality diventi il riferimento base quando non si vuole usare l'AI con a disposizione i motion vector della scena

vero ma se la concorrenza dà una scelta all'utente finale, e questa scelta permette una modalità bilanciata più performante, hai di fatto in mano una soluzione peggiore o se vogliamo scriverla in maniera diversa, meno scalabile

sarebbe interessante capire quelli che usano DLSS con quale impostazione sono soliti giocare, se con quality o bilanciato o performance

incorreggiubile 07-06-2021 10:54

Quote:

Originariamente inviato da ninja750 (Messaggio 47434724)
amd ha già unità dedicate al RT in navi2 :mbe:

Sì ma per il *denoising* POST-RAYTRACING (nel path tracing ad esempio) serve l'AI, non è che sarà magari per quello che in raytracing crolla?
Il denoising senza appoggio a reti neurali è una cosa assurda computazionalmente parlando: praticamente è lui il macigno, mica il raytracing (beam tracing) in sè.

incorreggiubile 07-06-2021 11:00

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434710)
Quindi?

Stai ciurlando nel manico? :confused:
Quindi cosa?

Ho solo fatto notare l'errore in Metro NON EE a riguardo di "variable shading" che si trova nel menù e NON è il VRS ma appunto downsampling.

Il DLSS 2.0 di intelligente ha che i pixel li inferisce.

Gigibian 07-06-2021 11:08

Quote:

Originariamente inviato da ninja750 (Messaggio 47434591)
diciamo che estrapolare dei PNG da un video compresso non è il massimo per capire come potrà funzionare questo algoritmo, ma credo che nessuno si aspetti alla presentazione di avere un immediato DLSS2.0 né lato qualitativo né tantomeno lato titoli supportati che sarà la cosa primaria per AMD da raggiungere

per me sarà una vittoria arrivare open source a quello che fu il DLSS1.0 per poi essere sviluppato via con gli anni e che non richieda unità dedicate, che come fatto vedere potrà funzionare sia su APU che su schede vecchie nvidia che adesso sono tagliate fuori

aspettate di metterci le mani sopra poi shitstormate a piacere :p

Ma la compressione vale sia a destra che a sinistra :D E poi dai su, si vede che non c'entra niente la compressione video nel confronto.

Nessuno shitstorm, ho una 6900XT qui imballata che aspetta il 22 giugno per essere aperta o rivenduta :)
Dispiace vedere la semplicità dell'implementazione AMD, tutto qui.
Evidenziavo solo che anche in ultra quality, il blur regna sovrano e la qualità è molto lontana, purtroppo, dal concorrente diretto.

ray_hunter 07-06-2021 11:12

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434745)
Sì ma per il *denoising* POST-RAYTRACING (nel path tracing ad esempio) serve l'AI, non è che sarà magari per quello che in raytracing crolla?
Il denoising senza appoggio a reti neurali è una cosa assurda computazionalmente parlando: praticamente è lui il macigno, mica il raytracing (beam tracing) in sè.

AMD pubblicizza il denoising in hw ma non parla di AI.
Mentre Nvidia pubblicizza che il denoising è fatto in modo intelligente andando a ridurre il carico mantenendo la massima qualità.

ray_hunter 07-06-2021 11:13

Quote:

Originariamente inviato da Gigibian (Messaggio 47434777)
Ma la compressione vale sia a destra che a sinistra :D E poi dai su, si vede che non c'entra niente la compressione video nel confronto.

Nessuno shitstorm, ho una 6900XT qui imballata che aspetta il 22 giugno per essere aperta o rivenduta :)
Dispiace vedere la semplicità dell'implementazione AMD, tutto qui.
Evidenziavo solo che anche in ultra quality, il blur regna sovrano e la qualità è molto lontana, purtroppo, dal concorrente diretto.

Che poi, se vogliamo dirla tutta, se si vede già differenza di blur nel video compresso, a rigor di logica, sarà ancora più evidente nelle immagini RAW!

ray_hunter 07-06-2021 11:16

Quote:

Originariamente inviato da ninja750 (Messaggio 47434724)
amd ha già unità dedicate al RT in navi2 :mbe:



vero ma se la concorrenza dà una scelta all'utente finale, e questa scelta permette una modalità bilanciata più performante, hai di fatto in mano una soluzione peggiore o se vogliamo scriverla in maniera diversa, meno scalabile

sarebbe interessante capire quelli che usano DLSS con quale impostazione sono soliti giocare, se con quality o bilanciato o performance

Dipende da gioco, risoluzione del monitor e GPU che si possiede. Se hai una 2070 con monitor 1440P in CP2077 facile che si usi il performance. Chi ha una 3080 con stesso monitor andrà di qualità nel 99% dei casi...
Va detto che negli ultimi giochi anche il bilanciato e a volte il performance rendono moooolto vicino alla nativa. In Metro Exodus EE dicevano appunto che il Performance rende molto vicino al nativo.
In altri l'unica che rende bene è quality e già a balanced si vede il blur...

Gyammy85 07-06-2021 11:19

Quote:

Originariamente inviato da ray_hunter (Messaggio 47434786)
AMD pubblicizza il denoising in hw ma non parla di AI.
Mentre Nvidia pubblicizza che il denoising è fatto in modo intelligente andando a ridurre il carico mantenendo la massima qualità.

Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!

carloUba 07-06-2021 11:46

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434810)
Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!

Non ci vuole per forza l'AI ma ci vuole per rendere tutto fruibile.
Sono cose che io facevo su Amiga ma con 1 frame al quarto d'ora

Gigibian 07-06-2021 12:17

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434810)
Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!

Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.

Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.

leoneazzurro 07-06-2021 12:48

Il brevetto a cui fa riferimento l'FSR parla di inference, quindi utilizzerà calcoli di AI. Quello che non fa (per il momento) è utilizzare i motion vectors, come dichiarato da AMD e comunque anche nel brevetto non vi si fa riferimento. Detto ciò, non è detto che revisioni successive non li implementino, o che FSR non possa essere accoppiato ad altri metodi di ricostruzione dell'immagine.

Gigibian 07-06-2021 12:57

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47434978)
Il brevetto a cui fa riferimento l'FSR parla di inference, quindi utilizzerà calcoli di AI. Quello che non fa (per il momento) è utilizzare i motion vectors, come dichiarato da AMD e comunque anche nel brevetto non vi si fa riferimento. Detto ciò, non è detto che revisioni successive non li implementino, o che FSR non possa essere accoppiato ad altri metodi di ricostruzione dell'immagine.

inference ed AI non sono strettamente correlati.

leoneazzurro 07-06-2021 13:00

Quote:

Originariamente inviato da Gigibian (Messaggio 47434997)
inference ed AI non sono strettamente correlati.

Non si parla certo di inferenza statistica in questo caso. Uno dei campi dell'AI è proprio l'inferenza (determinazione delle conclusioni a partire dai presupposti secondo schemi di deduzione automatizzati basati su machine Learning, i cui passi sono detti appunto inferences).

Il brevetto è citato qui:
https://forums.anandtech.com/threads...n-gsr.2593747/

e come si vede si cita l'utilizzo di inferencing in un ambiente "wholly learned". Non solo, ma si fa già riferimento alle reti neurali nell'abstract (ribadendo che un minimo di utilizzo di reti neurali esiste già nelle tecniche di upscaling tradizionali).


Tutti gli orari sono GMT +1. Ora sono le: 17:59.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.