Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


Dattofree 03-06-2021 20:43

Quote:

Originariamente inviato da LkMsWb (Messaggio 47430417)
Anche a me ci faceva un gioco in particolare, e sì, potrebbe essere l'alimentatore sull'assorbimento istantaneo. Gioco lo stesso col 1000w che ho ordinato (e il secondo pare funzionare, per fortuna, incrocio tutte le dita possibili!) e non ho problemi.



In realtà 750w se non hai alimentatori "paranoici" avanzano, almeno se non hai OC particolari. Ho gruppo di continuità e giocando normalmente non arrivo a 500w, e oltre al PC ci sono collegati monitor, un altro computer (che anche spento qualcosa tira, come sempre), scheda audio esterna e forse altro che non ricordo. Il problema è quell'istantaneo maledetto. Voglio dire, Seasonic Prime Ultra Titanium non è che non sia di marca, anzi, sarebbe il top xD. Ma nella prima versione era MOLTO stretto sulla overcurrent protection.

Non avanza nulla. Non sono io a dirlo ma è scritto a caratteri cubitali sul sito e sulla confezione
Requirements
Typical Board Power (Desktop)
300 W
Minimum PSU Recommendation
850 W

Se lo hanno scritto non è per sport.

sniperspa 03-06-2021 20:58

Quote:

Originariamente inviato da CKY (Messaggio 47430616)
io ho tenuto una settimana la 6800 nel carrello. Welcome to the club

:rotfl: :rotfl: :rotfl:

scusa ma mi son cappottato

Gigibian 03-06-2021 21:13

https://www.anandtech.com/show/16723...game-upscaling

Questo articolo di anandtech mi fa perdere un po' le speranze.

In sostanza dice che L' FSR si basa unicamente sullo spatial upscaling, senza prendere in considerazione i motion vector come è stato fatto con il dlss 2.0.

In sostanza anandtech si aspetta resultati al massimo allineati con il dlss 1.0...

Oltre al fatto che hanno estratto un immagine raw dalle slide che gli hanno inviato alla stampa...e da come si vede in modalita "Quality" la perdita di risoluzione è enorme così come il Blur...

Bah...se fosse così sarebbe davvero deludente.

LkMsWb 03-06-2021 21:18

Quote:

Originariamente inviato da Dattofree (Messaggio 47430744)
Non avanza nulla. Non sono io a dirlo ma è scritto a caratteri cubitali sul sito e sulla confezione
Requirements
Typical Board Power (Desktop)
300 W
Minimum PSU Recommendation
850 W

Se lo hanno scritto non è per sport.

Secondo te perché nVidia dichiara 750w per la 3090 che consuma di più sia di media che di picco? Guardati le recensioni di Igor's Lab e ne riparliamo. Gli alimentatori raccomandati sono sempre scritti quasi a caso. Non posso linkare immagini da altri siti, ma, sunto, arrontondando per eccesso:

Radeon 6900XT:
Media in gioco: 304w
Picchi 10-20ms: 337w
Picchi 5-10ms: 363w
Picchi 1-5ms: 391w
Picchi <1ms: 476w

(non fai 300w di altra componentistica, non senza OC)

RTX 3090:
Media in gioco: 361w
Picchi 10-20ms: 359w
Picchi 5-10ms: 372w
Picchi 1-5ms: 440w
Picchi <1ms: 574w

che sia suggerito un 750w da nVidia lo puoi verificare dalle specifiche complete sul sito ufficiale, e sono:
Potenza della scheda grafica (W) 350
Potenza consigliata dell'alimentatore di sistema (W) (2) 750
la nota riporta:
I requisiti si riferiscono a PC configurati con un processore Intel Core i9 10980XE. Una potenza inferiore potrebbe funzionare a seconda della configurazione del sistema.

E sarebbero anche giusti considerando il consumo MEDIO della scheda. Il gruppo di continuità con report di consumo effettivo che ho non mente, e l'inferiore a 500w va considerato che ci sono altre periferiche connesse e che si è a monte dell'alimentatore, quindi con il consumo effettivo + la perdita di efficienza. No, con gli 850w AMD mi ha "fregato" un cambio di alimentatore alla versione aggiornata più che legittimo.

Andy1111 03-06-2021 22:14

Quote:

Originariamente inviato da Gigibian (Messaggio 47430793)
https://www.anandtech.com/show/16723...game-upscaling

Questo articolo di anandtech mi fa perdere un po' le speranze.

In sostanza dice che L' FSR si basa unicamente sullo spatial upscaling, senza prendere in considerazione i motion vector come è stato fatto con il dlss 2.0.

In sostanza anandtech si aspetta resultati al massimo allineati con il dlss 1.0...

Oltre al fatto che hanno estratto un immagine raw dalle slide che gli hanno inviato alla stampa...e da come si vede in modalita "Quality" la perdita di risoluzione è enorme così come il Blur...

Bah...se fosse così sarebbe davvero deludente.

Ho qualche dubbio, anzi reputo queste solo speculazioni.....
già il FidelityFX Cas che personalmente ho provato su Cyberpunk , permette un buon incremento non notando grosse differenze senza il suo utilizzo.
L'Fsr è sicuramente una sua evoluzione e quindi uno strumento più completo e performante del CAS

Roland74Fun 03-06-2021 22:27

Supporto Andy dicendo che nella maggior parte dei Giochi che uso il RIS fa il suo sporco lavoro aumentando la definizione quasi quanto passare a risoluzione superiore. Ovviamente il trucchetto non esce ugualmente bene con tutti i giochi. Ma un Valhalla od un GTA ne traggono grande giovamento per non parlare di cyberpunk e di shadow of the tomb raider.
Col TAA è veramente un toccasana.

Gigibian 03-06-2021 22:37

Quote:

Originariamente inviato da Andy1111 (Messaggio 47430870)
Ho qualche dubbio, anzi reputo queste solo speculazioni.....
già il FidelityFX Cas che personalmente ho provato su Cyberpunk , permette un buon incremento non notando grosse differenze senza il suo utilizzo.
L'Fsr è sicuramente una sua evoluzione e quindi uno strumento più completo e performante del CAS

Allora dipende dalla percezione che abbiamo...
Io se attivo il CAS all'80% giocando a 1440p...l'immagine fa praticamente schifo...tutta blurred...

incorreggiubile 03-06-2021 22:40

Quote:

Originariamente inviato da Gigibian (Messaggio 47430793)
https://www.anandtech.com/show/16723...game-upscaling

Questo articolo di anandtech mi fa perdere un po' le speranze.

In sostanza dice che L' FSR si basa unicamente sullo spatial upscaling, senza prendere in considerazione i motion vector come è stato fatto con il dlss 2.0.

In sostanza anandtech si aspetta resultati al massimo allineati con il dlss 1.0...

Oltre al fatto che hanno estratto un immagine raw dalle slide che gli hanno inviato alla stampa...e da come si vede in modalita "Quality" la perdita di risoluzione è enorme così come il Blur...

Bah...se fosse così sarebbe davvero deludente.

Senza AI non puoi fare miracoli.
Anche se usassi i motion vector e normali teNNNNiche di predizione (come avviene nella compressione video con la stima del campo di spostamento).
Questa soluzione subottima la vedrete appunto nell'Unreal Engine 5 e la potete già vedere in Ghost Recon Breakpoint e meglio ancora in Quake 2 RTX.

Non è che in Nvidia siano scemi eh.....si sà che senza qualcosa che inferisca i contenuti non si possono fare miracoli di upscaling, fuori dal mondo della grafica vettoriale.

incorreggiubile 03-06-2021 22:44

Quote:

Originariamente inviato da Roland74Fun (Messaggio 47430884)
Col TAA è veramente un toccasana.

Perchè è nato appositamente per contrastare quello, solo che per farlo in modo realmente buono necessita dei motion vector dello stesso TAA quindi *NON* è indipendente dall'engine (=da come l'engine affronta il rendering della scena)
Per questo in Breakpoint puoi attivarlo solo se usi il TAA e poi si fa la passata di sharpening a piacimento (0->100).....

L'alternativa alle informazioni fornite dall'engine è averne "agnosticamente" una stima statistica come avviene nella compressione video. Auguri :asd: (approccio "second pass" ovviamente NON possibile, data la latenza introdotta).

Gigibian 03-06-2021 23:49

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47430900)
Senza AI non puoi fare miracoli.
Anche se usassi i motion vector e normali teNNNNiche di predizione (come avviene nella compressione video con la stima del campo di spostamento).
Questa soluzione subottima la vedrete appunto nell'Unreal Engine 5 e la potete già vedere in Ghost Recon Breakpoint e meglio ancora in Quake 2 RTX.

Non è che in Nvidia siano scemi eh.....si sà che senza qualcosa che inferisca i contenuti non si possono fare miracoli di upscaling, fuori dal mondo della grafica vettoriale.

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47430907)
Perchè è nato appositamente per contrastare quello, solo che per farlo in modo realmente buono necessita dei motion vector dello stesso TAA quindi *NON* è indipendente dall'engine (=da come l'engine affronta il rendering della scena)
Per questo in Breakpoint puoi attivarlo solo se usi il TAA e poi si fa la passata di sharpening a piacimento (0->100).....

L'alternativa alle informazioni fornite dall'engine è averne "agnosticamente" una stima statistica come avviene nella compressione video. Auguri :asd: (approccio "second pass" ovviamente NON possibile, data la latenza introdotta).

Grazie per le risposte tecnicamente rilevanti :)

In sostanza, non possiamo ricostruire il maiale dalle.salsiccie :D

ray_hunter 04-06-2021 08:20

Purtroppo mi trovo anch'io scettico con questa implementazione per l'upscaling.
Abbiamo già visto nel campo dell'upscaling delle immagini statiche quanta differenza faccia l'AI.
Il problema così come lo è nei video è che puoi anche usare un filtro di ricostruzione che rende l'immagine molto "sharp" ma non puoi fare a meno degli artefatti e cmq non riesci a ricostruire coerentemente i dettagli.

L'immagine postata su anandtech è effettivamente blurratissima e non credo proprio che AMD abbia pubblicato qualcosa che è peggiorativo della release finale.
Vedremo...

incorreggiubile 04-06-2021 08:56

Considerate che l'upscaling è essenzialmentei in funzione del 4K calcolato in FullHD. Con monitor 27 pollici.

Se fai lo stesso partendo da 1280x720 per QuadHD 27" (ma anche 24) ottieni qualcosa di.....non soddisfacente :p

Gyammy85 04-06-2021 09:00

Quote:

Originariamente inviato da Gigibian (Messaggio 47430793)
https://www.anandtech.com/show/16723...game-upscaling

Questo articolo di anandtech mi fa perdere un po' le speranze.

In sostanza dice che L' FSR si basa unicamente sullo spatial upscaling, senza prendere in considerazione i motion vector come è stato fatto con il dlss 2.0.

In sostanza anandtech si aspetta resultati al massimo allineati con il dlss 1.0...

Oltre al fatto che hanno estratto un immagine raw dalle slide che gli hanno inviato alla stampa...e da come si vede in modalita "Quality" la perdita di risoluzione è enorme così come il Blur...

Bah...se fosse così sarebbe davvero deludente.

Che anandtech sia caduto nella trappola mi stupisce, e vabbè vorrà dire che sulla 1060 andremo di nvidia bing bong dos 5 compatibile, certo che amd poteva sforzarsi un pò e mostrare solo come girava su tutte le geffo invece di far vedere la sua scheda top, marketing ZEROH

Quote:

Originariamente inviato da ray_hunter (Messaggio 47431056)
Purtroppo mi trovo anch'io scettico con questa implementazione per l'upscaling.
Abbiamo già visto nel campo dell'upscaling delle immagini statiche quanta differenza faccia l'AI.
Il problema così come lo è nei video è che puoi anche usare un filtro di ricostruzione che rende l'immagine molto "sharp" ma non puoi fare a meno degli artefatti e cmq non riesci a ricostruire coerentemente i dettagli.

L'immagine postata su anandtech è effettivamente blurratissima e non credo proprio che AMD abbia pubblicato qualcosa che è peggiorativo della release finale.
Vedremo...

Volendo potremmo farlo uscire prima di stroncarlo, da ora al 22 a dire che fa schifo è dura, proviamolo prima su cb2077 e dopo aver constato che il dlss si vede meglio della nativa e che questo coso può solo accompagnare, potremo dire che il dlss si vede meglio della nativa e fsr può solo accompagnare

MontegoBay 04-06-2021 10:45

Quote:

Originariamente inviato da LkMsWb (Messaggio 47430800)
Secondo te perché nVidia dichiara 750w per la 3090 che consuma di più sia di media che di picco? Guardati le recensioni di Igor's Lab e ne riparliamo. Gli alimentatori raccomandati sono sempre scritti quasi a caso. Non posso linkare immagini da altri siti, ma, sunto, arrontondando per eccesso:

Radeon 6900XT:
Media in gioco: 304w
Picchi 10-20ms: 337w
Picchi 5-10ms: 363w
Picchi 1-5ms: 391w
Picchi <1ms: 476w

(non fai 300w di altra componentistica, non senza OC)

RTX 3090:
Media in gioco: 361w
Picchi 10-20ms: 359w
Picchi 5-10ms: 372w
Picchi 1-5ms: 440w
Picchi <1ms: 574w

che sia suggerito un 750w da nVidia lo puoi verificare dalle specifiche complete sul sito ufficiale, e sono:
Potenza della scheda grafica (W) 350
Potenza consigliata dell'alimentatore di sistema (W) (2) 750
la nota riporta:
I requisiti si riferiscono a PC configurati con un processore Intel Core i9 10980XE. Una potenza inferiore potrebbe funzionare a seconda della configurazione del sistema.

E sarebbero anche giusti considerando il consumo MEDIO della scheda. Il gruppo di continuità con report di consumo effettivo che ho non mente, e l'inferiore a 500w va considerato che ci sono altre periferiche connesse e che si è a monte dell'alimentatore, quindi con il consumo effettivo + la perdita di efficienza. No, con gli 850w AMD mi ha "fregato" un cambio di alimentatore alla versione aggiornata più che legittimo.


mi sono tolto il dubbio ieri.
ho reinstallato marvel avengers, settato tutto su ultra ,e via.

dopo 3 ore nessun spegnimento.

x cui avevo il pc che aveva bisogno di una formattata.

cmq grazie mille x la delucidazione dell'ali

incorreggiubile 04-06-2021 11:53

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47431107)
Che anandtech sia caduto nella trappola mi stupisce

GOMBLODDING?

Quale sarebbe questa "trappola" ? Non c'è hw dedicato a parte per il raytracing......

Gyammy85 04-06-2021 11:58

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431441)
GOMBLODDING?

Quale sarebbe questa "trappola" ? Non c'è hw dedicato a parte per il raytracing......

Mostrano la 1060 ma non fanno vedere la 6800xt su ultra quality, e la storia delle unità in hardware è come "i venti geo della 1080ti" che ora servono come le racchette quando si gioca a basket, chissà come fa la 6900xt a dare la paga spesso e volentieri alla 3090 con quattro geo dal 1920? bohhhhh

DJurassic 04-06-2021 12:03

Vi ricordo che anche il DLSS 1.0 faceva pietà. Io aspetterei a dare il FSR per morto prima di nascere, anche perchè dietro ogni tecnologia c'è sempre un team di sviluppo che ha investito tempo e soldi per realizzarlo e che di certo avrà tutto l'interesse del migliorarlo.

Il lancio magari zoppicherà e non renderà 1/10 di quello che è il dlss di Nvidia (che ricordo si tratta di tutt'altra tecnologia) ma non mi stupirei se AMD riuscisse in tempi celeri a potenziarlo e a renderlo interessante.
Ricordo che ad avere queste feature ben realizzate ci guadagnamo tutti, sempre.

ray_hunter 04-06-2021 12:07

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47431452)
Mostrano la 1060 ma non fanno vedere la 6800xt su ultra quality, e la storia delle unità in hardware è come "i venti geo della 1080ti" che ora servono come le racchette quando si gioca a basket, chissà come fa la 6900xt a dare la paga spesso e volentieri alla 3090 con quattro geo dal 1920? bohhhhh

Anandtech si base, e lo dice, sulle informazioni e il materiale che ha, così come tutti gli altri che hanno fatto considerazioni in merito.
Ti faccio anche notare che scrivono che se AMD riuscisse a ottenere buoni risultati con uno scaling solo spazione e non temporale sarebbe da primato...
Inoltre ha ribadito in maniera chiara che è troppo presto per dare un giudizio definitivo ma che i presupposti non sono i migliori.
Anche HWU(Unboxed), si è espresso con una opinione che sarà da confermare o meno, sul fatto che le aspettative con questi presupposti sono di un DLSS della prima iterazione.

Io spero vivamente che i risultati visti dal materiale presentato siano frutto di una release ancora non del tutto matura e che succeda qualcosa di li al 22 giugno! Penso anche che AMD non avrebbe impiegato tutto questo tempo per realizzare qualcosa che parrebbe peggio del checkboard. Speriamo in un inghippo!!!

WarSide 04-06-2021 12:24

C'è un motivo se AMD si sta comprando XILINX.

Xilinx è leader nel mercato FPGA ed ha già chip per ML. Magari in futuro ci saranno FPGA disegnati e programmati per avere upscaling in hw :)

Gyammy85 04-06-2021 12:26

Quote:

Originariamente inviato da Dotto Raus (Messaggio 47431509)
Io come detto aspetto il 22 per dire se fa schifo oppure no.

Al momento sono usciti questi articoli già riportati che lo bollano (o fanno capire a chi legge nella maggioranza dei casi) che sia un merda fumante.

Ma a me piace anche contestualizzare quello che sto leggendo.

• La gpu utilizzata è una 1060 di nvidia e non una AMD. AMD ha già dichiarato che non ottimizzerà il FSR per nvidia ma è nvidia stessa a doversene occupare se lo vorrà (giustamente).

• La resa di FSR varierà da gioco a gioco. E questo lo vediamo anche con la tecnologia analoga (per quanto possibile) DLSS. In alcuni giochi rende meglio che in altri.

Io adesso mi domando anche se AMD è masochista o sono semplicemente idioti.

Presenti una tecnologia open e aperta anche alla concorrenza che sai benissimo che su schede non tue (AMD) potrebbe dare risultati non esaltanti (come hanno dichiarato loro stessi) ma li mostri lo stesso :muro: Praticamente si sono scoperti il fianco a nvidia che non aspettava altro per iniziare la shitstorm 20 giorni prima influenzando, di fatto, la massa, che ha già bollato il FSR una merda a prescindere (e di esempi anche solo qui sul forum ce ne sono a bizzeffe).

Ma non era meglio aggiungere il supporto a nvidia solo dopo qualche tempo o almeno mostrare e fare la promozione solo su schede AMD di cui puoi controllare l'implementazione e il risultato finale? Boh ste cose non le capisco proprio.

Il 22 vediamo in che giochi verrà rilasciato, se li ho vedrò con i miei occhi se è una merda oppure no.

Sono sicuro che se non lo avesse mostrato su nvidia si sarebbe detto che era meglio farlo per rubare attenzione, dai sappiamo entrambi che è difficile fare la cosa giusta se quelli che le hanno sempre "azzeccate tutte" dal 93 hanno il monopolio delle mosse giuste

Gyammy85 04-06-2021 12:27

Quote:

Originariamente inviato da WarSide (Messaggio 47431515)
C'è un motivo se AMD si sta comprando XILINX.

Xilinx è leader nel mercato FPGA ed ha già chip per ML. Magari in futuro ci saranno FPGA disegnati e programmati per avere upscaling in hw :)

RDNA3 chiplet based avrà tutta una serie di features e magari pure un fsr potenziato, è tutto in divenire, come i zen 3 che erano predisposti per lo stacking 3d

Andy1111 04-06-2021 12:36

Quote:

Originariamente inviato da Gigibian (Messaggio 47430895)
Allora dipende dalla percezione che abbiamo...
Io se attivo il CAS all'80% giocando a 1440p...l'immagine fa praticamente schifo...tutta blurred...

eccoti 2 screen a 1440p uno senza e uno con cas dinamico a 80%

https://steamuserimages-a.akamaihd.n...9DFD96E40A72F/

https://steamuserimages-a.akamaihd.n...349619A08898B/

qual'è quello con CAS per te? e per voi del forum ?

incorreggiubile 04-06-2021 12:57

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47431452)
Mostrano la 1060 ma non fanno vedere la 6800xt su ultra quality, e la storia delle unità in hardware è come "i venti geo della 1080ti" che ora servono come le racchette quando si gioca a basket, chissà come fa la 6900xt a dare la paga spesso e volentieri alla 3090 con quattro geo dal 1920? bohhhhh

!?!?!?!?

HW in più -> non si può dire nulla (a proposito com'era la storia dei primitive shader e Vega? :D )
HW in meno -> va su tutto con la stessa qualità a pari impostazioni

incorreggiubile 04-06-2021 12:58

Quote:

Originariamente inviato da DJurassic (Messaggio 47431471)
Vi ricordo che anche il DLSS 1.0 faceva pietà. Io aspetterei a dare il FSR per morto prima di nascere, anche perchè dietro ogni tecnologia c'è sempre un team di sviluppo che ha investito tempo e soldi per realizzarlo e che di certo avrà tutto l'interesse del migliorarlo.

Il lancio magari zoppicherà e non renderà 1/10 di quello che è il dlss di Nvidia (che ricordo si tratta di tutt'altra tecnologia) ma non mi stupirei se AMD riuscisse in tempi celeri a potenziarlo e a renderlo interessante.
Ricordo che ad avere queste feature ben realizzate ci guadagnamo tutti, sempre.

Com'è finita col Radeon Boost? :D
(che fa il DOWNSCALING in base all'input del mouse)

Letteralmente scomparso dai radar in 2 anni e per 2 tutti e 2 gli anni, doveva essere rivoluzionario :D (aggià che va benissimo se forzi la ggggente ad usare il motion blur, che è una delle FIUCIOR più adorate e ben viste dalla pc master race come ben sappiamo :asd: Che strano che la sua adozione sia stata un fallimento colossale :v )

DJurassic 04-06-2021 13:03

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431583)
Com'è finita col Radeon Boost? :D
(che fa il DOWNSCALING in base all'input del mouse)

Letteralmente scomparso dai radar in 2 anni e per 2 tutti e 2 gli anni, doveva essere rivoluzionario :D (aggià che va benissimo se forzi la ggggente ad usare il motion blur, una delle FIUCIOR più adorate come ben sappiamo :asd: )

Potrei dire lo stesso di tantissime feature Nvidia, nonostante sono 10 anni che acquisto solo verdi.

incorreggiubile 04-06-2021 13:05

Quote:

Originariamente inviato da WarSide (Messaggio 47431515)
C'è un motivo se AMD si sta comprando XILINX.

Xilinx è leader nel mercato FPGA ed ha già chip per ML. Magari in futuro ci saranno FPGA disegnati e programmati per avere upscaling in hw :)

L'ha comprata perchè Intel ha comprato Altera.
Poi ovvio che siano strategiche come realtà che si occupano di progettazione soluzioni per l'ambito dell' AI.
Anche se in quel caso (upscaling) è meglio un ASIC, una FPGA è utile quando occorre qualcosa di rapidamente riconfigurabile (tipo rete neurale basata su hw neuromorfico)

Sperando non finisca tutto come il KINECT di MS :sofico: (rimozione dalla memoria collettiva IN MASSA di qualcosa che promettava che l'intrattenimento non sarebbe stato più lo stesso).

incorreggiubile 04-06-2021 13:10

Quote:

Originariamente inviato da DJurassic (Messaggio 47431599)
Potrei dire lo stesso di tantissime feature Nvidia, nonostante sono 10 anni che acquisto solo verdi.

Fai l'elenco che vediamo :D

A me viene in mente l'MFAA in Maxwell (tuttora supportato in Pascal e Turing e penso anche in Ampere) o il Simultaneous Multi-Projection in Pascal (per la VR, altra cosa che doveva rivoluzionare tutto :sofico: )
Come tutti sappiamo si è steso poi alla fine un velo pietoso sul 3D Vision (stereoscopia)......settore cinematografico compreso :doh:

DJurassic 04-06-2021 13:14

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431607)
Fai l'elenco che vediamo :D

A me viene in mente l'MFAA in Maxwell (tuttora supportato in Pascal e Turing e penso anche in Ampere) o il . Simultaneous Multi-Projection in Pascal (per la VR, altra cosa che doveva rivoluzionare tutto :sofico: )

Intendo di tecnologie che con il tempo non sono riuscite a imporsi e di fatto hanno completamente perso di appeal. Uno su tutti, il PhysX. Ma potrei anche parlare del Gsync di cui a conti fatti ha senso solo la versione minore che è poi quella implementata oggi in molti TV attuali. E che fine ha fatto lo SLi o gli effetti GameWorks? Di cui discutere ce ne sarebbe a volontà.

Gyammy85 04-06-2021 13:25

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431583)
Com'è finita col Radeon Boost? :D
(che fa il DOWNSCALING in base all'input del mouse)

Letteralmente scomparso dai radar in 2 anni e per 2 tutti e 2 gli anni, doveva essere rivoluzionario :D (aggià che va benissimo se forzi la ggggente ad usare il motion blur, che è una delle FIUCIOR più adorate e ben viste dalla pc master race come ben sappiamo :asd: Che strano che la sua adozione sia stata un fallimento colossale :v )

A me sembra che Radeon boost lo abbiano upgradato di recente col vrs, e con ottimi risultati

LkMsWb 04-06-2021 14:06

Quote:

Originariamente inviato da DJurassic (Messaggio 47431471)
Vi ricordo che anche il DLSS 1.0 faceva pietà. Io aspetterei a dare il FSR per morto prima di nascere, anche perchè dietro ogni tecnologia c'è sempre un team di sviluppo che ha investito tempo e soldi per realizzarlo e che di certo avrà tutto l'interesse del migliorarlo.

Il lancio magari zoppicherà e non renderà 1/10 di quello che è il dlss di Nvidia (che ricordo si tratta di tutt'altra tecnologia) ma non mi stupirei se AMD riuscisse in tempi celeri a potenziarlo e a renderlo interessante.
Ricordo che ad avere queste feature ben realizzate ci guadagnamo tutti, sempre.

Quotone, sia per la considerazione sulla qualità sia per la frase finale

ray_hunter 04-06-2021 14:19

Quote:

Originariamente inviato da Andy1111 (Messaggio 47431535)
eccoti 2 screen a 1440p uno senza e uno con cas dinamico a 80%

https://steamuserimages-a.akamaihd.n...9DFD96E40A72F/

https://steamuserimages-a.akamaihd.n...349619A08898B/

qual'è quello con CAS per te? e per voi del forum ?

Troppo facile, la prima è con CAS e la seconda è nativa

Il VRS secondo me è davvero un'ottima feature, ma non è molto supportata. Funzionava anche in Metro Exodus ma non nella EE.
In Cyberpunk funziona alla grande.

Gigibian 04-06-2021 14:23

Quote:

Originariamente inviato da Andy1111 (Messaggio 47431535)
eccoti 2 screen a 1440p uno senza e uno con cas dinamico a 80%

https://steamuserimages-a.akamaihd.n...9DFD96E40A72F/
[/url]

qual'è quello con CAS per te? e per voi del forum ?

Questo. Mamma mia tutto smarmellato.

incorreggiubile 04-06-2021 15:17

Quote:

Originariamente inviato da DJurassic (Messaggio 47431616)
Intendo di tecnologie che con il tempo non sono riuscite a imporsi e di fatto hanno completamente perso di appeal. Uno su tutti, il PhysX. Ma potrei anche parlare del Gsync di cui a conti fatti ha senso solo la versione minore che è poi quella implementata oggi in molti TV attuali. E che fine ha fatto lo SLi o gli effetti GameWorks? Di cui discutere ce ne sarebbe a volontà.

PhysX come framework fisico è praticamente usato in ogni gioco anche attuale eh, basta che cerchi le DLL relative nella cartella di installazione e hai la conferma che viene usato.
Il problema semmai è che usano ancora la versione 3 (nei progetti in sviluppo da anni è inevitabile) e non la 4 che è perfettamente OpenSource.
Perchè? Abitudine e integrazione già garantita.

GSync funziona benone e bene con i monitor della whitelist di Nvidia.

SLI è concettualmente in conflitto diretto con GSync e altre tecnologie di "dialogo intelligente" col monitor, inoltre in DX12/Vulkan+PCIE 3.0/4.0 (e tecnologie varie legate virtualizzazione degli indirizzi di memoria) diventa "inutile" esattamente come con Windows 10 è diventato inutile Optimus (e prima ancora Virtu se ve la ricordate).

incorreggiubile 04-06-2021 15:20

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47431633)
A me sembra che Radeon boost lo abbiano upgradato di recente col vrs, e con ottimi risultati

Radeon Boost è semplicemente un downscaling "brutale" che risponde a variazioni sugli assi del mouse.
Non ha niente di intelligente e necessita del Motion Blur attivo (o almeno un Temporal AA) per nascondere gli artefatti di downscaling.

Non c'è alcuna "analisi" della scena o del frame, solo dell'input.

DJurassic 04-06-2021 15:24

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431816)
PhysX come framework fisico è praticamente usato in ogni gioco anche attuale eh, basta che cerchi le DLL relative nella cartella di installazione e hai la conferma che viene usato.

Del PhysX che parlavo io ne è rimasto praticamente nulla. Le implementazioni di cui parli tu sono tutte a carico della CPU e si parla di feature basilari che non hanno nulla a che vedere con quello che poteva essere il suo potenziale.

Non a caso la fisica di oggi nei giochi è ridotta all'osso o fà pena. Degli ultimi gioco da me provati solo Control fà un buon uso in questo senso di certe librerie.
Gli altri ce l'hanno ficcate dentro per sport, ma all'atto pratico sono ridicoli.

Andy1111 04-06-2021 15:25

Quote:

Originariamente inviato da ray_hunter (Messaggio 47431712)
Troppo facile, la prima è con CAS e la seconda è nativa

Il VRS secondo me è davvero un'ottima feature, ma non è molto supportata. Funzionava anche in Metro Exodus ma non nella EE.
In Cyberpunk funziona alla grande.

Quote:

Originariamente inviato da Gigibian (Messaggio 47431717)
Questo. Mamma mia tutto smarmellato.

Esatto non è perfetto ma non lo reputo neanche uno schifo assoluto

incorreggiubile 04-06-2021 15:27

Quote:

Originariamente inviato da ray_hunter (Messaggio 47431712)
Troppo facile, la prima è con CAS e la seconda è nativa

Il VRS secondo me è davvero un'ottima feature, ma non è molto supportata. Funzionava anche in Metro Exodus ma non nella EE.
In Cyberpunk funziona alla grande.

Quella implementazione di VSR non era vera "VSR" ma solo downsampling in-engine. VSR dovrebbe funzionare in modo intelligente, e dinamico cioè "capendo" le parti della scena che richiedono una maggior frequenza di aggiornamento degli shader applicati da quelli necessitanti frequenza minore.

incorreggiubile 04-06-2021 15:32

Quote:

Originariamente inviato da DJurassic (Messaggio 47431829)
Del PhysX che parlavo io ne è rimasto praticamente nulla. Le implementazioni di cui parli tu sono tutte a carico della CPU e si parla di feature basilari che non hanno nulla a che vedere con quello che poteva essere il suo potenziale.

Non a caso la fisica di oggi nei giochi è ridotta all'osso o fà pena. Degli ultimi gioco da me provati solo Control fà un buon uso in questo senso di certe librerie.
Gli altri ce l'hanno ficcate dentro per sport, ma all'atto pratico sono ridicoli.

Mica è un limite del framework, il 4.0 fa tuttissimo con le CPU attuali senza alcun bisogno di una GPU, senza contare che metà del lavoro fatto con la GPU *NON* era a carico della GPU ma semplicemente quando veniva riconosciuta nel sistema una GPU Nvidia veniva attivata la possibilità di sfruttare SSE e AVX invece dell' x87 :p Infatti vi ricordo che inizialmente quello che serviva era una PPU Ageia che poi NVidia comprò essenzialmente per smantellarla :muro:

Magari non sapevate di questa piccola grande ladrata (cioè che parte dell'accelerazione fornita dalle GPU Nvidia manco riguardava la GPU in sè ma la sua semplice presenza nel sistema E per anni anche il fatto che fosse la GPU settata per il rendering del gioco - se queste 2 condizioni non erano rispettate venita forzato l'uso del path x87 invece di quello SSE/AVX) :O

Gyammy85 04-06-2021 15:49

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47431817)
Radeon Boost è semplicemente un downscaling "brutale" che risponde a variazioni sugli assi del mouse.
Non ha niente di intelligente e necessita del Motion Blur attivo (o almeno un Temporal AA) per nascondere gli artefatti di downscaling.

Non c'è alcuna "analisi" della scena o del frame, solo dell'input.

No figurati, un semplicissimo variable rate shading

Ecco un video di warzone a 4k ultra+rt con radeon boost e vrs

https://www.youtube.com/watch?v=z87bgS01X_U&t=301s

Minuto 2 e 50

incorreggiubile 04-06-2021 15:49

https://www.tomshw.it/hardware/fidel...-470-e-rx-480/


Tutti gli orari sono GMT +1. Ora sono le: 07:45.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.