Quote:
Requirements Typical Board Power (Desktop) 300 W Minimum PSU Recommendation 850 W Se lo hanno scritto non è per sport. |
Quote:
scusa ma mi son cappottato |
https://www.anandtech.com/show/16723...game-upscaling
Questo articolo di anandtech mi fa perdere un po' le speranze. In sostanza dice che L' FSR si basa unicamente sullo spatial upscaling, senza prendere in considerazione i motion vector come è stato fatto con il dlss 2.0. In sostanza anandtech si aspetta resultati al massimo allineati con il dlss 1.0... Oltre al fatto che hanno estratto un immagine raw dalle slide che gli hanno inviato alla stampa...e da come si vede in modalita "Quality" la perdita di risoluzione è enorme così come il Blur... Bah...se fosse così sarebbe davvero deludente. |
Quote:
Radeon 6900XT: Media in gioco: 304w Picchi 10-20ms: 337w Picchi 5-10ms: 363w Picchi 1-5ms: 391w Picchi <1ms: 476w (non fai 300w di altra componentistica, non senza OC) RTX 3090: Media in gioco: 361w Picchi 10-20ms: 359w Picchi 5-10ms: 372w Picchi 1-5ms: 440w Picchi <1ms: 574w che sia suggerito un 750w da nVidia lo puoi verificare dalle specifiche complete sul sito ufficiale, e sono: Potenza della scheda grafica (W) 350 Potenza consigliata dell'alimentatore di sistema (W) (2) 750 la nota riporta: I requisiti si riferiscono a PC configurati con un processore Intel Core i9 10980XE. Una potenza inferiore potrebbe funzionare a seconda della configurazione del sistema. E sarebbero anche giusti considerando il consumo MEDIO della scheda. Il gruppo di continuità con report di consumo effettivo che ho non mente, e l'inferiore a 500w va considerato che ci sono altre periferiche connesse e che si è a monte dell'alimentatore, quindi con il consumo effettivo + la perdita di efficienza. No, con gli 850w AMD mi ha "fregato" un cambio di alimentatore alla versione aggiornata più che legittimo. |
Quote:
già il FidelityFX Cas che personalmente ho provato su Cyberpunk , permette un buon incremento non notando grosse differenze senza il suo utilizzo. L'Fsr è sicuramente una sua evoluzione e quindi uno strumento più completo e performante del CAS |
Supporto Andy dicendo che nella maggior parte dei Giochi che uso il RIS fa il suo sporco lavoro aumentando la definizione quasi quanto passare a risoluzione superiore. Ovviamente il trucchetto non esce ugualmente bene con tutti i giochi. Ma un Valhalla od un GTA ne traggono grande giovamento per non parlare di cyberpunk e di shadow of the tomb raider.
Col TAA è veramente un toccasana. |
Quote:
Io se attivo il CAS all'80% giocando a 1440p...l'immagine fa praticamente schifo...tutta blurred... |
Quote:
Anche se usassi i motion vector e normali teNNNNiche di predizione (come avviene nella compressione video con la stima del campo di spostamento). Questa soluzione subottima la vedrete appunto nell'Unreal Engine 5 e la potete già vedere in Ghost Recon Breakpoint e meglio ancora in Quake 2 RTX. Non è che in Nvidia siano scemi eh.....si sà che senza qualcosa che inferisca i contenuti non si possono fare miracoli di upscaling, fuori dal mondo della grafica vettoriale. |
Quote:
Per questo in Breakpoint puoi attivarlo solo se usi il TAA e poi si fa la passata di sharpening a piacimento (0->100)..... L'alternativa alle informazioni fornite dall'engine è averne "agnosticamente" una stima statistica come avviene nella compressione video. Auguri :asd: (approccio "second pass" ovviamente NON possibile, data la latenza introdotta). |
Quote:
Quote:
In sostanza, non possiamo ricostruire il maiale dalle.salsiccie :D |
Purtroppo mi trovo anch'io scettico con questa implementazione per l'upscaling.
Abbiamo già visto nel campo dell'upscaling delle immagini statiche quanta differenza faccia l'AI. Il problema così come lo è nei video è che puoi anche usare un filtro di ricostruzione che rende l'immagine molto "sharp" ma non puoi fare a meno degli artefatti e cmq non riesci a ricostruire coerentemente i dettagli. L'immagine postata su anandtech è effettivamente blurratissima e non credo proprio che AMD abbia pubblicato qualcosa che è peggiorativo della release finale. Vedremo... |
Considerate che l'upscaling è essenzialmentei in funzione del 4K calcolato in FullHD. Con monitor 27 pollici.
Se fai lo stesso partendo da 1280x720 per QuadHD 27" (ma anche 24) ottieni qualcosa di.....non soddisfacente :p |
Quote:
Quote:
|
Quote:
mi sono tolto il dubbio ieri. ho reinstallato marvel avengers, settato tutto su ultra ,e via. dopo 3 ore nessun spegnimento. x cui avevo il pc che aveva bisogno di una formattata. cmq grazie mille x la delucidazione dell'ali |
Quote:
Quale sarebbe questa "trappola" ? Non c'è hw dedicato a parte per il raytracing...... |
Quote:
|
Vi ricordo che anche il DLSS 1.0 faceva pietà. Io aspetterei a dare il FSR per morto prima di nascere, anche perchè dietro ogni tecnologia c'è sempre un team di sviluppo che ha investito tempo e soldi per realizzarlo e che di certo avrà tutto l'interesse del migliorarlo.
Il lancio magari zoppicherà e non renderà 1/10 di quello che è il dlss di Nvidia (che ricordo si tratta di tutt'altra tecnologia) ma non mi stupirei se AMD riuscisse in tempi celeri a potenziarlo e a renderlo interessante. Ricordo che ad avere queste feature ben realizzate ci guadagnamo tutti, sempre. |
Quote:
Ti faccio anche notare che scrivono che se AMD riuscisse a ottenere buoni risultati con uno scaling solo spazione e non temporale sarebbe da primato... Inoltre ha ribadito in maniera chiara che è troppo presto per dare un giudizio definitivo ma che i presupposti non sono i migliori. Anche HWU(Unboxed), si è espresso con una opinione che sarà da confermare o meno, sul fatto che le aspettative con questi presupposti sono di un DLSS della prima iterazione. Io spero vivamente che i risultati visti dal materiale presentato siano frutto di una release ancora non del tutto matura e che succeda qualcosa di li al 22 giugno! Penso anche che AMD non avrebbe impiegato tutto questo tempo per realizzare qualcosa che parrebbe peggio del checkboard. Speriamo in un inghippo!!! |
C'è un motivo se AMD si sta comprando XILINX.
Xilinx è leader nel mercato FPGA ed ha già chip per ML. Magari in futuro ci saranno FPGA disegnati e programmati per avere upscaling in hw :) |
Quote:
|
Quote:
|
Quote:
https://steamuserimages-a.akamaihd.n...9DFD96E40A72F/ https://steamuserimages-a.akamaihd.n...349619A08898B/ qual'è quello con CAS per te? e per voi del forum ? |
Quote:
HW in più -> non si può dire nulla (a proposito com'era la storia dei primitive shader e Vega? :D ) HW in meno -> va su tutto con la stessa qualità a pari impostazioni |
Quote:
(che fa il DOWNSCALING in base all'input del mouse) Letteralmente scomparso dai radar in 2 anni e per 2 tutti e 2 gli anni, doveva essere rivoluzionario :D (aggià che va benissimo se forzi la ggggente ad usare il motion blur, che è una delle FIUCIOR più adorate e ben viste dalla pc master race come ben sappiamo :asd: Che strano che la sua adozione sia stata un fallimento colossale :v ) |
Quote:
|
Quote:
Poi ovvio che siano strategiche come realtà che si occupano di progettazione soluzioni per l'ambito dell' AI. Anche se in quel caso (upscaling) è meglio un ASIC, una FPGA è utile quando occorre qualcosa di rapidamente riconfigurabile (tipo rete neurale basata su hw neuromorfico) Sperando non finisca tutto come il KINECT di MS :sofico: (rimozione dalla memoria collettiva IN MASSA di qualcosa che promettava che l'intrattenimento non sarebbe stato più lo stesso). |
Quote:
A me viene in mente l'MFAA in Maxwell (tuttora supportato in Pascal e Turing e penso anche in Ampere) o il Simultaneous Multi-Projection in Pascal (per la VR, altra cosa che doveva rivoluzionare tutto :sofico: ) Come tutti sappiamo si è steso poi alla fine un velo pietoso sul 3D Vision (stereoscopia)......settore cinematografico compreso :doh: |
Quote:
|
Quote:
|
Quote:
|
Quote:
Il VRS secondo me è davvero un'ottima feature, ma non è molto supportata. Funzionava anche in Metro Exodus ma non nella EE. In Cyberpunk funziona alla grande. |
Quote:
|
Quote:
Il problema semmai è che usano ancora la versione 3 (nei progetti in sviluppo da anni è inevitabile) e non la 4 che è perfettamente OpenSource. Perchè? Abitudine e integrazione già garantita. GSync funziona benone e bene con i monitor della whitelist di Nvidia. SLI è concettualmente in conflitto diretto con GSync e altre tecnologie di "dialogo intelligente" col monitor, inoltre in DX12/Vulkan+PCIE 3.0/4.0 (e tecnologie varie legate virtualizzazione degli indirizzi di memoria) diventa "inutile" esattamente come con Windows 10 è diventato inutile Optimus (e prima ancora Virtu se ve la ricordate). |
Quote:
Non ha niente di intelligente e necessita del Motion Blur attivo (o almeno un Temporal AA) per nascondere gli artefatti di downscaling. Non c'è alcuna "analisi" della scena o del frame, solo dell'input. |
Quote:
Non a caso la fisica di oggi nei giochi è ridotta all'osso o fà pena. Degli ultimi gioco da me provati solo Control fà un buon uso in questo senso di certe librerie. Gli altri ce l'hanno ficcate dentro per sport, ma all'atto pratico sono ridicoli. |
Quote:
Quote:
|
Quote:
|
Quote:
Magari non sapevate di questa piccola grande ladrata (cioè che parte dell'accelerazione fornita dalle GPU Nvidia manco riguardava la GPU in sè ma la sua semplice presenza nel sistema E per anni anche il fatto che fosse la GPU settata per il rendering del gioco - se queste 2 condizioni non erano rispettate venita forzato l'uso del path x87 invece di quello SSE/AVX) :O |
Quote:
Ecco un video di warzone a 4k ultra+rt con radeon boost e vrs https://www.youtube.com/watch?v=z87bgS01X_U&t=301s Minuto 2 e 50 |
|
Tutti gli orari sono GMT +1. Ora sono le: 07:45. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.