Quote:
Cmq Crysis 3 effettivamente lo forzai in 5K e se avevo il 30% di utilizzo della GPU in 5K mi sembrava non scendesse mai sotto il 90%. Chiaro che dovrebbe essere al 97-99% a prescindere dalla risoluzione. Cmq sicuramente Crysis 3 remaster risolverà il problema finalmente!!! |
Quote:
|
Quote:
|
AMD ha lo scheduler in hw dal 2012 e le DX11 sono limitate nel gestirlo, nvdia aveva fatto il trucchetto nei driver avendo uno scheduler software (dopo che amd aveva fatto uscire la prima implementazione mantle, che poi porterà a vulkan), cosa che invece è controproducente oggi per nvidia in DX12 su cpu poco potenti, le 5700XT superano le 3090 in certi scenari/giochi,..infatti le prossime avranno guarda caso scheduler hw come amd fa da quasi dieci anni.
non mi aspetto che cambi nulla su titoli di dieci anni da questo punto di vista, non ha senso commercialmente .... ha senso invece sui remastered (che ormai paiono l'unica cosa che sanno fare le software house) |
Quote:
Inviato dal mio Redmi Note 8 utilizzando Tapatalk |
Quote:
Infatti è sempre questo il pregio e difetto, in DX11 AMD soffre sempre se il gioco/motore non prevede di andare multithread di suo, e al contrario DX12/Mantle/Vulkan le danno vantaggio visto che non deve fare schedule via software che comunque porta via cicli. Sono 2 diversi approcci e basta, fino alle 5700 e peggio ora con le 6000 lo scheduler hardware limitava fino a un certo punto, ora con schede così potenti è chiaro che "l'idle time" diventa importantissimo. E sì, anche il 5800X non basta, la dimostrazione la hai cambiando risoluzione verso l'alto, farai gli stessi FPS (o di più per assurdo, come capita a me su Assassin's Creed Odyssey o Origin :asd: ). Non è una cosa che AMD può "fixare" via driver, visto che appunto lo scheduling non avviene via driver. Lo deve fare lo sviluppatore in caso, es. il Frostbite che pur usato in DX11 vola. |
Quote:
|
Quote:
|
Quote:
Su Windows 10 il lag così introdotto è trascurabile (l'exclusive fullscreen non è più la modalità preferita da Windows dai tempi di Windows 8), soprattutto se vincoli il framerate ad un valore massimo fisso che "dia fiato" al sistema (la frequenza di refresh invece coincide con quella del desktop di Windows, ovviamente, e solitamente giocando così in finestra il tearing è meno avvertibile in quanto c'è già un filtraggio parziale operato dal DWM, il gestore delle finestre di Windows -> tradotto: puoi dimenticarti del Vertical Sync con le problamatiche annesse lasciandolo pertanto disabilitato). |
Quote:
"Allow job stealing" e "D3D11_CREATE_DEVICE_PREVENT_INTERNAL_THREADING_OPTIMIZATIONS" :D (quest'ultima da usare per bloccare ogni forma di mulithreading da parte del driver). |
Interessantissimo video del DF dove analizzano UE5
https://www.youtube.com/watch?v=C99VwDGyLg0&t=226s Di interesse per il thread c'è una bella comparazione tra 6800XT e 3080, ove si vede chiaramente come la scheda rossa è più performante. Ciò impostando il TSR quindi con risoluzione interna di 1080P. Fanno anche una comparazione tra nativo e TSR e quest'ultimo sembra avere una resa davvero ottima. Se ci va male con l'FSR abbiamo sembra un'alternativa interessante al DLSS. Una considerazione sull'implementazione del TSR: lavorando a risoluzione interna inferiore al 4K si crea un naturale vantaggio per le RX 6000 che per l'appunto grazie ad un overhead inferiore e a tempi di accesso migliori alla memoria traggono un certo beneficio. Altra considerazione: per quanto il TSR non abbia la stessa qualità della nativa, risulta decisamente efficace. A mio modo di vedere preferisco, e di gran lunga, avere 60fps con un dettaglio elevato come quello della demo e perdere magari qualcosa sulla pulizia dell'immagine usando una tecnica di upscaling. |
Se l'upscaling fa anche contemporaneamente da TAA è accettabilissimo.
|
Elon Musk ha dimostrato Cyberpunk 2077 che girava.. su una Tesla model S, munita di APU AMD (non dichiarato se Zen 2 o Zen3) e Navi23, a 1080p e -pare- 60 FPS (non mi sembra siano stati divulgati i dettagli).
https://videocardz.com/newz/elon-mus...md-navi-23-gpu |
se è più performante ma si vede peggio tantovale, cioè il confronto va fatto pari qualità di immagine
|
Quote:
Anche l'MSAA (con le sue varianti) non potrà mai competere in "nitidezza dei bordi" con l'immagine a risoluzione nativa e non filtrata. In più l'MSAA non è poi così esente confrontato con FXAA, SMAA e altri AA ottenuti tramite banale postprocessing - da problemi tecnici legati al rapporto fra campionamento subpixel e depth buffer - un classico esempio di fallimento della tecnica è dato da un oggetto con bordi netti circondato da un fluido.....il fluido è renderizzato sempre per ultimo nella pipeline e quando l'MSAA fa la sua passata, se non si prendono appositi accorgimenti (alcuni estremamente lollosi), campiona subpixel del fluido e dell'oggetto sui bordi creando letteralmente un effetto "vortice" lungo gli stessi dato che tipicamente il fluido è animato vorticosamente. |
Quote:
A proposito, ma la 3080 e la 3090 non hanno roboanti 8k e 10k cuda cores? mi ricorda le uba ficiur di vega |
Quote:
|
Quote:
:sofico: :sofico: :sofico: (sì lo so che volevi scrivere "SALVO") |
Quote:
Quote:
Navi sono pochi cazzuti con frequenze interstellari vs ampere che è più un bulldozer a basso tiro |
Quote:
Quote:
|
Tutti gli orari sono GMT +1. Ora sono le: 01:41. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.