View Full Version : [Thread Ufficiale] nVidia AD102-AD103 (RTX 4090 - 4080/Super - 4070Ti Super)
albero77
06-02-2023, 22:31
Aggiornamento Coil Whine:
Oggi prima di lavoro ho fatto girare 6-7 volte il benchmark di Cyberpunk e poi prima di partire ho lasciato la scheda in loop con 3dmark Port Royal, con i 20 loop che lui propone. Bene: un po' di coil whine c'è ancora, ma la scheda è muta rispetto a 2 giorni fa.
Sto giocando cose leggere questi giorni, ma domani provo a rilasciarla sotto sforzo pesante e vediamo se migliora ancora!
https://www.reddit.com/r/nvidia/comments/100gxul/rtx_4090_coil_whine_review/
per chi fosse interessato,
segnalo il cavo Corsair nero a 21,30€ ora sull'amazzone :D
domanda
ho questo monitor
https://www.samsung.com/it/monitors/led-hg70qqu/LC32HG70QQUXEN/
che inizia ad essere "piccolo" per una 4090
dimensioni max 34, che 4K onesto , curved con VR, posso acquistare?
vostre esperienze?
domanda..
dimensioni max 34, che 4K onesto , curved con VR, posso acquistare?
vostre esperienze?
https://www.rtings.com/monitor/reviews/dell/g3223q
https://www.dell.com/it-it/shop/monitor-per-il-gaming-4k-uhd-dell-32-g3223q/apd/210-bdxs/monitor-e-accessori
;)
https://i.postimg.cc/gJVML6T1/RTX-4090.jpg (https://postimg.cc/TLPjZhGc)
Eccola, al momento zero Coil wine, con bios 450W con un +160/1000 mi ha fatto un 27450 su port Royal toccando i 3060mhz, temperature in Auto 58°.. per il discorso undervolt quale' la soglia al disotto del quale non scendere 0.900mv/0.950mv ?? a breve un flash del bios 600W per qualche bench niente di piu, che dire, tanta roba..:cool:
https://www.rtings.com/monitor/reviews/dell/g3223q
https://www.dell.com/it-it/shop/monitor-per-il-gaming-4k-uhd-dell-32-g3223q/apd/210-bdxs/monitor-e-accessori
;)
grazie x la dritta
:)
Re-voodoo
07-02-2023, 10:37
https://i.postimg.cc/gJVML6T1/RTX-4090.jpg (https://postimg.cc/TLPjZhGc)
Eccola, al momento zero Coil wine, con bios 450W con un +160/1000 mi ha fatto un 27450 su port Royal toccando i 3060mhz, temperature in Auto 58°.. per il discorso undervolt quale' la soglia al disotto del quale non scendere 0.900mv/0.950mv ?? a breve un flash del bios 600W per qualche bench niente di piu, che dire, tanta roba..:cool:
Dipende da cosa giochi, cmq sui 0.950/0.975 è già buono a livello prestazioni/consumo
https://i.postimg.cc/gJVML6T1/RTX-4090.jpg (https://postimg.cc/TLPjZhGc)
Eccola, al momento zero Coil wine, con bios 450W con un +160/1000 mi ha fatto un 27450 su port Royal toccando i 3060mhz, temperature in Auto 58°.. per il discorso undervolt quale' la soglia al disotto del quale non scendere 0.900mv/0.950mv ?? a breve un flash del bios 600W per qualche bench niente di piu, che dire, tanta roba..:cool:
ho preso la tua stessa identica scheda
piu che altro xkè la mia 2080 Ti della Inno3D X2 ha resistito davvero bene ai miei pocciamenti, stoica
ho preso la tua stessa identica scheda
piu che altro xkè la mia 2080 Ti della Inno3D X2 ha resistito davvero bene ai miei pocciamenti, stoica
E' overcloccata a 2580 di fabbrica, ma c'e' margine per divertirsi.. una bella scheda al prezzo Piu basso disponibile al momento.. :sofico:
https://www.tweaktown.com/reviews/10324/inno3d-geforce-rtx-4090-ichill-x3/index.html#Temps-and-Power-Consumption
https://www.rtings.com/monitor/reviews/dell/g3223q
https://www.dell.com/it-it/shop/monitor-per-il-gaming-4k-uhd-dell-32-g3223q/apd/210-bdxs/monitor-e-accessori
;)
davvero valido
ma curved si trova analogo?
mi garbano assai, magari XXXX x 1440/2160 o simili
killeragosta90
07-02-2023, 17:52
per chi fosse interessato,
segnalo il cavo Corsair nero a 21,30€ ora sull'amazzone :D
Non mi risulta :confused: quale? Non è che ti confondi con il singolo classico pci-e corsair? Ho guardato anche su keepa (price tracker di amazon) e dai grafici non viene segnalato alcun abbassamento di prezzo, non credo sia il 12VHPWR...eventualmente è conclusa l'offerta? Puoi mandarmi il link? Grazie :)
Io ho preso quello bianco e nero (che deve ancora essere spedito), cambierei volentieri con quello full black
Non mi risulta :confused: quale? Non è che ti confondi con il singolo classico pci-e corsair? Ho guardato anche su keepa (price tracker di amazon) e dai grafici non viene segnalato alcun abbassamento di prezzo, non credo sia il 12VHPWR...eventualmente è conclusa l'offerta? Puoi mandarmi il link? Grazie :)
Io ho preso quello bianco e nero (che deve ancora essere spedito), cambierei volentieri con quello full black
è durato per pochissimi minuti, non so perchè non appaia in keepa.
è "venduto e spedito" da uno shop terzo, confermo che sia quello nero con paracord in rete, inguainato singolarmente.
spero arrivi, perchè quel prezzo è inferiore anche di quello del sito corsair. :stordita:
Arrow0309
07-02-2023, 20:27
Top nvidia NIS Ultra quality + grafica su Ultra + RT high sul nuovo Hogwarts Legacy in 3440:1440 (Oled in HDR) :cool:
Top immagine e fps con la 4080 :sofico:
michele_legnano
07-02-2023, 21:17
https://i.postimg.cc/Gtw4Zmbw/rtx-4090-Portal-Rtx.jpg (https://postimg.cc/MM5ZBxcd)
voi avevate notato la Rtx 4090 all'inizio del gioco Portal Rtx, al primo livello? :D
DJurassic
07-02-2023, 23:28
Top nvidia NIS Ultra quality + grafica su Ultra + RT high sul nuovo Hogwarts Legacy in 3440:1440 (Oled in HDR) :cool:
Top immagine e fps con la 4080 :sofico:
NIS fà abbastanza schifo come qualità. Tra DLAA e DLSS non vedo perchè usare il sistema peggiore che tra l'altro non ti fà nemmeno utilizzare il frame generator.
:rolleyes:
killeragosta90
07-02-2023, 23:57
è durato per pochissimi minuti, non so perchè non appaia in keepa.
è "venduto e spedito" da uno shop terzo, confermo che sia quello nero con paracord in rete, inguainato singolarmente.
spero arrivi, perchè quel prezzo è inferiore anche di quello del sito corsair. :stordita:
Ti confermo che non è stato nemmeno tracciato, dev'essere stata proprio una cosa lampo, facci sapere, se ti arriva è stato un ottimo affare!
Arrow0309
08-02-2023, 02:42
NIS fà abbastanza schifo come qualità. Tra DLAA e DLSS non vedo perchè usare il sistema peggiore che tra l'altro non ti fà nemmeno utilizzare il frame generator.
:rolleyes:
All'inizio l'immagine sembrava migliore del dlss qualità ma forse lo devo ricontrollare.
La cosa che mi ha infastidito parecchio e' l'utilizzo gpu che a volte cala sino ai 60% e sotto di conseguenza pure gli fps.
Urge nuova patch e nuovi driver
Considerazioni random, la scheda e' esageratamente potente, essendo passato al 4k nativo (tanta roba) ho impostato un profilo 2D con powerlimit al 50% cosi com'e' di default, ieri provavo Horizon5, praticamente mi da le stesse prestazioni delle 3090 generando 144fps in 4k tutto maxato. Devastante il salto a questo giro; ieri giornata di bench, una figata. Poi avendo un Ali prima serie Corsair TX950 mi sa che mi tocca il polpo, al momento non riesco a chiudere nemmeno il case oppure un cavo apposito di cablemode giusto ?? Ho visto che stanno raccogliendo le informazioni sull'adattatore a 90/180°..
Scheda devastante :lamer:
Dracula1975
08-02-2023, 06:38
Top nvidia NIS Ultra quality + grafica su Ultra + RT high sul nuovo Hogwarts Legacy in 3440:1440 (Oled in HDR) :cool:
Top immagine e fps con la 4080 :sofico:
Io con la 4090 tutto a ultra compreso ray tracing e dlss3 ultra faccio 120 fps fissi
ho gli fps cappati perche' ho LG C2 che è un 4k 120hz quindi cappo gli fps a 120 ed ho anche il gsync
unica cosa mi fa un po di "screen tearing" quando ruoto la visuale ..
per mitigare mi han detto di attivare VSync..ma in gioco è disabilitato su off e non posso modificarlo
Cutter90
08-02-2023, 06:56
Io con la 4090 tutto a ultra compreso ray tracing e dlss3 ultra faccio 120 fps fissi
ho gli fps cappati perche' ho LG C2 che è un 4k 120hz quindi cappo gli fps a 120 ed ho anche il gsync
unica cosa mi fa un po di "screen tearing" quando ruoto la visuale ..
per mitigare mi han detto di attivare VSync..ma in gioco è disabilitato su off e non posso modificarlo
Con dlss3 il vsync va attivato da pannello nvidia, ingame è disabilitato
Dracula1975
08-02-2023, 06:57
Con dlss3 il vsync va attivato da pannello nvidia, ingame è disabilitato
grazie poi stasera cerco nel pannello nvidia
ho provato al volo a misurare il consumo totale del sistema con la presa smart.
con requiem sparato tutto max e frame generator, mi segna tra i 530w e 560w al massimo.
vga @stock, cpu @5.0gnz.
dovrò fare ulteriori prove ovviamente.
se rimanessero questi i numeri, in teoria avrei un margine di circa 200 watt sul ax760 per eventuali picchi.
Sarebbe sufficiente o sarebbe cmq meglio undervoltare un pochino la 4090?
non riesco a chiudere nemmeno il case oppure un cavo apposito di cablemode giusto ?? Ho visto che stanno raccogliendo le informazioni sull'adattatore a 90/180°..
si confermo, non c'è ancora ed anche io lo aspetto
rickiconte
08-02-2023, 08:38
https://www.rtings.com/monitor/reviews/dell/g3223q
https://www.dell.com/it-it/shop/monitor-per-il-gaming-4k-uhd-dell-32-g3223q/apd/210-bdxs/monitor-e-accessori
;)
E' piatto, non curvo il monitor in questione (e non esiste una versione identica curva).
etto questo sarebbe il mio preferito, unica pecca: è oltre il mio budget.:(
Fino a qualche giorno fa stava a circa 684 euro sul sito Dell, peccato ora costi un centone in più.
Cutter90
08-02-2023, 09:06
ho provato al volo a misurare il consumo totale del sistema con la presa smart.
con requiem sparato tutto max e frame generator, mi segna tra i 530w e 560w al massimo.
vga @stock, cpu @5.0gnz.
dovrò fare ulteriori prove ovviamente.
se rimanessero questi i numeri, in teoria avrei un margine di circa 200 watt sul ax760 per eventuali picchi.
Sarebbe sufficiente o sarebbe cmq meglio undervoltare un pochino la 4090?
Per fare una prova, togli il frame generator che magari non sfrutta la gpu al 100%. Come gioco che ciuccia molto c'è spiederman e anche Metro Enanched. prova questi due che la cpu la scaldano molto. Così avrai lo scenario "massimo" per ora.
Re-voodoo
08-02-2023, 09:19
Senza dlss consuma un po di più
Ho provato al volo la nuova patch di Callisto e la situazione mi sembra molto migliorata, non so se qualcuno vuole provare, io fino a stasera non posso fare altre prove.
I frametime sono miglorati tantissimo (li misuro con rivatuner), prima erano un tragedia, per questo stutterava quale che fosse il framerate, anche con la 4090.
Dopo questa patch ho provato a caricare l'area in cui sto giocando, messo l'RT (prima ero senza RT e col framerate limitato da rivatuner) ed il tutto è perfettamente giocabile anche col framerate sbloccato e gsync attivato, come dovrebbe essere (ed infatti la linea del frametime è molto più stabile).
nervoteso
08-02-2023, 10:29
salve, ho tre monitor, gioco alla risoluzione 5076, ha senso passare da 3080 a 4080 o 4090?
mattxx88
08-02-2023, 10:30
voi avevate notato la Rtx 4090 all'inizio del gioco Portal Rtx, al primo livello? :D
Varia in base alla scheda che hai nel pc, se monti una amd vedi una ciotola di riso
Cristallo
08-02-2023, 10:35
Ciao a tutti,
questa soluzione:
https://www.amazon.it/gp/product/B0BGH2T31H/ref=ox_sc_saved_image_2?smid=&th=1
Volevo nascondere il polpo originale NVidia continuando a usarlo, però.
Saluti
E' piatto, non curvo il monitor in questione (e non esiste una versione identica curva).
etto questo sarebbe il mio preferito, unica pecca: è oltre il mio budget.:(
Fino a qualche giorno fa stava a circa 684 euro sul sito Dell, peccato ora costi un centone in più.
etto...?
scappato il link immagino :D
rickiconte
08-02-2023, 10:57
D...etto:D
DJurassic
08-02-2023, 13:00
All'inizio l'immagine sembrava migliore del dlss qualità ma forse lo devo ricontrollare.
La cosa che mi ha infastidito parecchio e' l'utilizzo gpu che a volte cala sino ai 60% e sotto di conseguenza pure gli fps.
Urge nuova patch e nuovi driver
Questo è come gira da me con la 4090. Anche io ho un utilizzo della GPU non ottimale ma credo dipenda dalla CPU (ho un 5900x che cambierò entro breve).
https://www.youtube.com/watch?v=qvsrB06IHcI&t=20s
Io con la 4090 tutto a ultra compreso ray tracing e dlss3 ultra faccio 120 fps fissi
ho gli fps cappati perche' ho LG C2 che è un 4k 120hz quindi cappo gli fps a 120 ed ho anche il gsync
unica cosa mi fa un po di "screen tearing" quando ruoto la visuale ..
per mitigare mi han detto di attivare VSync..ma in gioco è disabilitato su off e non posso modificarlo
E' off perchè hai attivo il frame generator. Se hai screen tearing forse non hai il Gsync attivo da NVCP oppure dal TV. Abbiamo lo stesso pannello e se scorri nelle impostazioni c'è l'opzione VRR che deve essere attivata.
Questa per intenderci:
https://i.postimg.cc/KvNLC0DY/2023-02-08-140428.jpg
Ho provato al volo la nuova patch di Callisto e la situazione mi sembra molto migliorata, non so se qualcuno vuole provare, io fino a stasera non posso fare altre prove.
I frametime sono miglorati tantissimo (li misuro con rivatuner), prima erano un tragedia, per questo stutterava quale che fosse il framerate, anche con la 4090.
Dopo questa patch ho provato a caricare l'area in cui sto giocando, messo l'RT (prima ero senza RT e col framerate limitato da rivatuner) ed il tutto è perfettamente giocabile anche col framerate sbloccato e gsync attivato, come dovrebbe essere (ed infatti la linea del frametime è molto più stabile).
Provato anche io ieri e con RT continua a fare pena. L'FSR mi rifiuto di utilizzarlo, è implementato malissimo e downgrada la grafica senza restituire grandi performance. Purtroppo fino a che non implementeranno il DLSS il RT in Callisto Protocol è un opzione da evitare come la peste.
Senza RT il gioco vola ma lo faceva anche prima di questa patch. Lo stuttering era stato già fixato come prima cosa.
Dracula1975
08-02-2023, 13:08
Questo è come gira da me con la 4090. Anche io ho un utilizzo della GPU non ottimale ma credo dipenda dalla CPU (ho un 5900x che cambierò entro breve).
https://www.youtube.com/watch?v=qvsrB06IHcI&t=20s
E' off perchè hai attivo il frame generator. Se hai screen tearing forse non hai il Gsync attivo da NVCP oppure dal TV. Abbiamo lo stesso pannello e se scorri nelle impostazioni c'è l'opzione VRR che deve essere attivata.
Questa per intenderci:
https://i.postimg.cc/KvNLC0DY/2023-02-08-140428.jpg
il gsync è attivo sicuramente sulla tv...e sul nvidia control panel.....pero' il vsync credo di doverlo attivare invece
nel menu della mia tv ho solo gsync da attivare non VRR (cioe' nel tuo stesso menu' ho il simbolo nvdia gsync e basta e nessuna scritta "vrr" invece)
Provato anche io ieri e con RT continua a fare pena. L'FSR mi rifiuto di utilizzarlo, è implementato malissimo e downgrada la grafica senza restituire grandi performance. Purtroppo fino a che non implementeranno il DLSS il RT in Callisto Protocol è un opzione da evitare come la peste.
Senza RT il gioco vola ma lo faceva anche prima di questa patch. Lo stuttering era stato già fixato come prima cosa.
Stasera lo provo meglio, ma da me (5800x3D + 4090) nessuno stuttering è stato mai fixato completamente, semplicemente senza RT è più difficile trovarlo perchè la CPU è meno stressata, ma quando il gioco cala sotto il framerate di riferimento comunque il tutto stutterava.
Io gioco a 120hz, magari per chi gioca a 60hz la cosa cambia perchè non supera i 60fps, non so.
Alla fine, pure senza RT, avevo bloccato a 90fps con rivatuner ma quando il gioco scendeva sotto i 90 lo stutter era garantito fino a che non si risaliva sopra i 90 (sotto i 90 mi sono rifiutato, tanto comunque se cala cala anche a 60 ma non mi va di giocare a 60fps).
Senza contare che comunque la linea del frametime con rivatuner non mente.
Quanto all'FSR condivido al 100%, pure io non lo uso.
DJurassic
08-02-2023, 13:38
il gsync è attivo sicuramente sulla tv...e sul nvidia control panel.....pero' il vsync credo di doverlo attivare invece
nel menu della mia tv ho solo gsync da attivare non VRR (cioe' nel tuo stesso menu' ho il simbolo nvdia gsync e basta e nessuna scritta "vrr" invece)
Lo devi attivare anche dal pannello di controllo Nvidia. L'immagine l'ho presa sul web come esempio, lascia perdere il VRR.
Dracula1975
08-02-2023, 13:48
Lo devi attivare anche dal pannello di controllo Nvidia. L'immagine l'ho presa sul web come esempio, lascia perdere il VRR.
il gsync è attivo anche dal pannello controllo nvidia (oltre che sulla tv)
Il vsync invece non è attivo nel pannello controllo
lo devo attivare su ON? (vedo che c'è anche un "fast" da mettere nel caso)
Cutter90
08-02-2023, 13:50
il gsync è attivo anche dal pannello controllo nvidia (oltre che sulla tv)
Il vsync invece non è attivo nel pannello controllo
lo devo attivare su ON? (vedo che c'è anche un "fast" da mettere nel caso)
Si su on. Ovviamente se non attivi il vsync tutti gli fps sopra i 120 ti causano tearing, visto che il tuo pannello è a 120
Dracula1975
08-02-2023, 13:53
Si su on. Ovviamente se non attivi il vsync tutti gli fps sopra i 120 ti causano tearing, visto che il tuo pannello è a 120
ok ma in 4k ultra ray tracing e con dlss3 ultra performance non pensavo la 4090 sfondasse il cap degli 120 fps.....(con il cap a 120),,,,
Cutter90
08-02-2023, 13:57
ok ma in 4k ultra ray tracing e con dlss3 ultra performance non pensavo la 4090 sfondasse il cap degli 120 fps.....(con il cap a 120),,,,
Dlss3... ultra performance? Cioè, stai giocando in 540P? Lo sai che ultra performnace peggiora drammaricamente la risoluzione si? :D
Guarda che il dlss non serve mica per forza. Se fai 120 fps li levi e lasci la nativa + frame generator e se i a posto
Lo devi attivare anche dal pannello di controllo Nvidia. L'immagine l'ho presa sul web come esempio, lascia perdere il VRR.
Segnalo questo articolo (https://www.dsogaming.com/articles/here-is-how-you-can-significantly-improve-the-quality-of-ray-tracing-shadows-ambient-occlusion-reflections-in-hogwarts-legacy/) che ho appena visto e che sembra dare consigli su come migliorare nettamente la resa del RT.
Stasera li proverò sulla mia configurazione. Da quello che ho appena inziato a vedere stamattina, mi sembra davvero un gran gioco in tutti i suoi aspetti.
Dracula1975
08-02-2023, 13:59
Dlss3... ultra performance? Cioè, stai giocando in 540P? Lo sai che ultra performnace peggiora drammaricamente la risoluzione si? :D
Guarda che il dlss non serve mica per forza. Se fai 120 fps li levi e lasci la nativa + frame generator e se i a posto
in realtà tra tutte le guide mettono dlss in quality ma vedendo nel menu dava quality , performance, ultra performance....sinceramente non sono la differenza :D
DJurassic
08-02-2023, 14:21
ok ma in 4k ultra ray tracing e con dlss3 ultra performance non pensavo la 4090 sfondasse il cap degli 120 fps.....(con il cap a 120),,,,
Infatti non dovrebbe. Io per sicurezza abilito il Vsync da NVCP e mai dal gioco. Senza Vsync con la 4090 e DLSS 3 Quality superi tranquillamente i 140fps in molte aree del gioco. In Ultra Performance credo tu ne faccia tipo 600.
Ma quale sarebbe il senso di tutto ciò? :mbe: :mbe: :mbe:
Segnalo questo articolo (https://www.dsogaming.com/articles/here-is-how-you-can-significantly-improve-the-quality-of-ray-tracing-shadows-ambient-occlusion-reflections-in-hogwarts-legacy/) che ho appena visto e che sembra dare consigli su come migliorare nettamente la resa del RT.
Stasera li proverò sulla mia configurazione. Da quello che ho appena inziato a vedere stamattina, mi sembra davvero un gran gioco in tutti i suoi aspetti.
L'avevo postato sul thread ufficiale nella sezione giochi. L'ho anche provato personalmente e perdendo una media di 15fps si ha un boost visivo notevole, specie per quanto riguarda l'AO. Finalmente ora si nota come dovrebbe.
Cutter90
08-02-2023, 14:23
in realtà tra tutte le guide mettono dlss in quality ma vedendo nel menu dava quality , performance, ultra performance....sinceramente non sono la differenza :D
Si, ma fregatene delle guide. Se fai più di 120 fps in nativo perchè usare il dlss? Il nativo, tranne in alcuni casi è migliore del dlss
DJurassic
08-02-2023, 14:26
Si, ma fregatene delle guide. Se fai più di 120 fps in nativo perchè usare il dlss? Il nativo, tranne in alcuni casi è migliore del dlss
Qui se proprio vuoi la migliore qualità possibile c'è l'opzione DLAA che è semplicemente la migliore come sempre. Implementa la ricostruzione tramite IA ma senza applicare l'upscaling. In altre parole, godimento visivo (ma ad un prezzo).
La cosa che non capisco che a differenza di Spiderman Miles Morales qui attivando il DLAA non puoi abilitare il frame generator. Cosa abbastanza inspiegabile visto che sono 2 cose che possono tranquillamente coesistere.
Ho provato al volo la nuova patch di Callisto e la situazione mi sembra molto migliorata, non so se qualcuno vuole provare, io fino a stasera non posso fare altre prove.
I frametime sono miglorati tantissimo (li misuro con rivatuner), prima erano un tragedia, per questo stutterava quale che fosse il framerate, anche con la 4090.
Dopo questa patch ho provato a caricare l'area in cui sto giocando, messo l'RT (prima ero senza RT e col framerate limitato da rivatuner) ed il tutto è perfettamente giocabile anche col framerate sbloccato e gsync attivato, come dovrebbe essere (ed infatti la linea del frametime è molto più stabile).
Confermo i miglioramenti netti con l RT ora molto piu fluido specialmente nella rotazione della camera.
DJurassic
08-02-2023, 14:39
Confermo i miglioramenti netti con l RT ora molto piu fluido specialmente nella rotazione della camera.
Non fidatevi del primo save che caricate. Callisto è molto particolare e il frame rate oscilla moltissimo in base alla aree di gioco.
Anche io appena messo su ho caricato un salvataggio in cui ero sui 90fps, poi ne ho messo un altro e bam...mi sono ritrovato a 45.
Se il RT è migliorato lo ha fatto in modo quasi impercettibile. Tra l'altro ho lanciato nuovamente il benchmark e in 4K ultra RT FSR OFF ottengo lo stesso identico punteggio che avevo prima di questa patch. Ovvero 59fps.
Cutter90
08-02-2023, 15:36
Qui se proprio vuoi la migliore qualità possibile c'è l'opzione DLAA che è semplicemente la migliore come sempre. Implementa la ricostruzione tramite IA ma senza applicare l'upscaling. In altre parole, godimento visivo (ma ad un prezzo).
La cosa che non capisco che a differenza di Spiderman Miles Morales qui attivando il DLAA non puoi abilitare il frame generator. Cosa abbastanza inspiegabile visto che sono 2 cose che possono tranquillamente coesistere.
Al solito, c'è chi si sbatte per fare un gioco e chi no.....
Arrow0309
08-02-2023, 16:08
Questo è come gira da me con la 4090. Anche io ho un utilizzo della GPU non ottimale ma credo dipenda dalla CPU (ho un 5900x che cambierò entro breve).
https://www.youtube.com/watch?v=qvsrB06IHcI&t=20s
E' off perchè hai attivo il frame generator. Se hai screen tearing forse non hai il Gsync attivo da NVCP oppure dal TV. Abbiamo lo stesso pannello e se scorri nelle impostazioni c'è l'opzione VRR che deve essere attivata.
Questa per intenderci:
https://i.postimg.cc/KvNLC0DY/2023-02-08-140428.jpg
Provato anche io ieri e con RT continua a fare pena. L'FSR mi rifiuto di utilizzarlo, è implementato malissimo e downgrada la grafica senza restituire grandi performance. Purtroppo fino a che non implementeranno il DLSS il RT in Callisto Protocol è un opzione da evitare come la peste.
Senza RT il gioco vola ma lo faceva anche prima di questa patch. Lo stuttering era stato già fixato come prima cosa.
Pure te Gryffindor? Nice :D
Tutti i miei amici sono serpi :asd:
Confermo i miglioramenti netti con l RT ora molto piu fluido specialmente nella rotazione della camera.
Questo perchè hanno migliorato il frametime ottimizzando l'uso della cpu (un buon frametime e relativo frame pacing è essenziale per la fluidità, e naturalmente te ne accorgi subito ruotando la telecamera).
Sto facendo altre prove, non è certo ancora perfetto, ma è stato fatto un bel passo avanti.
Non fidatevi del primo save che caricate. Callisto è molto particolare e il frame rate oscilla moltissimo in base alla aree di gioco.
Anche io appena messo su ho caricato un salvataggio in cui ero sui 90fps, poi ne ho messo un altro e bam...mi sono ritrovato a 45.
Se il RT è migliorato lo ha fatto in modo quasi impercettibile. Tra l'altro ho lanciato nuovamente il benchmark e in 4K ultra RT FSR OFF ottengo lo stesso identico punteggio che avevo prima di questa patch. Ovvero 59fps.
Continui a parlare di framerate quando invece è migliorato il frametime, che non è minimamente la stessa cosa.
https://www.digitaltrends.com/computing/what-is-frame-time/
https://www.guru3d.com/articles-pages/the-callisto-protocol-pc-graphics-performance-benchmark-review,6.html
DJurassic
08-02-2023, 16:43
Continui a parlare di framerate quando invece è migliorato il frametime, che non è minimamente la stessa cosa.
https://www.digitaltrends.com/computing/what-is-frame-time/
https://www.guru3d.com/articles-pages/the-callisto-protocol-pc-graphics-performance-benchmark-review,6.html
Ma scusa da quanto tempo non lanciavi il gioco? Perchè ho il sospetto che ti sia perso le patch precedenti in cui il frametime era già stato sistemato. Poi se vedo che attivando il RT con una 4090 vedo ancora 45-50fps un pò di tristezza mi sale e se permetti lo faccio presente. Tra l'altro la CPU è ancora estremamente limitata lato multithread con RT On.
..e ho anche twittato agli sviluppatori chiedendo di portarci sto benedetto DLSS :asd:
Ma scusa da quanto tempo non lanciavi il gioco? Perchè ho il sospetto che ti sia perso le patch precedenti in cui il frametime era già stato sistemato. Poi se vedo che attivando il RT con una 4090 vedo ancora 45-50fps un pò di tristezza mi sale e se permetti lo faccio presente. Tra l'altro la CPU è ancora estremamente limitata lato multithread con RT On.
..e ho anche twittato agli sviluppatori chiedendo di portarci sto benedetto DLSS :asd:
Veramente ci sto giocando esattamente in questi giorni, l'ho preso qualche giorno fa, ed il frametime non era minimamente a posto, ma quando mai, magari.
Notare che l'analisi di Guru3D sul frametime è del 31 gennaio "The frame times reveal a lot of frame pacing issues".
Comunque non è mia intenzione intavolare una discussione su questo, volevo solo segnalare il miglioramento dell'ultima patch.
Ma scusa da quanto tempo non lanciavi il gioco? Perchè ho il sospetto che ti sia perso le patch precedenti in cui il frametime era già stato sistemato. Poi se vedo che attivando il RT con una 4090 vedo ancora 45-50fps un pò di tristezza mi sale e se permetti lo faccio presente. Tra l'altro la CPU è ancora estremamente limitata lato multithread con RT On.
..e ho anche twittato agli sviluppatori chiedendo di portarci sto benedetto DLSS :asd:
Ci sto giocando da qualche settimana e ti assicuro che il frametime è migliorato di molto (non gli fps).
Es: nella prima fase di gioco dove bisogna analizzare la stiva e si salta la prima cassa con rt nonostante i 90fps quando si ruotava la camera era molto scattoso (frametime scandalosi), ora con l ultima patch gira liscia e questo su oled c2 42 con gsync attivo. Resta il problema che essendo un gioco sponsorizzato (AMD) secondo me non sfrutta le unita' RT della 4090 come si deve, perchè vedo che nonostante la gpu vada al 100% consuma pochi watt (questo su 4k nativi). Quando gioco a Dying Light 2 (sponsorizzato NVIDIA) con l ultima patch framegeneration (DLSS3) con tutto maxato compreso RT la gpu va' a fondo scala consumando fino a 480watt (nella citta').
https://www.rtings.com/monitor/reviews/dell/g3223q
https://www.dell.com/it-it/shop/moni...or-e-accessori
sarebbe il mio preferito, unica pecca: è oltre il mio budget.:(
Fino a qualche giorno fa stava a circa 684 euro sul sito Dell, peccato ora costi un centone in più.
Ho aspettato 20 giorni per averlo da DELL a quel prezzo, se provi il 4k non torni Piu indietro alle macchie di leopardo (cit.)
Oggi mi è arrivata finalmente la Gigabyte RTX 4080 gaming OC, non sapevo che occorreva anche la staffa posteriore per fissarla, per la sua pesantezza.
Ho dovuto adattarla, smussando un angolo, altrimenti cozzava con i connettor della scheda madre Strix Rog.
https://i.postimg.cc/7YCX27Z9/Ridimensiona-di-Modifica-placca-scheda-video.png
Update coil whine:
a forza di mandarla a 450w si è stabilizzata su udibile ma non terribile. Per assurdo ora ne sento di più con test specifici (l'ultima scena del bench di FF XIV la fa letteralmente suonare, la frequenza cambia di continuo che pare una melodia).
La soglia di quando diventa udibile s'è spostata da 150w ai 190w, quindi la situazione è ancora in evoluzione.
Detto questo, nuovi driver:
GeForce GRD 528.49 - WHQL (https://www.nvidia.com/it-it/drivers/results/199881/)
Fixed Bugs
Adobe Bridge stability issues with 528.02 [3957846]
Disable Hitman 3 Resizable Bar profile on Intel platforms [3956209]
Discord update causes GPU memory clocks to drop to P2 state [3960028]
Open Issues
Toggling HDR on and off in-game causes game stability issues when non-native
resolution is used. [3624030]
Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
[Halo Wars 2] In-game foliage is larger than normal and displays constant flickering [3888343]
[Steam version] Forza Horizon 4 may freeze after 15-30 minutes of gameplay [3866530]
[GeForce RTX 4090] Watch Dogs 2 may display flickering when staring at the sky [3858016]
Increase in DPC latency observed in Latencymon [3952556]
Adobe After Effects / Media Encoder – issues with ProRes RAW files [3957455] [3957469]
Adobe Premiere Pro application instability [3940086]
albero77
08-02-2023, 21:02
Update coil whine:
a forza di mandarla a 450w si è stabilizzata su udibile ma non terribile. Per assurdo ora ne sento di più con test specifici (l'ultima scena del bench di FF XIV la fa letteralmente suonare, la frequenza cambia di continuo che pare una melodia).
La soglia di quando diventa udibile s'è spostata da 150w ai 190w, quindi la situazione è ancora in evoluzione.
Detto questo, nuovi driver:
GeForce GRD 528.49 - WHQL (https://www.nvidia.com/it-it/drivers/results/199881/)
Fixed Bugs
Adobe Bridge stability issues with 528.02 [3957846]
Disable Hitman 3 Resizable Bar profile on Intel platforms [3956209]
Discord update causes GPU memory clocks to drop to P2 state [3960028]
Open Issues
Toggling HDR on and off in-game causes game stability issues when non-native
resolution is used. [3624030]
Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
[Halo Wars 2] In-game foliage is larger than normal and displays constant flickering [3888343]
[Steam version] Forza Horizon 4 may freeze after 15-30 minutes of gameplay [3866530]
[GeForce RTX 4090] Watch Dogs 2 may display flickering when staring at the sky [3858016]
Increase in DPC latency observed in Latencymon [3952556]
Adobe After Effects / Media Encoder – issues with ProRes RAW files [3957455] [3957469]
Adobe Premiere Pro application instability [3940086]
Guarda in 3 mesi io le ho provate tutte incluso un viaggetto in assistenza, c'è poco da fare, ho effettuato delle registrazioni a circa 10/15 cm dal case, semplicemente imbarazzante, incredibile come asus faccia passare per normale un rumore che palesemente non è normale. Le ventole praticamente non si sentono, il coil whine si.
DJurassic
08-02-2023, 21:05
Ci sto giocando da qualche settimana e ti assicuro che il frametime è migliorato di molto (non gli fps).
Es: nella prima fase di gioco dove bisogna analizzare la stiva e si salta la prima cassa con rt nonostante i 90fps quando si ruotava la camera era molto scattoso (frametime scandalosi), ora con l ultima patch gira liscia e questo su oled c2 42 con gsync attivo. Resta il problema che essendo un gioco sponsorizzato (AMD) secondo me non sfrutta le unita' RT della 4090 come si deve, perchè vedo che nonostante la gpu vada al 100% consuma pochi watt (questo su 4k nativi). Quando gioco a Dying Light 2 (sponsorizzato NVIDIA) con l ultima patch framegeneration (DLSS3) con tutto maxato compreso RT la gpu va' a fondo scala consumando fino a 480watt (nella citta').
A me il gioco andava liscio già prima della patch di ieri. Lo stuttering è stata la prima cosa che hanno fixato. Quella di ieri teoricamente dovrebbe correggere solo le performance in RT e quelle purtroppo sono rimaste tali e quali a prima.
Dying Light 2 gira perfetto è vero. Da quando hanno introdotto il DLSS 3 è un altro gioco.
Veramente ci sto giocando esattamente in questi giorni, l'ho preso qualche giorno fa, ed il frametime non era minimamente a posto, ma quando mai, magari.
Notare che l'analisi di Guru3D sul frametime è del 31 gennaio "The frame times reveal a lot of frame pacing issues".
Comunque non è mia intenzione intavolare una discussione su questo, volevo solo segnalare il miglioramento dell'ultima patch.
Ma hai fatto bene a farlo. Ci stiamo confrontando dopotutto.
Questo è stato postato su Guru3d con la patch di ieri applicata: https://www.youtube.com/watch?v=8SRpx5kjoKI&t=85s
Se per voi è un miglioramento non so cosa dire.
Evangelion01
08-02-2023, 21:13
leggendo un po' messaggi mi vien un po' l'amaro in bocca.. in molte review dicono che la 4090 è sprecata per il qhd @ 144hz, ma da quanto vedo ci sono giochi dove già ora in 4k non vedi 60fps, e io stesso in qhd a seconda del titolo non riesco a sfondare i 100 ( colpa della cpu , ma tanto mi sta arrivando il 5800x3d ) . Quindi a voglia a dire che non la sfrutti... con un monitor qhd@144hz secondo me ci vai benone, ma di certo con molti titoli già ora non lo outperformi. :stordita:
DJurassic
08-02-2023, 21:39
leggendo un po' messaggi mi vien un po' l'amaro in bocca.. in molte review dicono che la 4090 è sprecata per il qhd @ 144hz, ma da quanto vedo ci sono giochi dove già ora in 4k non vedi 60fps, e io stesso in qhd a seconda del titolo non riesco a sfondare i 100 ( colpa della cpu , ma tanto mi sta arrivando il 5800x3d ) . Quindi a voglia a dire che non la sfrutti... con un monitor qhd@144hz secondo me ci vai benone, ma di certo con molti titoli già ora non lo outperformi. :stordita:
Quali sarebbero questi giochi dove la 4090 non và a 60fps in 4K?
Evangelion01
08-02-2023, 22:32
Quali sarebbero questi giochi dove la 4090 non và a 60fps in 4K?
https://www.youtube.com/watch?v=9bc0r6M30ec
ed è l'ultimo uscito ad esempio... probabilmente è un problema di ottimizzazione, ma intanto senza dlss segna 55fps...
oppure forspoken maxato rt sempre senza dlss.
Poi dovrei testarli personalmente non appena riesco, magari quei video lasciano il tempo che trovano.. spero :D
DJurassic
08-02-2023, 23:53
https://www.youtube.com/watch?v=9bc0r6M30ec
ed è l'ultimo uscito ad esempio... probabilmente è un problema di ottimizzazione, ma intanto senza dlss segna 55fps...
oppure forspoken maxato rt sempre senza dlss.
Poi dovrei testarli personalmente non appena riesco, magari quei video lasciano il tempo che trovano.. spero :D
Tralasciando che non capisco questa avversione al DLSS con RT on, si tratta di titoli mal ottimizzati dove io non tirerei troppo in ballo la scheda quanto tutto il resto. Se reputi che la 4090 non sia all'altezza di un titolo come Forspoken c'è qualcosa che ti sfugge o che dovresti rivalutare :D
Poi aggiungo che anche quando un titolo gira bene in 4K nativo io preferisco sempre attivare il dlss quality per una questione di consumi e di frame rate più elevati. Così come attivo sempre il frame generator quando è disponibile. Sarei un coglione a non farlo visto che si tratta di una tecnologia fenomenale.
Evangelion01
09-02-2023, 06:10
Tralasciando che non capisco questa avversione al DLSS con RT on, si tratta di titoli mal ottimizzati dove io non tirerei troppo in ballo la scheda quanto tutto il resto. Se reputi che la 4090 non sia all'altezza di un titolo come Forspoken c'è qualcosa che ti sfugge o che dovresti rivalutare :D
Poi aggiungo che anche quando un titolo gira bene in 4K nativo io preferisco sempre attivare il dlss quality per una questione di consumi e di frame rate più elevati. Così come attivo sempre il frame generator quando è disponibile. Sarei un coglione a non farlo visto che si tratta di una tecnologia fenomenale.
concordo sull'utilità del dlss specialmente lato consumi. Attivandolo su cyberpunk ho un calo di circa 100w netti, tanta roba. ;)
Il mio discorso era più per la questione qhd@144hz , per il quale molti dicono che la 4090 è sprecata. Dai test svolti ( tenendo conto della cpu ) in vari giochi non raggiungo i 144 fps, quindi direi che anche con questo tipo di monitor la 90 ha senso eccome..
Dracula1975
09-02-2023, 06:38
Tralasciando che non capisco questa avversione al DLSS con RT on, si tratta di titoli mal ottimizzati dove io non tirerei troppo in ballo la scheda quanto tutto il resto. Se reputi che la 4090 non sia all'altezza di un titolo come Forspoken c'è qualcosa che ti sfugge o che dovresti rivalutare :D
Poi aggiungo che anche quando un titolo gira bene in 4K nativo io preferisco sempre attivare il dlss quality per una questione di consumi e di frame rate più elevati. Così come attivo sempre il frame generator quando è disponibile. Sarei un coglione a non farlo visto che si tratta di una tecnologia fenomenale.
cmq attivando vsync dal nvidia control panel. lo screen tearing è scomparso...grazie
in compenso adesso dentro hogwarts ho crash random (freeza ed esce dal gioco)......inizio a pensare che il gioco versione PC sia un pochino mal ottimizzato.
oppure i miei 32gb ram nno siano sufficienti.
nel prologo è andato tutto bene..poi dentro al scuola..quando va va benissimo anche la grafica..poi ad un certo punto crasha
Cutter90
09-02-2023, 06:58
concordo sull'utilità del dlss specialmente lato consumi. Attivandolo su cyberpunk ho un calo di circa 100w netti, tanta roba. ;)
Il mio discorso era più per la questione qhd@144hz , per il quale molti dicono che la 4090 è sprecata. Dai test svolti ( tenendo conto della cpu ) in vari giochi non raggiungo i 144 fps, quindi direi che anche con questo tipo di monitor la 90 ha senso eccome..
La 4090 ha senso in 4k se hai un pannello da almeno 100 hz. Tutto quello che sta sotto come risoluzione e HZ la rendono non sensato come acquisto, secondo me
Cmq https://www.youtube.com/watch?v=ZEppw0jCrhE
Pare davvero che 16 gb di ram non bastino. Non ho davvero parole per descrivere una porcheria del genere. Ma ci sarà UN, dico UNO, gioco programmato dignitosamente nel 2023? Io non lo so, boh.
sertopica
09-02-2023, 07:55
La 4090 ha senso in 4k se hai un pannello da almeno 100 hz. Tutto quello che sta sotto come risoluzione e HZ la rendono non sensato come acquisto, secondo me
Cmq https://www.youtube.com/watch?v=ZEppw0jCrhE
Pare davvero che 16 gb di ram non bastino. Non ho davvero parole per descrivere una porcheria del genere. Ma ci sarà UN, dico UNO, gioco programmato dignitosamente nel 2023? Io non lo so, boh.
Come vedi non avevo letto male sull'OSD. :D
Comunque ho preso una 4090 nuova a prezzo accettabile, la palit gamerock con gli swarowski.
C'e' qualcuno con 10700k o simile nel thread? Se si', com'e' l'esperienza con sta scheda? Certo, so che saro' collodibottigliato dalla cpu e faro' molti meno fps, ma usando frame generation e rt c'e' stuttering?
Ma scusa da quanto tempo non lanciavi il gioco? Perchè ho il sospetto che ti sia perso le patch precedenti in cui il frametime era già stato sistemato. Poi se vedo che attivando il RT con una 4090 vedo ancora 45-50fps un pò di tristezza mi sale e se permetti lo faccio presente. Tra l'altro la CPU è ancora estremamente limitata lato multithread con RT On.
..e ho anche twittato agli sviluppatori chiedendo di portarci sto benedetto DLSS :asd:
la tua cpu è piu che adeguata
devi lavorare sul pbo, ha frequenze bassine assai
micronauta1981
09-02-2023, 08:16
leggendo un po' messaggi mi vien un po' l'amaro in bocca.. in molte review dicono che la 4090 è sprecata per il qhd @ 144hz, ma da quanto vedo ci sono giochi dove già ora in 4k non vedi 60fps, e io stesso in qhd a seconda del titolo non riesco a sfondare i 100 ( colpa della cpu , ma tanto mi sta arrivando il 5800x3d ) . Quindi a voglia a dire che non la sfrutti... con un monitor qhd@144hz secondo me ci vai benone, ma di certo con molti titoli già ora non lo outperformi. :stordita:
Infatti molti se ne sono sbattuti,hanno usato il cervello e l'hanno presa per il quad,o come me per il uktrawide quad.
micronauta1981
09-02-2023, 08:19
Tralasciando che non capisco questa avversione al DLSS con RT on, si tratta di titoli mal ottimizzati dove io non tirerei troppo in ballo la scheda quanto tutto il resto. Se reputi che la 4090 non sia all'altezza di un titolo come Forspoken c'è qualcosa che ti sfugge o che dovresti rivalutare :D
Poi aggiungo che anche quando un titolo gira bene in 4K nativo io preferisco sempre attivare il dlss quality per una questione di consumi e di frame rate più elevati. Così come attivo sempre il frame generator quando è disponibile. Sarei un coglione a non farlo visto che si tratta di una tecnologia fenomenale.
Perdi in qualità,se uno vuole la qualità maggiore lo tiene spento .in 2k puoi permetterti di giocare senza dlss e fidati che si vede..
Infatti molti se ne sono sbattuti,hanno usato il cervello e l'hanno presa per il quad,o come me per il uktrawide quad.
ma invece io punto al 1440 senza compromessi SEMPRE a 144fps
anche magari tra 2 anni ecco
vediamo
Cutter90
09-02-2023, 08:26
Perdi in qualità,se uno vuole la qualità maggiore lo tiene spento .in 2k puoi permetterti di giocare senza dlss e fidati che si vede..
In alcuni giochi la perdi, in altri la guadagni. Ma sicuramente è da tenere in considerazione acceso in 4k, visto che ne vale spesso la pena. Inoltre il frame generator è annch'esso un fattore devastante
Cutter90
09-02-2023, 08:27
Come vedi non avevo letto male sull'OSD. :D
Comunque ho preso una 4090 nuova a prezzo accettabile, la palit gamerock con gli swarowski.
C'e' qualcuno con 10700k o simile nel thread? Se si', com'e' l'esperienza con sta scheda? Certo, so che saro' collodibottigliato dalla cpu e faro' molti meno fps, ma usando frame generation e rt c'e' stuttering?
E' vero, hai ragione ma è pura follia una roba simile:doh:
Come vedi non avevo letto male sull'OSD. :D
Comunque ho preso una 4090 nuova a prezzo accettabile, la palit gamerock con gli swarowski.
C'e' qualcuno con 10700k o simile nel thread? Se si', com'e' l'esperienza con sta scheda? Certo, so che saro' collodibottigliato dalla cpu e faro' molti meno fps, ma usando frame generation e rt c'e' stuttering?
ho la tua stessa cpu alle tue stesse frequenze.
ho la 4090 da meno di una settimana e al momento non ho potuto fare test approfonditi.
in base al gioco, utilizzo il 3440x1440 144hz e il 4k 120hz del 55 c1.
sarebbe interessante fare un confronto gioco per gioco, per capire se siamo in linea e l'eventuale impatto della cpu.
al momento, però, NON ho hogwarts legacy.
per esempio, su requiem, 1440p uwqhd, dlss qualità e frame generation on, con tutto al massimo, ho picchi anche di 250 frames.
al momento tutto sembra un altro mondo, ma d'altra parte io provenivo da una 2080, quindi la cosa è abbastanza scontata :stordita:
necessito, però, test più approfonditi.
sertopica
09-02-2023, 08:57
ho la tua stessa cpu alle tue stesse frequenze.
ho la 4090 da meno di una settimana e al momento non ho potuto fare test approfonditi.
in base al gioco, utilizzo il 3440x1440 144hz e il 4k 120hz del 55 c1.
sarebbe interessante fare un confronto gioco per gioco, per capire se siamo in linea e l'eventuale impatto della cpu.
al momento, però, NON ho hogwards legacy.
per esempio, su requiem, 1440p uwqhd, dlss qualità e frame generation on, con tutto al massimo, ho picchi anche di 250 frames.
al momento tutto sembra un altro mondo, ma d'altra parte io provenivo da una 2080, quindi la cosa è abbastanza scontata :stordita:
necessito, però, test più approfonditi.
Perfetto! Io non ho Requiem pero'. :asd:
Gioco o a 1440p o a 4k dal CX. Sono anche molto curioso di giocare a 5k sul monitor piu' piccolo tramite DSR. Sara' una goduria mi sa. :cool:
Posso testare con Harry Pothead, Cyberpanchina 2077, Witcher 3 NG, Crysis Remaster, Control. Ma la scheda deve ancora arrivare. :D
micronauta1981
09-02-2023, 09:12
In alcuni giochi la perdi, in altri la guadagni. Ma sicuramente è da tenere in considerazione acceso in 4k, visto che ne vale spesso la pena. Inoltre il frame generator è annch'esso un fattore devastante
Non puoi guadagnare qualità con un algoritmo che parte da una risoluzione inferiore..ti sembra che guadagni perché alcuni giochi applicano di default un aa pessimo,e non puoi disabilitarlo..per quello con dlss poi ti sembra meglio..
DJurassic
09-02-2023, 09:19
Perdi in qualità,se uno vuole la qualità maggiore lo tiene spento .in 2k puoi permetterti di giocare senza dlss e fidati che si vede..
Come ha già scritto Cutter in alcuni giochi la perdi mentre in altre la guadagni. Non dimentichiamoci che la teoria è una cosa ma la pratica è un altra, malgrado possa sembrare un inganno. Il DLSS è una tecnologia in continuo miglioramento, la versione 2.5.1 è ancora migliore della precedente per dire, motivo che fa ben sperare per il futuro. Come ho detto ieri io lo utilizzo anche se non ho problemi di frame rate ma senza mai scendere sotto la soglia del profilo Quality. L’unico gioco dove non lo uso è Dead Space che è evidente abbia dei problemi nel gestirlo.
Perfetto! Io non ho Requiem pero'. :asd:
Gioco o a 1440p o a 4k dal CX. Sono anche molto curioso di giocare a 5k sul monitor piu' piccolo tramite DSR. Sara' una goduria mi sa. :cool:
Posso testare con Harry Pothead, Cyberpanchina 2077, Witcher 3 NG, Crysis Remaster, Control. Ma la scheda deve ancora arrivare. :D
Appena ho tempo, posso riesumare Cyberpacchia e Control ;)
micronauta1981
09-02-2023, 09:24
Come ha già scritto Cutter in alcuni giochi la perdi mentre in altre la guadagni. Il DLSS è una tecnologia in continuo miglioramento, la versione 2.5.1 è ancora migliore della precedente per dire, motivo che fa ben sperare per il futuro. Come ho detto ieri io lo utilizzo anche se non ho problemi di frame rate ma senza mai scendere sotto la soglia del profilo Quality. L’unico gioco dove non lo uso è Dead Space che è evidente abbia dei problemi nel gestirlo.
In dead space si nota molto di più anche perché quando cambi le impostazioni rimane nella schermata di gioco,se tutti i giochi lo permetterebbero,le differenze sarebbero più individuabili...io ho provato a fare screenshot e così capire dove vedere le differenze e in tutti i giochi c'è un degrado..
sertopica
09-02-2023, 09:25
Appena ho tempo, posso riesumare Cyberpacchia e Control ;)
Tornera' molto utile per comprendere quanto la CPU possa essere limitante. Ma da quello che ho capito dal tuo messaggio fai comunque una vagonata di fps almeno in un titolo.
rickiconte
09-02-2023, 09:44
Oggi mi è arrivata finalmente la Gigabyte RTX 4080 gaming OC, non sapevo che occorreva anche la staffa posteriore per fissarla, per la sua pesantezza.
Ho dovuto adattarla, smussando un angolo, altrimenti cozzava con i connettor della scheda madre Strix Rog.
https://i.postimg.cc/7YCX27Z9/Ridimensiona-di-Modifica-placca-scheda-video.png
Ma vale per tutte le 4080 o la Gaming OC è più pesante delle altre?
Certo, a saperle certe cose. Ma la staffa è compresa con la scheda video o bisogna comprarla a parte?
Cutter90
09-02-2023, 09:54
Non puoi guadagnare qualità con un algoritmo che parte da una risoluzione inferiore..ti sembra che guadagni perché alcuni giochi applicano di default un aa pessimo,e non puoi disabilitarlo..per quello con dlss poi ti sembra meglio..
Esatto. Ma attivando il dlss la definizione, colpa anche dell' AA "pessimo", è migliore, quindi guadagno. Ne abbiamo già discusso ed appurato. In molti giochi con il TAA la definizione con il dlss migliora, in 4k. Questo è un dato di fatto.
mattxx88
09-02-2023, 09:54
Ma vale per tutte le 4080 o la Gaming OC è più pesante delle altre?
Certo, a saperle certe cose. Ma la staffa è compresa con la scheda video o bisogna comprarla a parte?
https://www.kitguru.net/components/graphic-cards/dominic-moass/gigabyte-rtx-4080-gaming-oc-review/2/
rickiconte
09-02-2023, 09:56
Ti ringrazio, è compresa nella scatola!!
Vorrei però anche capire se tutte le 4080 debbano essere fissate con la staffa o se non serve.
micronauta1981
09-02-2023, 10:28
A dyingh light a quanto lo tenete il moltiplicatore del lod?io a 3440x1440 se lo imposto a 300 in alcuni punti ho un bel calo dell'uso della GPU,tipo fuori dal fish Eye dalla parte dove ci sono i treni,se vado lì l uso della GPU scende anche fino a 70..lo sweet spot per me è 200
micronauta1981
09-02-2023, 10:30
Esatto. Ma attivando il dlss la definizione, colpa anche dell' AA "pessimo", è migliore, quindi guadagno. Ne abbiamo già discusso ed appurato. In molti giochi con il TAA la definizione con il dlss migliora, in 4k. Questo è un dato di fatto.
Si,quindi non è meglio della nativa, è meglio del taa 😅😅😅 se usi il dldsr quindi un vero antialiasing la differenza è veramente tanta
DJurassic
09-02-2023, 10:49
In dead space si nota molto di più anche perché quando cambi le impostazioni rimane nella schermata di gioco,se tutti i giochi lo permetterebbero,le differenze sarebbero più individuabili...io ho provato a fare screenshot e così capire dove vedere le differenze e in tutti i giochi c'è un degrado..
Non è assolutamente così. Non c'entra nulla il fatto che vedi i cambiamenti in tempo reale perchè basta fare uno screenshot con dlss on e off per vedere le differenze. In 4K con dlss quality al 99% delle volte non c'è alcun degrado. Poi sinceramente sono anche discorsi fatti un milione di volte che non portano a nulla.
Si,quindi non è meglio della nativa, è meglio del taa se usi il dldsr quindi un vero antialiasing la differenza è veramente tanta
Forse non lo sai ma il TAA è utilizzato da qualche anno in ogni gioco. In molti casi non è nemmeno possibile rimuoverlo e comunque se lo facessi, noteresti un aliasing piuttosto evidente nonostante la tua tanto amata res nativa.
Forse non lo sai ma il TAA è utilizzato da qualche anno in ogni gioco. In molti casi non è nemmeno possibile rimuoverlo e comunque se lo facessi, noteresti un aliasing piuttosto evidente nonostante la tua tanto amata res nativa.
Parlando di effetti grafici, mi puoi dire che impostazioni usi per Hogwart Legacy? Personalmente il tweak per aumentare gli effetti RT l'ho tolto perchè all'interno del castello diventava abbastanza ingestibile, davvero troppo pesante.
micronauta1981
09-02-2023, 11:09
Non è assolutamente così. Non c'entra nulla il fatto che vedi i cambiamenti in tempo reale perchè basta fare uno screenshot con dlss on e off per vedere le differenze. In 4K con dlss quality al 99% delle volte non c'è alcun degrado. Poi sinceramente sono anche discorsi fatti un milione di volte che non portano a nulla.
Forse non lo sai ma il TAA è utilizzato da qualche anno in ogni gioco. In molti casi non è nemmeno possibile rimuoverlo e comunque se lo facessi, noteresti un aliasing piuttosto evidente nonostante la tua tanto amata res nativa.
Res nativa più antialiasing è anni luce meglio del dlss..chi lo nega o fa apposta o non sa cogliere le differenze...ti ripeto usa il dldsr che è a tutti gli effetti un aa,poi compara con il dlss qualità ..poi torna a dirmi si hai ragione .cmq chiuso il discorso tanto è inutile
DJurassic
09-02-2023, 11:14
la tua cpu è piu che adeguata
devi lavorare sul pbo, ha frequenze bassine assai
Si è scoperto l'arcano. E' un bug del gioco.
https://i.ibb.co/Z2FH83W/2023-02-09-121453.jpg
Res nativa più antialiasing è anni luce meglio del dlss..chi lo nega o fa apposta o non sa cogliere le differenze...ti ripeto usa il dldsr che è a tutti gli effetti un aa,poi compara con il dlss qualità ..poi torna a dirmi si hai ragione .cmq chiuso il discorso tanto è inutile
Io non so come fate a cogliere tutte queste differenze. In 4k tra dlss qualità e nativa davvero non riesco a notare differenze. Forse neanche a 1600p
micronauta1981
09-02-2023, 11:18
Io non so come fate a cogliere tutte queste differenze. In 4k tra dlss qualità e nativa davvero non riesco a notare differenze. Forse neanche a 1600p
Evidentemente stai paragonando il dlss con il taa del gioco..ecco perché
micronauta1981
09-02-2023, 11:19
Ci sono molti motivi,magari giochi su un TV a 3 metri dal pannello e non "vedi differenze".ne ho conosciuti parecchi così.. purtroppo è vero..😅😅😅
Ci sono molti motivi,magari giochi su un TV a 3 metri dal pannello e non "vedi differenze".ne ho conosciuti parecchi così.. purtroppo è vero..������
Gioco anche meno di 3 m dall Oled 55":D :D . Forse 2,5 m. ma questo accade anche sul monitor 1600cp . Scusa, ma se TAA non si può eliminare in alcuni giochi, a questo punto attiviamo il dlss e inutile parlarne. Io credo che anche se non lo vedo, un minimo di differenza ci dev essere, per via del processo, è inevitabile. io dead space lo stogiocando con dlss qualità tutto al massimo ed è ottimo. In che modo posso provare quello che dici tu?
DJurassic
09-02-2023, 11:25
Parlando di effetti grafici, mi puoi dire che impostazioni usi per Hogwart Legacy? Personalmente il tweak per aumentare gli effetti RT l'ho tolto perchè all'interno del castello diventava abbastanza ingestibile, davvero troppo pesante.
Tutto su Ultra con DLSS Quality + Frame generator + tweak per migliorare il RT. Risoluzione di partenza 4K.
Stasera faccio un video se vuoi dentro il castello di Hogwarts.
Res nativa più antialiasing è anni luce meglio del dlss..chi lo nega o fa apposta o non sa cogliere le differenze...ti ripeto usa il dldsr che è a tutti gli effetti un aa,poi compara con il dlss qualità ..poi torna a dirmi si hai ragione .cmq chiuso il discorso tanto è inutile
Quindi per dimostrare la tua tesi tocca usare il downscaling ignorando che si sta usando una res più elevata di quella del tuo schermo? Bel modo di fare le comparative. :asd:
Quando poi scrivi anni luce meglio del dlss la voglia di risponderti cala vertiginosamente. Perchè dimostri di non aver capito nulla di cui si sta parlando.
Tutto su Ultra con DLSS Quality + Frame generator + tweak per migliorare il RT. Risoluzione di partenza 4K.
Stasera faccio un video se vuoi dentro il castello di Hogwarts.
Si certo sarebbe ottimo vedere un video, mi puoi dire pure che potenza assorbe la scheda quando lavora pesantemente in quel gioco? Mi sa davvero che questo è il primo gioco che richiede le briglie sciolte alla 4090.
DJurassic
09-02-2023, 11:39
Si certo sarebbe ottimo vedere un video, mi puoi dire pure che potenza assorbe la scheda quando lavora pesantemente in quel gioco? Mi sa davvero che questo è il primo gioco che richiede le briglie sciolte alla 4090.
Avevo postato questo qualche pagina fà ma non erano ancora usciti i tweak per il RT: https://www.youtube.com/watch?v=qvsrB06IHcI&t=83s
Purtroppo con il 5900x la 4090 non riesco a sfruttarla al 100% e di conseguenza anche l'assorbimento non è attendibile nonostante abbia rimosso il vsync e lasciato la gpu a briglia sciolta.
Cutter90
09-02-2023, 12:08
Res nativa più antialiasing è anni luce meglio del dlss..chi lo nega o fa apposta o non sa cogliere le differenze...ti ripeto usa il dldsr che è a tutti gli effetti un aa,poi compara con il dlss qualità ..poi torna a dirmi si hai ragione .cmq chiuso il discorso tanto è inutile
Semplicemente ti stai sbagliando. Abbiamo già visto decine di volte comparazione, e io stesso le ho portate, in cui in molti giochi il dlss è migliore della nativa + TAA. Qualsiasi altra considerazione che non sia oggettiva come le comparazioni sono solo parole e ipotesi. E come tali possono essere errate.
Che poi sia colpa del TAA o no cambia ZERO. Perchè il risultato finale è quello che conta. E' il TAA che si usa e alle volte nemmeno si può disattivare.
PS: 65 pollici oled con distanza corretta di 2,5 metri. Non mi permetterei mai di affermare certe cose in condizioni errate di visione
Dracula1975
09-02-2023, 12:38
Avevo postato questo qualche pagina fà ma non erano ancora usciti i tweak per il RT: https://www.youtube.com/watch?v=qvsrB06IHcI&t=83s
Purtroppo con il 5900x la 4090 non riesco a sfruttarla al 100% e di conseguenza anche l'assorbimento non è attendibile nonostante abbia rimosso il vsync e lasciato la gpu a briglia sciolta.
che monitor hai?
perche' io stessa tua config (rt ultra, dlss3 quality, 4090)..
ma avendo un 4k 120hz devo usare il vsync per non avere tearing...
tu non riscontri dei crash? (nelle scene di parlato o nella mappa) hai 32gb ram?
cosa sono questi "tweak" per il RT? edit: ok trovato...modificare il file del gioco...
DJurassic
09-02-2023, 13:01
che monitor hai?
perche' io stessa tua config (rt ultra, dlss3 quality, 4090)..
ma avendo un 4k 120hz devo usare il vsync per non avere tearing...
tu non riscontri dei crash? (nelle scene di parlato o nella mappa) hai 32gb ram?
cosa sono questi "tweak" per il RT? edit: ok trovato...modificare il file del gioco...
Ho un LG C2 Oled 4K 120hz, e infatti in quel video il tearing ce l'avevo anche io. L'ho fatto così per lasciare la scheda a briglia sciolta ma altrimenti uso sempre il Vsync attivo + Gsync.
Di crash non ne ho visto mezzo finora. Hai la GPU in oc spinto?
Dracula1975
09-02-2023, 13:28
Ho un LG C2 Oled 4K 120hz, e infatti in quel video il tearing ce l'avevo anche io. L'ho fatto così per lasciare la scheda a briglia sciolta ma altrimenti uso sempre il Vsync attivo + Gsync.
Di crash non ne ho visto mezzo finora. Hai la GPU in oc spinto?
no nessun OC ne cpu ne gpu..bho sarà il mio gioco mezzo rotto :D
ps anche io lg c2 e gioco come te esattamente..(rt ultra, dlss3 quality)
con vsync e gsync attivo..addirittura pensavo fosse colpa del vsync i crash...ma ne dubito
alcuni davano al colpa dei crash al file paging troppo piccolo..allora l'ho attivato anche sul mio ssd esterno da 2tb dove salvo ed installo tutti i giochi..(in 4k il gioco ciuccia 25gb ram...circa)
DJurassic
09-02-2023, 13:38
no nessun OC ne cpu ne gpu..bho sarà il mio gioco mezzo rotto :D
ps anche io lg c2 e gioco come te esattamente..(rt ultra, dlss3 quality)
con vsync e gsync attivo..addirittura pensavo fosse colpa del vsync i crash...ma ne dubito
alcuni davano al colpa dei crash al file paging troppo piccolo..allora l'ho attivato anche sul mio ssd esterno da 2tb dove salvo ed installo tutti i giochi..
Ieri sono usciti i nuovi driver Nvidia. Prova a pulire la versione attuale usando DDU e installa la nuova versione per vedere se risolvi.
DDU (https://www.guru3d.com/files-details/display-driver-uninstaller-download.html)
Driver 528.49 WHQL (https://www.guru3d.com/news-story/download-nvidia-geforce-528-49-whql-driver.html)
micronauta1981
09-02-2023, 13:43
Tutto su Ultra con DLSS Quality + Frame generator + tweak per migliorare il RT. Risoluzione di partenza 4K.
Stasera faccio un video se vuoi dentro il castello di Hogwarts.
Quindi per dimostrare la tua tesi tocca usare il downscaling ignorando che si sta usando una res più elevata di quella del tuo schermo? Bel modo di fare le comparative. :asd:
Quando poi scrivi anni luce meglio del dlss la voglia di risponderti cala vertiginosamente. Perchè dimostri di non aver capito nulla di cui si sta parlando.guarda che il mio monitor rimane 3440x1440 semplicemente lo renderizza ad una ris superiore,ma sempre 3440x1440 rimane il monitor, l'immagine ne risulta più definita,quindi è un puro antialiasing, ma quello vero non quello finto via software che usano quasi tutti i giochi di oggi
micronauta1981
09-02-2023, 13:44
Gioco anche meno di 3 m dall Oled 55":D :D . Forse 2,5 m. ma questo accade anche sul monitor 1600cp . Scusa, ma se TAA non si può eliminare in alcuni giochi, a questo punto attiviamo il dlss e inutile parlarne. Io credo che anche se non lo vedo, un minimo di differenza ci dev essere, per via del processo, è inevitabile. io dead space lo stogiocando con dlss qualità tutto al massimo ed è ottimo. In che modo posso provare quello che dici tu?
Metti in pausa in un punto dove ci sono parti metalliche sottili fissa l immagine,metti il taa fai applica e vedrai le differenze
micronauta1981
09-02-2023, 13:46
Semplicemente ti stai sbagliando. Abbiamo già visto decine di volte comparazione, e io stesso le ho portate, in cui in molti giochi il dlss è migliore della nativa + TAA. Qualsiasi altra considerazione che non sia oggettiva come le comparazioni sono solo parole e ipotesi. E come tali possono essere errate.
Che poi sia colpa del TAA o no cambia ZERO. Perchè il risultato finale è quello che conta. E' il TAA che si usa e alle volte nemmeno si può disattivare.
PS: 65 pollici oled con distanza corretta di 2,5 metri. Non mi permetterei mai di affermare certe cose in condizioni errate di visione
Se il gioco applica il taa non è risoluzione nativa pura, è impastata per via del taa..se trovi un gioco dove nn c'è il taa e compari vedrai come cambia.. semplicemente non state paragonando l immagine nativa ma un immagine rielaborata
DJurassic
09-02-2023, 13:51
guarda che il mio monitor rimane 3440x1440 semplicemente lo renderizza ad una ris superiore,ma sempre 3440x1440 rimane il monitor, l'immagine ne risulta più definita,quindi è un puro antialiasing, ma quello vero non quello finto via software che usano quasi tutti i giochi di oggi
Quindi? Di fatto stai visualizzando un immagine molto più grande ridotta alle dimensioni del tuo schermo. E' ovvio che sia più pulita. Lo stesso sarebbe se utilizzassi il DLDSR + DLSS visto che andrebbe comunque a lavorare su un immagine downscalata.
Quello che hai scritto non ha senso se inserito nel contesto di cui si stava discutendo.
Se il gioco applica il taa non è risoluzione nativa pura, è impastata per via del taa..se trovi un gioco dove nn c'è il taa e compari vedrai come cambia.. semplicemente non state paragonando l immagine nativa ma un immagine rielaborata
Un 4K nativo senza TAA ne AA te lo dico da subito, fà schifo al kaizer. Per non avere Aliasing senza usare alcun filtro toccherà aspettare risoluzioni di perlomeno 10K. Auguri :asd:
micronauta1981
09-02-2023, 13:51
https://youtube.com/watch?v=cm104QP1eDY&si=EnSIkaIECMiOmarE
Lasciando stare il personaggio che anche a me risulta antipatico,almeno in questo video le cose che fa vedere sono veritiere,non avevo bisogno di lui per sapere queste cose,ma tantè,se avete voglia guardatevi il video e guardate le immagine di cyberpunk, è quello che succede in tutti i giochi usando il dlss
micronauta1981
09-02-2023, 13:52
Quindi? Di fatto stai visualizzando un immagine molto più grande ridotta alle dimensioni del tuo schermo. E' ovvio che sia più pulita. Lo stesso sarebbe se utilizzassi il DLDSR + DLSS visto che andrebbe comunque a lavorare su un immagine downscalata.
Quello che hai scritto non ha senso se inserito nel contesto di cui si stava discutendo.
Si chiama antialiasing,l immagine che arriva al monitor è sempre 3440x1440..
micronauta1981
09-02-2023, 13:55
Quindi? Di fatto stai visualizzando un immagine molto più grande ridotta alle dimensioni del tuo schermo. E' ovvio che sia più pulita. Lo stesso sarebbe se utilizzassi il DLDSR + DLSS visto che andrebbe comunque a lavorare su un immagine downscalata.
Quello che hai scritto non ha senso se inserito nel contesto di cui si stava discutendo.
Un 4K nativo senza TAA ne AA te lo dico da subito, fà schifo al kaizer. Per non avere Aliasing senza usare alcun filtro toccherà aspettare risoluzioni di perlomeno 10K. Auguri :asd:
Quando compari l immagine con il taa applicato,stai guardando un immagine non nativa,ma sporcata dal taa...quindi il paragone non regge..se la compari con un immagine usando il dldsr,vai a togliere l'effetto sfocato del taa,quella è un immagine a risoluzione piena e non sporcata .
Cutter90
09-02-2023, 13:55
https://youtube.com/watch?v=cm104QP1eDY&si=EnSIkaIECMiOmarE
Lasciando stare il personaggio che anche a me risulta antipatico,almeno in questo video le cose che fa vedere sono veritiere,non avevo bisogno di lui per sapere queste cose,ma tantè,se avete voglia guardatevi il video e guardate le immagine di cyberpunk, è quello che succede in tutti i giochi usando il dlss
Eccolo, lo sapevo che tiravi fuori cp 2077 guardacaso uno dei giochi in cui NON avviene quello da noi descritto.
E' uno dei pochi giochi dove il dlss è peggiore della nativa, anche se non di molto.
Non succede affatto in tutti i giochi in cui su usa il dlss. Basta con ste falsità. succede in cp e in dead space, ad esempio. Ma nessuno ha mai parlato della tiotalità dei giochi, come fai tu, ma solo di casi. In alcuni casi migliora in altri la peggiora, regalando cmq 20 fps in 4k.
Il tizio in questione ha fatto proprio come te: ha preso un gioco in cui il dlss è implementato MALE e l'ha portato a regola di tutti gli altri. Bel modo tecnico per dare delle sentenze.
Ijn outriders ho fatto delle comparative e le ho postate qui e nioh 2 ci sono video che dimostrano chiaramente come il dlss migliori la definizione dell'immagine.Questo è. Basta ora
micronauta1981
09-02-2023, 14:10
Eccolo, lo sapevo che tiravi fuori cp 2077 guardacaso uno dei giochi in cui NON avviene quello da noi descritto.
E' uno dei pochi giochi dove il dlss è peggiore della nativa, anche se non di molto.
Non succede affatto in tutti i giochi in cui su usa il dlss. Basta con ste falsità. succede in cp e in dead space, ad esempio. Ma nessuno ha mai parlato della tiotalità dei giochi, come fai tu, ma solo di casi. In alcuni casi migliora in altri la peggiora, regalando cmq 20 fps in 4k.
Il tizio in questione ha fatto proprio come te: ha preso un gioco in cui il dlss è implementato MALE e l'ha portato a regola di tutti gli altri. Bel modo tecnico per dare delle sentenze.
Ijn outriders ho fatto delle comparative e le ho postate qui e nioh 2 ci sono video che dimostrano chiaramente come il dlss migliori la definizione dell'immagine.Questo è. Basta ora
Primo ti ho detto che lo faccio in tutti i giochi...il tizio ha fatto un esempio non è che può tirare fuori tutti i giochi del pianeta..basta ostinarvi..ogni cosa trovate sempre una scusa.. evidentemente o siete falsi,o non sapete cosa guardare ..chiuso il discorso per quanto mi riguarda..ah tanto per,un gioco che sto rigiocando ora dyingh light 2 è nettamente meglio senza dlss,eh ma anche dying light è un gioco tra quelli in cui si vede peggio...ahahahah
killeragosta90
09-02-2023, 14:40
È arrivata....è enorme, direttamente from star trek :sofico:
Zotac 4090 AMP Extreme, pari al nuovo, presa qui sul mercatino a 1600 euro :)
E adesso finalmente posso sfruttare l'OLED da 48' 4K 120Hz (prima non potevo anche per una limitazione del HDMI della 980 Ti, oltre di pura potenza)
https://thumbs2.imgbox.com/f6/de/EMJiGhsy_t.jpg (https://imgbox.com/EMJiGhsy)
per chi ha esperienza diretta, le prestazioni restano le stesse ?
Dracula1975
09-02-2023, 14:45
È arrivata....è enorme, direttamente from star trek :sofico:
Zotac 4090 AMP Extreme, pari al nuovo, presa qui sul mercatino a 1600 euro :)
E adesso finalmente posso sfruttare l'OLED da 48' 4K 120Hz (prima non potevo anche per una limitazione del HDMI della 980 Ti, oltre di pura potenza)
https://thumbs2.imgbox.com/f6/de/EMJiGhsy_t.jpg (https://imgbox.com/EMJiGhsy)
consiglio cavo hdmi ad hoc 2.1 ...
killeragosta90
09-02-2023, 15:11
consiglio cavo hdmi ad hoc 2.1 ...
Si si il cavo lo ho, certificato 2.1, ero limitato dall'uscita della 980 ti che è 2.0, di conseguenza non potevo avviare neanche giochi di una certa annata in 4k 120hz (tipo HL2 che ogni tanto amo rigiocare), ero sempre limitato a doverli mettere in 2K 120hz nonostante magari riuscisse a gestirli pure lato potenza
DJurassic
09-02-2023, 15:24
Quando compari l immagine con il taa applicato,stai guardando un immagine non nativa,ma sporcata dal taa...quindi il paragone non regge..se la compari con un immagine usando il dldsr,vai a togliere l'effetto sfocato del taa,quella è un immagine a risoluzione piena e non sporcata .
No. Quella è un immagine downscalata su cui è stata applicato il deep learning. Vedo che non ti entra in testa.
DJurassic
09-02-2023, 16:04
per chi ha esperienza diretta, le prestazioni restano le stesse ?
Perdi in velocità di lettura e scrittura ma se lo usi come storage per i giochi le differenze sono impercettibili. Ho un m2 montato su Asus Strix Arion e collegato tramite USB C 3.2 gen.2 e non ho notato nessun rallentamento ne problemi.
Perdi in velocità di lettura e scrittura ma se lo usi come storage per i giochi le differenze sono impercettibili. Ho un m2 montato su Asus Strix Arion e collegato tramite USB C 3.2 gen.2 e non ho notato nessun rallentamento ne problemi.
Grazie :cincin:
Cutter90
09-02-2023, 18:55
Primo ti ho detto che lo faccio in tutti i giochi...il tizio ha fatto un esempio non è che può tirare fuori tutti i giochi del pianeta..basta ostinarvi..ogni cosa trovate sempre una scusa.. evidentemente o siete falsi,o non sapete cosa guardare ..chiuso il discorso per quanto mi riguarda..ah tanto per,un gioco che sto rigiocando ora dyingh light 2 è nettamente meglio senza dlss,eh ma anche dying light è un gioco tra quelli in cui si vede peggio...ahahahah
Ecco qua. Digital Foundry conferma che intanto anche in Dead Space il dlss è migliore dell FSR e poi..... che è colpa del gioco programmato con i piedi se con il dlss le texture degradano. E propone anche un trick per sistemarle e quindi rendere il dlss migliore della nativa con TAA.
Scusa eh, ma te la sei chiamata in pratica ahahaha
https://youtu.be/MvQl7EDPRC4
Minuto 9, andate lì per vedere come sistemare il dlss
Anche ds cmq gioco tremendo su pc. Opzioni che non fanno nulla, stutter impostazioni uguali tra alto e ultra, limitazioni dovute alle console... insomma, ennesimo porting brutto purtroppo
DJurassic
09-02-2023, 19:15
Ecco qua. Digital Foundry conferma che intanto anche in Dead Space il dlss è migliore dell FSR e poi..... che è colpa del gioco programmato con i piedi se con il dlss le texture degradano. E propone anche un trick per sistemarle e quindi rendere il dlss migliore della nativa con TAA.
Scusa eh, ma te la sei chiamata in pratica ahahaha
https://youtu.be/MvQl7EDPRC4
Minuto 9, andate lì per vedere come sistemare il dlss
Anche ds cmq gioco tremendo su pc. Opzioni che non fanno nulla, stutter impostazioni uguali tra alto e ultra, limitazioni dovute alle console... insomma, ennesimo porting brutto purtroppo
E' il lod bias a fare casini, il DLSS c'entra poco qui. Tra l'altro tramite tweak è possibile sistemarlo ma al prezzo di avere menù terrificanti (che poi provandoli in prima persona non sono così pessimi)
Intel-Inside
09-02-2023, 20:16
"Time Spy" ... Mah, con i Drivers nuovi faccio 130 punti in meno rispetto a quelli precedenti... :rolleyes:
MorrisADsl
09-02-2023, 21:01
"Time Spy" ... Mah, con i Drivers nuovi faccio 130 punti in meno rispetto a quelli precedenti... :rolleyes:Sembra sia aumentata anche la latenza media del driver.
Daedra007
10-02-2023, 00:13
È arrivata....è enorme, direttamente from star trek :sofico:
Zotac 4090 AMP Extreme, pari al nuovo, presa qui sul mercatino a 1600 euro :)
E adesso finalmente posso sfruttare l'OLED da 48' 4K 120Hz (prima non potevo anche per una limitazione del HDMI della 980 Ti, oltre di pura potenza)
https://thumbs2.imgbox.com/f6/de/EMJiGhsy_t.jpg (https://imgbox.com/EMJiGhsy)
Buon affare a quel prezzo:)
mimi8384
10-02-2023, 07:47
E' il lod bias a fare casini, il DLSS c'entra poco qui. Tra l'altro tramite tweak è possibile sistemarlo ma al prezzo di avere menù terrificanti (che poi provandoli in prima persona non sono così pessimi)
Riesci a postare il tweak? comunque lo sto giocando senza DLSS a 3200*1800 tutto ad ULTRA per mantenermi ad una media di 80 fps e devo dire che è un discreto spettacolo, soprattutto per gli effetti e l'illuminazione e l'uso sublime dell' HDR. Lo sto giocando con una 4080 su OLED.
DJurassic
10-02-2023, 08:59
Riesci a postare il tweak? comunque lo sto giocando senza DLSS a 3200*1800 tutto ad ULTRA per mantenermi ad una media di 80 fps e devo dire che è un discreto spettacolo, soprattutto per gli effetti e l'illuminazione e l'uso sublime dell' HDR. Lo sto giocando con una 4080 su OLED.
Trovi tutto in questo video.
https://youtu.be/MvQl7EDPRC4
Domani andrò a prendere la 4090 Amp Extreme, siccome il cavo Corsair 12VHPWR mi arriverà tra una decina di giorni (è più difficile trovare il cavo che la scheda video), posso collegarne solamente 3 cavi pci-e 8 pin?
Alla fine 150 + 150 + 150 + 75 non ci dovrebbero essere problemi.
Intel-Inside
10-02-2023, 13:34
Io ragazzi ho rimesso la versione precedente dei drivers... infatti ho ripreso i punti persi nel Time Spy e in game gira meglio rispetto a questi nuovi.
Pucceddu
10-02-2023, 13:51
Ragazzi prima che monto, con un corsair sfx 750 ce la faccio con la 4090 o devo cambiare ali?
Che cavo mi serve esattamente?
Ragazzi prima che monto, con un corsair sfx 750 ce la faccio con la 4090 o devo cambiare ali?
Che cavo mi serve esattamente?
Meglio cambiare, molto dipende anche dalla cpu che hai.
Comunque vedi questo sito della msi ti da' qualche suggerimento su quale prendere:
https://www.msi.com/blog/best-power-supply-for-your-nvidia-rtx-4090-graphics-card-do-you-need-atx-3-0
killeragosta90
10-02-2023, 14:40
Buon affare a quel prezzo:)
Grazie :) si è stato un buon affare, ho colto la palla al balzo (l'intenzione iniziale era prendere una 4080 nuova :stordita: )
Comunque prima mi è arrivato il cavo 12VHPWR! Ora non resta altro che testarla!
Gilgamessh
10-02-2023, 15:44
Buonasera
ho appena preso una Tuf 4090 e vorrei sapere se conviene andare di undervolt, overclock o lasciare tutto come è.
Grazie per le info!
Pucceddu
10-02-2023, 16:07
Meglio cambiare, molto dipende anche dalla cpu che hai.
Comunque vedi questo sito della msi ti da' qualche suggerimento su quale prendere:
https://www.msi.com/blog/best-power-supply-for-your-nvidia-rtx-4090-graphics-card-do-you-need-atx-3-0
Vabbè per la 3080 + i7 mi consiglia 850, già con questo ci vado largo ora come ora, con pompa a liquido + svariati hdds.
Provo, vedo come va
Vabbè per la 3080 + i7 mi consiglia 850, già con questo ci vado largo ora come ora, con pompa a liquido + svariati hdds.
Provo, vedo come va
E' ovvio che su quel sito ti vogliono vendere gli alimentatori quindi è un po' di parte, sulla tua domanda invece ci sono due considerazioni da fare, con un alimentatore da 750W saresti fuori specifica di Nvidia che impone per il montaggio di una 4090 almeno uno da 850, ti posso dire però che da possessore di 4090 dovresti starci tranquillamente con il tuo sistema. Considera che con i giochi attuali una Lovelace consuma meno di una Ampere a pari condizioni.
Buonasera
ho appena preso una Tuf 4090 e vorrei sapere se conviene andare di undervolt, overclock o lasciare tutto come è.
Grazie per le info!
Puoi fare tutte e tre le cose, con MSI AfterBurn un profilo 2D/3D lasciando tutto su default, abbassa solo il Powerlimit al 50%, avrai un consumo di 220w a 0,870 volt circa, la potenza di una 3090TI, ventole un auto al 30% mai oltre i 60° praticamente gira tutto anche in 4K, se utilizzi il frame generator (DLSS3) tanti FPS.. il triplo. Poi un un secondo e terzo profilo, uno a default ed uno a +165/1500 la mia 4090 e già overcloccata di fabbrica a 2580.. quindi 450W e qui si toccano anche i 3060..
micronauta1981
10-02-2023, 19:58
Ecco qua. Digital Foundry conferma che intanto anche in Dead Space il dlss è migliore dell FSR e poi..... che è colpa del gioco programmato con i piedi se con il dlss le texture degradano. E propone anche un trick per sistemarle e quindi rendere il dlss migliore della nativa con TAA.
Scusa eh, ma te la sei chiamata in pratica ahahaha
https://youtu.be/MvQl7EDPRC4
Minuto 9, andate lì per vedere come sistemare il dlss
Anche ds cmq gioco tremendo su pc. Opzioni che non fanno nulla, stutter impostazioni uguali tra alto e ultra, limitazioni dovute alle console... insomma, ennesimo porting brutto purtroppo
Nativa più taa..😂😂😂 ancora??😂😂😂
micronauta1981
10-02-2023, 20:01
Ecco qua. Digital Foundry conferma che intanto anche in Dead Space il dlss è migliore dell FSR e poi..... che è colpa del gioco programmato con i piedi se con il dlss le texture degradano. E propone anche un trick per sistemarle e quindi rendere il dlss migliore della nativa con TAA.
Scusa eh, ma te la sei chiamata in pratica ahahaha
https://youtu.be/MvQl7EDPRC4
Minuto 9, andate lì per vedere come sistemare il dlss
Anche ds cmq gioco tremendo su pc. Opzioni che non fanno nulla, stutter impostazioni uguali tra alto e ultra, limitazioni dovute alle console... insomma, ennesimo porting brutto purtroppo
Prima di postare cose tecniche fatti una studiata..usate le console se non sapete neanche cosa guardate..booo
https://www.tomshw.it/hardware/geforce-gtx-980-e-geforce-gtx-970-prestazioni-delle-top-di-gamma-nvidia/dynamic-super-resolution-mfaa-vr-direct-vxgi-e-dx12/
Dynamic Super Resolution
Dynamic Super Resolution (DSR) è una soluzione che ha il potenziale di ridurre le scalettature ai bordi dei pixel, un effetto noto come "aliasing". In poche parole DSR può essere visto come una forma di "anti-aliasing".
micronauta1981
10-02-2023, 20:05
Già con taa è meglio,visto con i miei occhi...ma facciamo finta che il dlss pareggi la res nativa più taa,ora impostate il dldsr applicatelo e giocate ..poi mi dite se il dlss è meglio della nativa .sì perché con taa nn è nativa,con dldsr è nativa più antialiasing.poi se non si conoscono le cose e si parla per nulla,ok .
micronauta1981
10-02-2023, 20:07
Chi di voi ha familiarità con l'anti-aliasing dovrebbe conoscere la più vecchia forma di anti-aliasing, il Super-Sampling Anti-Aliasing (SSAA). Si tratta della tecnica più antica, probabilmente anche la più esigente, ma è quella visivamente più appagante. L'SSAA renderizza un gioco a risoluzione superiore rispetto a quella a cui è stato impostato il titolo, e fa un down-sampling del risultato a una risoluzione target. Il risultato è che gli artefatti legati all'aliasing sono drasticamente ridotti. Il problema più grande con l'SSA è che è così esigente dal punto di vista delle risorse hardware che la maggior parte dei motori di gioco lo ignorano completamente. A volte può essere forzato dai driver, ma talvolta si tratta di una soluzione instabile.
Ciò che Nvidia offre con DSR è un modo per fornire il super-sampling anti-aliasing aggirando totalmente le limitazioni dell'anti-aliasing integrate nel gioco
sertopica
10-02-2023, 20:46
Arrivata oggi la palit gamerock 4090. Causa lavoro ho fatto solo un paio di test al volo, ma cazz quanto rulla, e' un mostro, 100 fps medi a cp 2077 4k maxato dlss quality e fg. Hogwarts gira che e' na bellezza, con la 3080 mi saturava sempre la vram, ora e' di una fluidita' mai vista. Credo di non aver mai avuto una scheda di una tale potenza inaudita. :D
E sono anche castrato dalla CPU...
Sono esterrefatto...
Vabbè per la 3080 + i7 mi consiglia 850, già con questo ci vado largo ora come ora, con pompa a liquido + svariati hdds.
Provo, vedo come va
Sul sito nvidia nelle specifiche consigliano un 850w io prenderei un 1000w anche per futuri upgrade, l alimentatore è il componente piu' longevo e importante di un pc è una spesa una volta fatta ti rimane per molti anni rispetto ad altri componenti.
https://www.nvidia.com/it-it/geforce/graphics-cards/40-series/rtx-4090/
Pucceddu
10-02-2023, 22:38
Puttanate, quando il mio andrà corto lo cambierò come ho fatto ogni volta :asd:
Puttanate, quando il mio andrà corto lo cambierò come ho fatto ogni volta :asd:
Nulla da dire contro questa affermazione però ci sono due considerazioni da fare, faresti lavorare in continuo il tuo ali molto vicino ai suoi limiti massimi (e non è mai una buona cosa) e poi se spendi 2k per una vga è davvero singolare non spendere un quindicesimo di quella cifra per acquistare un buon alimentatore che è il cuore pulsante di un PC.
Re-voodoo
11-02-2023, 07:00
Puttanate, quando il mio andrà corto lo cambierò come ho fatto ogni volta :asd:
Quando ai tempi dei tempi mi andò in corto il mio mi brucio mezzo pc quindi è meglio di no
Re-voodoo
11-02-2023, 07:02
Nulla da dire contro questa affermazione però ci sono due considerazioni da fare, faresti lavorare in continuo il tuo ali molto vicino ai suoi limiti massimi (e non è mai una buona cosa) e poi se spendi 2k per una vga è davvero singolare non spendere un quindicesimo di quella cifra per acquistare un buon alimentatore che è il cuore pulsante di un PC.
Credo che le persone non abbiano idea di quello che può succedere se un Ali "esplode" :D e spero che non gli possa mai capitare
Gilgamessh
11-02-2023, 07:05
Ho sparato un brutalissimo e sicurissimo +120 +750 oltre power limiti e temp al massimo. e' veramente troppo poco o ci sta? non ho voglia di sbattermi con tanti profili ne cerco uno ottimale.
Puoi fare tutte e tre le cose, con MSI AfterBurn un profilo 2D/3D lasciando tutto su default, abbassa solo il Powerlimit al 50%, avrai un consumo di 220w a 0,870 volt circa, la potenza di una 3090TI, ventole un auto al 30% mai oltre i 60° praticamente gira tutto anche in 4K, se utilizzi il frame generator (DLSS3) tanti FPS.. il triplo. Poi un un secondo e terzo profilo, uno a default ed uno a +165/1500 la mia 4090 e già overcloccata di fabbrica a 2580.. quindi 450W e qui si toccano anche i 3060..
sertopica
11-02-2023, 08:26
nVidia ha rilasciato il DLSS sdk 3.1.1: https://www.techpowerup.com/download/nvidia-dlss-dll/
Tramite comandi si possono passare in rassegna vari metodi di ricostruzione, da A ad F, alcuni hanno meno ghosting ma piu' shimmering, altri l'opposto.
Qui su reddit alcuni test: https://www.reddit.com/r/nvidia/comments/10z2ra9/nvidia_publishes_dlss_super_resolution_sdk_31/
Un altro paio di info:
Preset A (intended for Perf/Balanced/Quality modes):
An older variant best suited to combat ghosting for elements with missing inputs (such as motion vectors)
Preset B (intended for Ultra Perf mode):
Similar to Preset A but for Ultra Performance mode
Preset C (intended for Perf/Balanced/Quality modes):
Preset which generally favors current frame information. Generally well-suited for fastpaced game content
Preset D (intended for Perf/Balanced/Quality modes):
The default preset for Perf/Balanced/Quality mode. Generally favors image stability
Preset E (Unused)
Preset F (intended for Ultra Perf/DLAA modes):
The default preset for Ultra Perf and DLAA modes.
Re-voodoo
11-02-2023, 10:25
Ho sparato un brutalissimo e sicurissimo +120 +750 oltre power limiti e temp al massimo. e' veramente troppo poco o ci sta? non ho voglia di sbattermi con tanti profili ne cerco uno ottimale.
Ogni scheda è diversa quindi non c'è altro modo che testare, ci sono schede che non superano i 3000mhz di core ed altre arrivano sopra i 3100mhz, anche per la vram è uguale, alcune non arrivano a +1000 altre invece arrivano sopra i +2000
Dipende dalla fortuna
albero77
11-02-2023, 11:31
Finalmente dopo innumerevoli resi ad amz, che sicuramente mi costeranno il ban permanente a vita, sono riuscito a trovare una scheda senza coil whine, ormai non ci speravo più. In realtà la risposta ce l'ho avuta sempre sotto al naso dal principio, ma purtroppo nessuna gigabyte era disponibile. La scheda è la gaming oc, 600w nativi, la scheda è muta come un pesce in tutte le situazioni, surreale la differenza con quelle testate fino ad ora, sale anche di più della tuf, non ho parole veramente....scheda che tra le altre cose è costata quanto una fe e 600 euro in meno della tuf.....veramente non ho parole, ma asus con me ha chiuso questo è poco ma sicuro.
"Il coil whine è il risultato di componenti elettronici che vibrano a frequenze specifiche quando la corrente scorre attraverso questi componenti, producendo un tono udibile che può essere percepito dall'orecchio umano.
I sintomi possono essere più pronunciati nei prodotti con chip grafici di fascia alta e possono essere più percepibili quando si utilizza il prodotto in un ambiente silenzioso.
Questo non è un difetto hardware. Il prodotto funziona entro le specifiche e entro la tolleranza acustica per il livello di suono emesso dal prodotto durante il normale funzionamento. Non esiste alcun impatto sulle prestazioni del prodotto". cit.
SE LO DITE VOI ALLORA VA BENE
https://imgur.com/a/HFkibtS :D
micronauta1981
11-02-2023, 13:07
Finalmente dopo innumerevoli resi ad amz, che sicuramente mi costeranno il ban permanente a vita, sono riuscito a trovare una scheda senza coil whine, ormai non ci speravo più. In realtà la risposta ce l'ho avuta sempre sotto al naso dal principio, ma purtroppo nessuna gigabyte era disponibile. La scheda è la gaming oc, 600w nativi, la scheda è muta come un pesce in tutte le situazioni, surreale la differenza con quelle testate fino ad ora, sale anche di più della tuf, non ho parole veramente....scheda che tra le altre cose è costata quanto una fe e 600 euro in meno della tuf.....veramente non ho parole, ma asus con me ha chiuso questo è poco ma sicuro.
"Il coil whine è il risultato di componenti elettronici che vibrano a frequenze specifiche quando la corrente scorre attraverso questi componenti, producendo un tono udibile che può essere percepito dall'orecchio umano.
I sintomi possono essere più pronunciati nei prodotti con chip grafici di fascia alta e possono essere più percepibili quando si utilizza il prodotto in un ambiente silenzioso.
Questo non è un difetto hardware. Il prodotto funziona entro le specifiche e entro la tolleranza acustica per il livello di suono emesso dal prodotto durante il normale funzionamento. Non esiste alcun impatto sulle prestazioni del prodotto". cit.
SE LO DITE VOI ALLORA VA BENE
https://imgur.com/a/HFkibtS :D
Sembra un tagliaerba 😂😂😂😂
Iceman69
11-02-2023, 13:12
Sembra un tagliaerba ��������
Ma come fai a giudicare quel rumore se non hai un termina di paragone, potrebbe essere registrato a livello altissimo o con un microfono che rimbomba di suo. Poi scusate ma se lo scopo era registrare il coil whine perchè tutte le ventole del pc sono accese? Io per testarlo le spengo tutte, altrimenti è impossibile capire la sorgente del rumore.
Secondo me anche la mia se appiccico un microfono alle ventole lo metto al massimo del volume di registrazione fa quel rumore, ma seduto a 80 cm dal case non sento assolutamente niente.
Direi che la risposta ricevuta, per quanto generalista, sia assolutamente corretta, non c'è modo di esprimere un giudizio obiettivo dalla registrazione postata. Non dico che non sia vero, ma solo che da quella registrazione non si capisce.
Ma come fai a giudicare quel rumore se non hai un termina di paragone, potrebbe essere registrato a livello altissimo o con un microfono che rimbomba di suo. Poi scusate ma se lo scopo era registrare il coil whine perchè tutte le ventole del pc sono accese? Io per testarlo le spengo tutte, altrimenti è impossibile capire la sorgente del rumore.
Secondo me anche la mia se appiccico un microfono alle ventole lo metto al massimo del volume di registrazione fa quel rumore, ma seduto a 80 cm dal case non sento assolutamente niente.
Direi che la risposta ricevuta, per quanto generalista, sia assolutamente corretta, non c'è modo di esprimere un giudizio obiettivo dalla registrazione postata. Non dico che non sia vero, ma solo che da quella registrazione non si capisce.
Si può anche registrare con un misuratore di decibel di fianco volendo, e le Asus sono RUMOROSISSIME, anche se la mia sta migliorando con l'uso. Ma ti assicuro che si sente nitidamente col case per terra a sinistra (quindi con la scheda madre fra la scheda e me) in modo netto, Asus ha veramente cannato. Ora dopo ore e ore sotto sforzo è calato ma lo sento ancora bene, semplicemente non è più 6-7 decibel sopra le ventole, è circa simile (e in frequenze MOLTO fastidiose, 4, 10 kHz, anche 20kHz ma quella da adulti non la sentiamo :sofico: )
Iceman69
11-02-2023, 15:14
Si può anche registrare con un misuratore di decibel di fianco volendo, e le Asus sono RUMOROSISSIME, anche se la mia sta migliorando con l'uso. Ma ti assicuro che si sente nitidamente col case per terra a sinistra (quindi con la scheda madre fra la scheda e me) in modo netto, Asus ha veramente cannato. Ora dopo ore e ore sotto sforzo è calato ma lo sento ancora bene, semplicemente non è più 6-7 decibel sopra le ventole, è circa simile (e in frequenze MOLTO fastidiose, 4, 10 kHz, anche 20kHz ma quella da adulti non la sentiamo :sofico: )
Sarò fortunato io, ma la mia è silenziosissima, sia in stand by che in full load, sento più le ventole del radiatore del processore, che comunque non superano mai i 600 giri (sono da 140).
Sicuramente la 3090 che avevo prima era più rumorosa, di ventole intendo, perché di coil whine ne ne aveva neanche quella.
RTX 4090 AMP Extreme Airo, montata questa mattina.
Eseguendo un Port Royal custom con RT Ultra, ho rilevato una P1 di 610Watt, con un 5900X.
Nel rimontare il case mi è esploso in mano il pannello sinistro in vetro temperato :muro: :muro:
Comunque non la immaginavo così grande, confronto con la 3080Ti (https://imgur.com/dkDejQ5)
terranux
11-02-2023, 15:54
Ma come fai a giudicare quel rumore se non hai un termina di paragone, potrebbe essere registrato a livello altissimo o con un microfono che rimbomba di suo. Poi scusate ma se lo scopo era registrare il coil whine perchè tutte le ventole del pc sono accese? Io per testarlo le spengo tutte, altrimenti è impossibile capire la sorgente del rumore.
Secondo me anche la mia se appiccico un microfono alle ventole lo metto al massimo del volume di registrazione fa quel rumore, ma seduto a 80 cm dal case non sento assolutamente niente.
Direi che la risposta ricevuta, per quanto generalista, sia assolutamente corretta, non c'è modo di esprimere un giudizio obiettivo dalla registrazione postata. Non dico che non sia vero, ma solo che da quella registrazione non si capisce. oddio il paragone con le ventole c'è. direi che è molto forte.
Sarò fortunato io, ma la mia è silenziosissima, sia in stand by che in full load, sento più le ventole del radiatore del processore, che comunque non superano mai i 600 giri (sono da 140).
Sicuramente la 3090 che avevo prima era più rumorosa, di ventole intendo, perché di coil whine ne ne aveva neanche quella.
Sì, va capito che ogni scheda fa storia a sé per il coil whine, giusto le percentuali di schede afflitte per modello cambia. Le Asus TUF ne sono afflitte praticamente all'80% o giù di lì leggendo online. Ma anche le Strix, quindi tutte quelle con alimentazione curata da Asus direi. Io la registrazione della mia confrontata con le ventole l'ho postata qualche pagina fa (ventole in auto su Cyberpunk benchmark, quindi neanche così basse).
Ora è migliorata, per fortuna, tranne sul bench di FF XIV dove letteralmente suona una melodia.
Re-voodoo
11-02-2023, 17:01
RTX 4090 AMP Extreme Airo, montata questa mattina.
Eseguendo un Port Royal custom con RT Ultra, ho rilevato una P1 di 610Watt, con un 5900X.
Nel rimontare il case mi è esploso in mano il pannello sinistro in vetro temperato :muro: :muro:
Comunque non la immaginavo così grande, confronto con la 3080Ti (https://imgur.com/dkDejQ5)
Non ha retto l emozione
micronauta1981
11-02-2023, 19:30
Nn sono rumori di ventole quelle..cmq anche la mia zero rumore veramente un ottima scheda,mai avuto galax prima e devo dire che sn rimasto sorpreso,la mia sta a 2950 @1v
Re-voodoo
11-02-2023, 22:12
Nn sono rumori di ventole quelle..cmq anche la mia zero rumore veramente un ottima scheda,mai avuto galaxy prima e devo dire che sn rimasto sorpreso,la mia sta a 2950 @1v
Io sto testando 0.960 a 2800mhz per ora tutto ok
Si trova qualcosa del genere (adattatore) in Europa o comunque con consegna e spese accettabili ?? :mc:
https://www.moddiy.com/products/ATX-3.0-PCIe-5.0-600W-4-x-8-Pin-to-12VHPWR-16-Pin-Angled-Adapter-Cable.html
Re-voodoo
12-02-2023, 07:38
Si trova qualcosa del genere (adattatore) in Europa o comunque con consegna e spese accettabili ?? :mc:
https://www.moddiy.com/products/ATX-3.0-PCIe-5.0-600W-4-x-8-Pin-to-12VHPWR-16-Pin-Angled-Adapter-Cable.html
Ancora niente
albero77
12-02-2023, 08:16
Sì, va capito che ogni scheda fa storia a sé per il coil whine, giusto le percentuali di schede afflitte per modello cambia. Le Asus TUF ne sono afflitte praticamente all'80% o giù di lì leggendo online. Ma anche le Strix, quindi tutte quelle con alimentazione curata da Asus direi. Io la registrazione della mia confrontata con le ventole l'ho postata qualche pagina fa (ventole in auto su Cyberpunk benchmark, quindi neanche così basse).
Ora è migliorata, per fortuna, tranne sul bench di FF XIV dove letteralmente suona una melodia.
Guarda non vorrei contraddirti ma la storia del coil whine che sparisce col tempo è un po' una leggenda metropolitana. Da ottobre fino a gennaio gli ho fatto sputare il sangue alla tuf ma non è cambiato assolutamente nulla. Ad ogni modo sono contento di avere un riscontro da un possessore qui sul forum, poi per carità sono convinto che esistano schede dello stesso tipo che non sono affette dal problema, probabilmente siamo stati solo molto sfortunati con la lotteria del silicone, ma devi ammettere che le segnalazioni in rete sono un po' tantine....
Gilgamessh
12-02-2023, 08:38
La mia TuF di tre giorni ha lo stesso problema molto marcato. migliorerà sicuramente con l assestarsi del metallo ma visto il rumore non sparirà assolutamente.
Guarda non vorrei contraddirti ma la storia del coil whine che sparisce col tempo è un po' una leggenda metropolitana. Da ottobre fino a gennaio gli ho fatto sputare il sangue alla tuf ma non è cambiato assolutamente nulla. Ad ogni modo sono contento di avere un riscontro da un possessore qui sul forum, poi per carità sono convinto che esistano schede dello stesso tipo che non sono affette dal problema, probabilmente siamo stati solo molto sfortunati con la lotteria del silicone, ma devi ammettere che le segnalazioni in rete sono un po' tantine....
Guarda non vorrei contraddirti ma la storia del coil whine che sparisce col tempo è un po' una leggenda metropolitana. Da ottobre fino a gennaio gli ho fatto sputare il sangue alla tuf ma non è cambiato assolutamente nulla. Ad ogni modo sono contento di avere un riscontro da un possessore qui sul forum, poi per carità sono convinto che esistano schede dello stesso tipo che non sono affette dal problema, probabilmente siamo stati solo molto sfortunati con la lotteria del silicone, ma devi ammettere che le segnalazioni in rete sono un po' tantine....
Io sto misurando giorno dopo giorno, come ho detto un po' è calato e l'ho misurato, ora da 3-4 giorni non sta calando più, ma ho i dati segnati. Sceso è sceso, almeno usata a 450w.
Non parlo se non sento, e lavorando anche con l'audio sono abbastanza preciso ed esigente sul sentire :D
killeragosta90
12-02-2023, 10:25
Ragazzi una domandina, qualcuno di voi ha cambiato la pasta termica alla propria GPU?
Ricordo che una volta era un must, so che queste "bestie" hanno un dissipatore enorme che anche con del dentifricio riuscirebbero a dare ottimi risultati, però ciò non toglie che con un cambio di (buona) pasta penso che come minimo 4-5° si riuscirebbero ad abbattere ulteriormente, infatti sarà il mio prossimo step...
Inoltre vorrei fare una piccola mod alla mia Zotac (poco invasiva, nessuna modifica strutturale definitiva), vorrei semplicemente rimuovere la plastica che sorregge le ventole (la parte "sopra" del dissipatore) e sostituire quest'ultime con delle corsair da 120mm da "attaccare" dirette sul dissipatore, avete qualche suggerimento su come "agganciarle"?
Sarebbero perfette delle clip, oppure delle piccole pinze/agganci che fanno leva tra ventola e dissipatore, in rete non riesco a trovare nulla, magari da un ferramenta? Suggerimenti?
Mi è venuta questa idea perché il dissipatore è talmente grande che 3 ventole da 120mm ci starebbero PERFETTE, quindi per una questione estetica, di prestazioni e rumorosità, sarebbe una mod perfetta, inoltre il dissipatore della zotac si può smontare agevolmente e senza invalidare garanzie.
Eddie666
12-02-2023, 11:54
anche nell mia gainward il coil whine è leggermente diminuito con l'utilizzo; ad ogno modo ho notato che l'intensità dello stesso non è collegata solo ai wat utilizzati, ma anche dal numero di fps prodotti a schermo (ad es durante furmark, che mi da un consumo fisso di 500w, il coil whine prodotto dalla scheda è quasi nullo, al contrario di game dove magari il wattaggio è minore)
Mi sono accorto di aver fatto una fesseria nel collegamento di alimentazione perchè non trovavo un connettore è grave? :muro: :muro:
https://i.postimg.cc/v81nW5Cb/Senza-titulo-1.png
Domani provvedereò a procurarmi il terzo cavetto.
https://i.postimg.cc/pL0VG6n7/Connettori-alimentazione-3-prese.png
Mi sono accorto di aver fatto una fesseria nel collegamento di alimentazione perchè non trovavo un connettore è grave? :muro: :muro:
https://i.postimg.cc/v81nW5Cb/Senza-titulo-1.png
Domani provvedereò a procurarmi il terzo cavetto.
https://i.postimg.cc/pL0VG6n7/Connettori-alimentazione-3-prese.png
Non hai fatto nessuna fesseria, a parte il fatto che le Lovelace se rilevano irregolarità nell'alimentazione danno semplicemente segnale video assente, il fatto che tu abbia collegato il polpo ad un cavo dual headed (ossia con due teste) è perfettamente normale per quasi la totalità degli alimentatori superiori a 850W di potenza, perchè ognuna delle linee a 12 V in uscita dall'ali eroga una potenza complessiva di 300W e per questo si usano i dual headed che distribuiscono sulle entrate del polpo 150W ciascuna da un solo cavo in partenza dall'ali. Io ad esempio fino a quando non mi è arrivato il cavo Corsair nativo, collegavo il polpo a quattro tentacoli della mia 4090FE a soli due cavi dual headed in uscita dall'alimentatore. Quindi se la scheda funzionava con quel collegamento vuol dire che l'alimentazione era corretta, quindi stai tranquillo.
Non hai fatto nessuna fesseria, a parte il fatto che le Lovelace se rilevano irregolarità nell'alimentazione danno semplicemente segnale video assente, il fatto che tu abbia collegato il polpo ad un cavo dual headed (ossia con due teste) è perfettamente normale per quasi la totalità degli alimentatori superiori a 850W di potenza, perchè ognuna delle linee a 12 V in uscita dall'ali eroga una potenza complessiva di 300W e per questo si usano i dual headed che distribuiscono sulle entrate del polpo 150W ciascuna da un solo cavo in partenza dall'ali. Io ad esempio fino a quando non mi è arrivato il cavo Corsair nativo, collegavo il polpo a quattro tentacoli della mia 4090FE a soli due cavi dual headed in uscita dall'alimentatore. Quindi se la scheda funzionava con quel collegamento vuol dire che l'alimentazione era corretta, quindi stai tranquillo.
Grazie per la rassicurazione, eventualmente potevo procuramelo e risistemare la cablatura di nuovo, evito una "manutenzione".
Cortesemente qualcuno mi potrebbe consigliare un soft tipo il vecchio Led Visualizer per spegnere i led della FE?
Non open rgb che va in conflitto con G Hub e nemmeno X1 che rompe a afterburner...
Grazie ad eventuali suggerimenti.
Legolas84
12-02-2023, 16:49
Non sono un esperto di LED, ma mi pare di aver intravisto una news che diceva che tra un pò saranno controllabili direttamente da Windows :)
Provati bios MSI 550W e Galax 666W, a parità di frequenze Core Clock +150 e Vram +1500 con il bios originale ottengo lo stesso punteggio nei bench, con scarti di 20 punti ed un aumento di frequenza di solo 20 mhz tipo 3000 fissi e punte di 3060 a scapito di +10° sul core e + 8° sulle Vram con un consumo di 500/550W a fronte dei 450W dove raggiungo lo stesso a 2950/3000 con punte di 3045mhz con 60° core e 50° vram, non ne vale la pena.
p.s. Il polpo non mi permette di chiudere il case e la cosa mi scazza non poco.. :muro:
Perfetto! Io non ho Requiem pero'. :asd:
Gioco o a 1440p o a 4k dal CX. Sono anche molto curioso di giocare a 5k sul monitor piu' piccolo tramite DSR. Sara' una goduria mi sa. :cool:
Posso testare con Harry Pothead, Cyberpanchina 2077, Witcher 3 NG, Crysis Remaster, Control. Ma la scheda deve ancora arrivare. :D
ho avuto modo di fare qualche test su cyberpunk patch 1.61.
in 4k, dlss su qualità, frame generator, e tutto sparato al massimo (compreso raytracing ovviamente),
sono intorno ai 100/110 frames di media. il gioco è uno spettacolo cosi!
ho fatto bene ad abbandonarlo due anni fa e riprenderlo ora :D
ho provato a mettere dlss su auto e, nonostante i frames salgano a circa 150/160, si crea un tearing mostruoso (lg c1, vsync off, vrr e gsync on)
credo di essere in linea, confermate?
ginepraio
12-02-2023, 22:26
Salve a tutti , ieri ho finalmente finito di pagare la 3080 con le 12 rate amazon e mi sono messo in cerca della 4080 con la medesima modalita di pagamento. So di essere borderline con il treadh , ma anche a voi non da nessuna lovelace disponibile con questo metodo di pagamento , anche se vendute e spedite da amazon? ho l'opzione disponibile anche sulle 3090ti vendute a 2000 euro .
Scusate se ho sforato
killeragosta90
12-02-2023, 22:46
Ragazzi una domandina, qualcuno di voi ha cambiato pasta termica alla propria GPU?
Ricordo che una volta era un must, so che queste "bestie" hanno un dissipatore enorme che anche con del dentifricio riuscirebbero a dare ottimi risultati, però ciò non toglie che con un cambio di (buona) pasta penso che come minimo 4-5° si riuscirebbero ad abbattere ulteriormente, infatti sarà il mio prossimo step...
Inoltre vorrei fare una piccola mod alla mia Zotac (poco invasiva, nessuna modifica strutturale definitiva), vorrei semplicemente rimuovere la plastica che sorregge le ventole (la parte "sopra" del dissipatore) e sostituire quest'ultime con delle corsair da 120mm da "attaccare" dirette sul dissipatore, avete qualche suggerimento su come "agganciarle"?
Sarebbero perfette delle clip, oppure delle piccole pinze/agganci che fanno leva tra ventola e dissipatore, in rete non riesco a trovare nulla, magari da un ferramenta? Suggerimenti?
Mi è venuta questa idea perché il dissipatore è talmente grande che 3 ventole da 120mm ci starebbero PERFETTE, quindi per una questione estetica, di prestazioni e rumorosità, sarebbe una mod perfetta, inoltre il dissipatore della zotac si può smontare agevolmente e senza invalidare garanzie.
UP! Nessuno smanettone come il sottoscritto? :stordita:
Legolas84
13-02-2023, 07:01
Io non l ho cambiata perché non voglio rompere i sigilli sulle viti per aprire la scheda..
Inviato dal mio iPhone utilizzando Tapatalk Pro
Iceman69
13-02-2023, 07:32
Ragazzi una domandina, qualcuno di voi ha cambiato la pasta termica alla propria GPU?
Ricordo che una volta era un must, so che queste "bestie" hanno un dissipatore enorme che anche con del dentifricio riuscirebbero a dare ottimi risultati, però ciò non toglie che con un cambio di (buona) pasta penso che come minimo 4-5° si riuscirebbero ad abbattere ulteriormente, infatti sarà il mio prossimo step...
Inoltre vorrei fare una piccola mod alla mia Zotac (poco invasiva, nessuna modifica strutturale definitiva), vorrei semplicemente rimuovere la plastica che sorregge le ventole (la parte "sopra" del dissipatore) e sostituire quest'ultime con delle corsair da 120mm da "attaccare" dirette sul dissipatore, avete qualche suggerimento su come "agganciarle"?
Sarebbero perfette delle clip, oppure delle piccole pinze/agganci che fanno leva tra ventola e dissipatore, in rete non riesco a trovare nulla, magari da un ferramenta? Suggerimenti?
Mi è venuta questa idea perché il dissipatore è talmente grande che 3 ventole da 120mm ci starebbero PERFETTE, quindi per una questione estetica, di prestazioni e rumorosità, sarebbe una mod perfetta, inoltre il dissipatore della zotac si può smontare agevolmente e senza invalidare garanzie.
Perdere la garanzia per un vantaggio minimo di temperature non è la cosa migliore da fare secondo me, non cambierei la pasta fossi in te.
Per quanto riguarda le ventole ci sono tanti modi per fissarle, anche solo due elastici.
Io ho aggiunto una ventola dietro la scheda che aiuta a tirare fuori l'aria, attaccandola con del velcro alla piastra posteriore ... facile da rimuovere e non modifica nulla della scheda originaria.
killeragosta90
14-02-2023, 01:19
Io non l ho cambiata perché non voglio rompere i sigilli sulle viti per aprire la scheda..
Inviato dal mio iPhone utilizzando Tapatalk Pro
Ciao Legolas! :) Nel tuo caso hai fatto bene, io ho optato per una Zotac anche perché sapevo che non pone sigilli sulle viti e di conseguenza posso aprirla e ispezionarla in "libertà".
Perdere la garanzia per un vantaggio minimo di temperature non è la cosa migliore da fare secondo me, non cambierei la pasta fossi in te.
Per quanto riguarda le ventole ci sono tanti modi per fissarle, anche solo due elastici.
Io ho aggiunto una ventola dietro la scheda che aiuta a tirare fuori l'aria, attaccandola con del velcro alla piastra posteriore ... facile da rimuovere e non modifica nulla della scheda originaria.
Non perdo la garanzia, come scritto sopra Zotac non mette sigilli...anni fa cambiare pasta era un must, certo le schede non costavano 2000 euro... :stordita:
Grazie per l'idea! Banalmente mi hai fatto venire in mente l'idea delle fascette di color nero, non troppo visibili e per nulla invasive...oppure del thermal tape? Trasparente, ancora meno invasivo e anche bello adesivo.
Per il momento ho aperto la scheda, purtroppo un thermal pad è esploso malamente (pace all'anima sua), di conseguenza ho dovuto ordinare anche dei thermal pad...e che vuoi fare le cose a metà? Ho ordinato dei GELID GP-Ultimate, li sostituisco tutti già che ci sono....quasi 27 euro per due "tappetini" vacca putt@na :cry:
a questo punto sono curioso di vedere il "progetto" finito :D
Ciao Legolas! :) Nel tuo caso hai fatto bene, io ho optato per una Zotac anche perché sapevo che non pone sigilli sulle viti e di conseguenza posso aprirla e ispezionarla in "libertà".
Non perdo la garanzia, come scritto sopra Zotac non mette sigilli...anni fa cambiare pasta era un must, certo le schede non costavano 2000 euro... :stordita:
Grazie per l'idea! Banalmente mi hai fatto venire in mente l'idea delle fascette di color nero, non troppo visibili e per nulla invasive...oppure del thermal tape? Trasparente, ancora meno invasivo e anche bello adesivo.
Per il momento ho aperto la scheda, purtroppo un thermal pad è esploso malamente (pace all'anima sua), di conseguenza ho dovuto ordinare anche dei thermal pad...e che vuoi fare le cose a metà? Ho ordinato dei GELID GP-Ultimate, li sostituisco tutti già che ci sono....quasi 27 euro per due "tappetini" vacca putt@na :cry:
Ciao in base al sito ZOTAC qualsiasi modifica fatta alla scheda fa perdere la garanzia poi vedi tu:
https://www.zotac.com/it/page/product-warranty-policy
sertopica
14-02-2023, 08:43
Probabilmente e' stato gia' detto (ma non me ne ricordo onestamente), e' normale che il valore GPU Video Clock differisca cosi' tanto dal core clock effettivo? Qualcuno puo' spiegarmi di cosa si tratti?
Ora sono con PL a 80%, +225 sul core e +1400 sulle memorie, ma lo fa anche con scheda a default, oppure overcloccata con PL al 100%.
https://abload.de/img/screenshot2023-02-140gccpb.png
Gilgamessh
14-02-2023, 11:32
anche io su una tuf volevo provare i tuoi settaggi, ho solo qualche dubbio sull abilitare il monitoraggio e regolazione del voltaggio e mettere lo slide all 100%.
lo devo fare?
Probabilmente e' stato gia' detto (ma non me ne ricordo onestamente), e' normale che il valore GPU Video Clock differisca cosi' tanto dal core clock effettivo? Qualcuno puo' spiegarmi di cosa si tratti?
Ora sono con PL a 80%, +225 sul core e +1400 sulle memorie, ma lo fa anche con scheda a default, oppure overcloccata con PL al 100%.
https://abload.de/img/screenshot2023-02-140gccpb.png
killeragosta90
14-02-2023, 15:30
Ciao in base al sito ZOTAC qualsiasi modifica fatta alla scheda fa perdere la garanzia poi vedi tu:
https://www.zotac.com/it/page/product-warranty-policy
Certo, il 99% delle cose se le "manometti" perdi la garanzia, anche le più banali, non serve guardare la policy. Dico solo che la scheda non ha sigilli, di conseguenza, con un po' di manualità a accortezza puoi cambiare pasta e pad senza invalidare (in linea teorica si, in pratica no) la garanzia.
killeragosta90
14-02-2023, 15:36
a questo punto sono curioso di vedere il "progetto" finito :D
Oddio non aspettarti grandi cose :stordita: al momento la scheda è riposta smontata, da pulire, nella scatola originaria...domani mi arrivano pads e pasta termica (Arctic MX-6). Questo sarà il primo step, poi verifico la differenza con il dissipatore originale e solo dopo andrò ad applicare le ventole "sostitutive", spero solo non esploda :asd:
micronauta1981
14-02-2023, 19:46
https://youtube.com/watch?v=wAnHsyUj4X4&si=EnSIkaIECMiOmarE
Ma il trailer per prendere per il ... Harry Potter??😂😂😂
Già era il gioco che aspettavo di più,ora l'hype è all'ennesima potenza 😂😂😂😂
https://youtube.com/watch?v=wAnHsyUj4X4&si=EnSIkaIECMiOmarE
Ma il trailer per prendere per il ... Harry Potter??😂😂😂
Già era il gioco che aspettavo di più,ora l'hype è all'ennesima potenza 😂😂😂😂
anche io, spero con tutto il cuore che si riveli un giocone! :D
https://youtube.com/watch?v=wAnHsyUj4X4&si=EnSIkaIECMiOmarE
Ma il trailer per prendere per il ... Harry Potter??😂😂😂
Già era il gioco che aspettavo di più,ora l'hype è all'ennesima potenza 😂😂😂😂
:D :D :D
sertopica
15-02-2023, 08:47
anche io su una tuf volevo provare i tuoi settaggi, ho solo qualche dubbio sull abilitare il monitoraggio e regolazione del voltaggio e mettere lo slide all 100%.
lo devo fare?
Il voltaggio io lo lascerei perdere. Se vuoi ridurre i consumi riduci il power limit e poi vedi cosa raggiungi aumentando core e ram. Probabilmente perderai un po' di margine di OC perche' andrai incontro al muro del PL prima del solito ma comunque avrai ottime prestazioni.
https://youtube.com/watch?v=wAnHsyUj4X4&si=EnSIkaIECMiOmarE
Ma il trailer per prendere per il ... Harry Potter??������
Già era il gioco che aspettavo di più,ora l'hype è all'ennesima potenza ��������
Non m'ha fatto tanto ridere sinceramente.
Non lo so ma il mio sesto senso mi dice che sto gioco sara' una sola... :stordita:
Alekos Panagulis
15-02-2023, 10:00
Il voltaggio io lo lascerei perdere. Se vuoi ridurre i consumi riduci il power limit e poi vedi cosa raggiungi aumentando core e ram. Probabilmente perderai un po' di margine di OC perche' andrai incontro al muro del PL prima del solito ma comunque avrai ottime prestazioni.
Non m'ha fatto tanto ridere sinceramente.
Non lo so ma il mio sesto senso mi dice che sto gioco sara' una sola... :stordita:
Anche secondo me...però mi ha fatto ridere.
Sicuramente il loro reparto marketing avrà pensato di ottenere un po' di visibilità utilizzando il successo di Hogwarts Legacy, e infatti ci sono riusciti. Io ad esempio non avevo idea dell'esistenza del progetto.
DJurassic
15-02-2023, 10:32
Ho provato ieri RDR2 con il plug-in per abilitare il DLAA al posto del Dlss ed è visivamente un vero spettacolo. Se non sapete di cosa sto parlando mi riferisco a questo:
https://videocardz.com/newz/game-tweaking-tool-can-enable-dlaa-support-in-dlss-compatible-games
Questo il link per il plug-in [QUI (https://github.com/emoose/DLSSTweaks/releases)]. Leggete le istruzioni contenute all'interno per una corretta installazione. Funziona esclusivamente con i giochi supportano già il DLSS ma non hanno il DLAA all'interno del gioco.
Ovviamente incide sulle prestazioni poichè il DLAA a differenza del DLSS non applica alcun upscaling ma semplicemente aggiunge il deep learning alla res nativa con il quale state giocando.
Questo un video che ho registrato in 4K Ultra + DLAA in RDR2.
https://www.youtube.com/watch?v=hXaJ_p5pPMw&t=63s
Un paio di comparazioni tra 4K TAA e 4K DLAA:
https://live.staticflickr.com/65535/52690263766_52c7777bf7_o.jpg
https://live.staticflickr.com/65535/52690263791_a94d3ff71f_o.jpg
Cutter90
15-02-2023, 10:41
Ho provato ieri RDR2 con il plug-in per abilitare il DLAA al posto del Dlss ed è visivamente un vero spettacolo. Se non sapete di cosa sto parlando mi riferisco a questo:
https://videocardz.com/newz/game-tweaking-tool-can-enable-dlaa-support-in-dlss-compatible-games
Questo il link per il plug-in [QUI (https://github.com/emoose/DLSSTweaks/releases)]. Leggete le istruzioni contenute all'interno per una corretta installazione. Funziona esclusivamente con i giochi supportano già il DLSS ma non hanno il DLAA all'interno del gioco.
Ovviamente incide sulle prestazioni poichè il DLAA a differenza del DLSS non applica alcun upscaling ma semplicemente aggiunge il deep learning alla res nativa con il quale state giocando.
Questo un video che ho registrato in 4K Ultra + DLAA in RDR2.
https://www.youtube.com/watch?v=hXaJ_p5pPMw&t=63s
Un paio di comparazioni tra 4K TAA e 4K DLAA:
https://live.staticflickr.com/65535/52690263766_52c7777bf7_o.jpg
https://live.staticflickr.com/65535/52690263791_a94d3ff71f_o.jpg
Lavoro eccezionale e grazie per aver condiviso. Soprattutto in quei giochi in cui il dlss non è applicato bene e il taa fa pena. Chissà con cp 2077?
Potrei provare con Plague tale Reaquiem
DJurassic
15-02-2023, 10:57
Lavoro eccezionale e grazie per aver condiviso. Soprattutto in quei giochi in cui il dlss non è applicato bene e il taa fa pena. Chissà con cp 2077?
Potrei provare con Plague tale Reaquiem
A Plague Tale Requiem ha già il DLAA incluso, così come Hogwarts Legacy. In CP2077 l'ho provato ieri ed è stupendo...ma è dannatamente pesante. In 4K con tutto a Ultra e RT Psycho in DLAA stai sui 60fps solo grazie al Frame Generator, ma potresti avere qualche calo. Con RT su Ultra e non Psycho invece gira tra i 70 e gli 80 in città però non sò quanto convenga a questo punto.
Il DLAA è come se giocassi in 4K Nativo ma con i vantaggi del Deep Learning che rende obsoleti tutti gli altri tipi di AA finora visti.
scorpion73
15-02-2023, 11:23
Io sto giocando a COD con il DLAA in 1440p ed ha una qualità secondo me superiore nettamente a qualsiasi altro AA possibile sul gioco.
micronauta1981
15-02-2023, 12:18
Io sto giocando a COD con il DLAA in 1440p ed ha una qualità secondo me superiore nettamente a qualsiasi altro AA possibile sul gioco.
Anche del dldsr?
Alekos Panagulis
15-02-2023, 12:40
Scusate ma il DLAA non fa esattamente quello che fa il DLSR? A parità di risoluzione di output.
DJurassic
15-02-2023, 13:14
Anche del dldsr?
Vedo che ancora confondi il Dynamic Super Resolution con l'AA.
Voglio vederti giocare con il DLDSR a CP2077 con RT ultra. Ti sembrerà di sfogliare l'album della Panini :asd:
sertopica
15-02-2023, 14:00
Scusate ma il DLAA non fa esattamente quello che fa il DLSR? A parità di risoluzione di output.
No. In pratica il DLDSR e' un DSR con algoritmi di downsampling piu' efficienti che si appoggiano ai Tensor Cores, ma se non usi una res superiore alla tua nativa non ha senso. Anzi, per usarlo devi attivare una res superiore ma la cosiddetta IA lavora solo per migliorare il processo di downsampling, non ti raddoppiera' il framerate.
Il DLAA invece e' l'AA del DLSS senza l'upscaling, quindi non ci sono risoluzioni target. Giochi alla tua res nativa e applichi una forma di AA che fra l'altro e' anche piu' pesante dei metodi TAA tradizionali, ma la qualita' e' ottima.
O almeno e' quello che finora ho capito. :asd:
Cutter90
15-02-2023, 14:36
No. In pratica il DLDSR e' un DSR con algoritmi di downsampling piu' efficienti che si appoggiano ai Tensor Cores, ma se non usi una res superiore alla tua nativa non ha senso. Anzi, per usarlo devi attivare una res superiore ma la cosiddetta IA lavora solo per migliorare il processo di downsampling, non ti raddoppiera' il framerate.
Il DLAA invece e' l'AA del DLSS senza l'upscaling, quindi non ci sono risoluzioni target. Giochi alla tua res nativa e applichi una forma di AA che fra l'altro e' anche piu' pesante dei metodi TAA tradizionali, ma la qualita' e' ottima.
O almeno e' quello che finora ho capito. :asd:
Anche io ho capito in questa maniera. In sostanza il dlaa è il top finora come AA perchè è l'AA del dlss senza calare la risoluzione di rendering come fa il dlss, in pratica.
DJurassic
15-02-2023, 15:00
Anche io ho capito in questa maniera. In sostanza il dlaa è il top finora come AA perchè è l'AA del dlss senza calare la risoluzione di rendering come fa il dlss, in pratica.
Esatto. Di fondo c'è sempre il deep learning che ha la duplice funzione di AA e di ricostruire l'immagine in base all'IA. Quindi anche le textures o i particolari che su uno sfondo con TAA appaiono sgranati o poco chiari con il DLAA sono perfetti e nitidi.
Perlomeno ad oggi il DLAA offre la migliore qualità visiva possibile, un domani sicuramente avremo dell'altro. Viene da sè che un conto è applicarlo ad un 1080p e un conto è applicarlo ad un 4K o superiore. La risoluzione gioca sempre un ruolo dominante quando si tratta di pulizia visiva.
bagnino89
15-02-2023, 15:02
Ho provato ieri RDR2 con il plug-in per abilitare il DLAA al posto del Dlss ed è visivamente un vero spettacolo. Se non sapete di cosa sto parlando mi riferisco a questo:
https://videocardz.com/newz/game-tweaking-tool-can-enable-dlaa-support-in-dlss-compatible-games
Questo il link per il plug-in [QUI (https://github.com/emoose/DLSSTweaks/releases)]. Leggete le istruzioni contenute all'interno per una corretta installazione. Funziona esclusivamente con i giochi supportano già il DLSS ma non hanno il DLAA all'interno del gioco.
Ovviamente incide sulle prestazioni poichè il DLAA a differenza del DLSS non applica alcun upscaling ma semplicemente aggiunge il deep learning alla res nativa con il quale state giocando.
Questo un video che ho registrato in 4K Ultra + DLAA in RDR2.
https://www.youtube.com/watch?v=hXaJ_p5pPMw&t=63s
Un paio di comparazioni tra 4K TAA e 4K DLAA:
Bellissimo, effettivamente anche su Requiem il DLAA fa paura.
Sarebbe da reinstallare RDR2...
DJurassic
15-02-2023, 15:05
Bellissimo, effettivamente anche su Requiem il DLAA fa paura.
Sarebbe da reinstallare RDR2...
Io non l'ho mai tolto. Ogni volta che lo avvio capisco subito dove sono andati a finire quei quasi 540 milioni di dollari di budget. :p
bagnino89
15-02-2023, 15:11
Io non l'ho mai tolto. Ogni volta che lo avvio capisco subito dove sono andati a finire quei quasi 540 milioni di dollari di budget. :p
Lo dico senza timore di smentita: per me RDR2 è il più bel gioco degli anni 201x. La storia di Arthur Morgan mi ha fatto venire le lacrime, a volte, specie nel finale. E dal lato tecnico è un gioco impressionante.
Lo dico senza timore di smentita: per me RDR2 è il più bel gioco degli anni 201x. La storia di Arthur Morgan mi ha fatto venire le lacrime, a volte, specie nel finale. E dal lato tecnico è un gioco impressionante.
Concordo. Speriamo che prima o poi ci sia un seguito o prequel o come cavolo volete ma fatene un altro. Certo non facessero come con GTA 5 che sono 10 anni che è out e il 6 manco si vede... :cry: :cry: :cry:
bagnino89
15-02-2023, 15:32
Concordo. Speriamo che prima o poi ci sia un seguito o prequel o come cavolo volete ma fatene un altro. Certo non facessero come con GTA 5 che sono 10 anni che è out e il 6 manco si vede... :cry: :cry: :cry:Ci credo che non lo tirano fuori, gta5 è ancora tra i giochi più venduti...
Inviato dal mio Pixel 6 utilizzando Tapatalk
mattxx88
15-02-2023, 15:33
Lo dico senza timore di smentita: per me RDR2 è il più bel gioco degli anni 201x. La storia di Arthur Morgan mi ha fatto venire le lacrime, a volte, specie nel finale. E dal lato tecnico è un gioco impressionante.
se guardi edgerunners su netflix allora non giochi piu a CB dopo :stordita: :cry:
bagnino89
15-02-2023, 15:41
Cyberbug è una bazzecola rispetto a RDR2, sotto quasi ogni aspetto.
Inviato dal mio Pixel 6 utilizzando Tapatalk
DJurassic
15-02-2023, 15:46
Cyberbug è una bazzecola rispetto a RDR2, sotto quasi ogni aspetto.
Inviato dal mio Pixel 6 utilizzando Tapatalk
Budget diversi = risultati diversi
314 milioni vs 540
500 impiegati vs 2000
La differenza tra essere ambiziosi puntando decisamente in alto e avere realmente i mezzi per farlo.
Ci credo che non lo tirano fuori, gta5 è ancora tra i giochi più venduti...
Inviato dal mio Pixel 6 utilizzando Tapatalk
Si ma per chi come me lo ha giocato da quando uscì sulla ps3... ne ha un pò piene le p@lle :D
Alekos Panagulis
15-02-2023, 15:57
No. In pratica il DLDSR e' un DSR con algoritmi di downsampling piu' efficienti che si appoggiano ai Tensor Cores, ma se non usi una res superiore alla tua nativa non ha senso. Anzi, per usarlo devi attivare una res superiore ma la cosiddetta IA lavora solo per migliorare il processo di downsampling, non ti raddoppiera' il framerate.
Il DLAA invece e' l'AA del DLSS senza l'upscaling, quindi non ci sono risoluzioni target. Giochi alla tua res nativa e applichi una forma di AA che fra l'altro e' anche piu' pesante dei metodi TAA tradizionali, ma la qualita' e' ottima.
O almeno e' quello che finora ho capito. :asd:
Si questo l'avevo capito. Faccio un esempio da ignorante, visto che non sono un ingegnere:
- Con il DLSR, renderizzi internamente il gioco a 1920x1080 e l'IA ricostruisce l'immagine a risoluzione superiore, 2560x1440, utilizzando il deep learning.
- Con il DLAA renderizzi internamente a 2560x1440 e l'IA applica il deep learning come? Non ricostruisce nulla, visto che non mancano pixel. Applica un AA avanzato? Ma secondo me il risultato è molto molto simile...
sertopica
15-02-2023, 16:03
Cyberbug è una bazzecola rispetto a RDR2, sotto quasi ogni aspetto.
Inviato dal mio Pixel 6 utilizzando Tapatalk
Esagerato.
Si questo l'avevo capito. Faccio un esempio da ignorante, visto che non sono un ingegnere:
1 Con il DLSR, renderizzi internamente il gioco a 1920x1080 e l'IA ricostruisce l'immagine a risoluzione superiore, 2560x1440, utilizzando il deep learning.
2 Con il DLAA renderizzi internamente a 2560x1440 e l'IA applica il deep learning come? Non ricostruisce nulla, visto che non mancano pixel. Applica un AA avanzato? Ma secondo me il risultato è molto molto simile...
1. No, e' il contrario, la GPU renderizza internamente la scena ad una res superiore a quella del tuo monitor e poi la ridimensiona, si tratta di una forma di supersampling. In questo caso i tensor core sono coinvolti nel processo di ridimensionamento da quello che ricordo.
2. Stiamo sempre parlando di una forma di temporal AA, e la ricostruzione certo che c'e', l'aliasing viene eliminato in questo modo in base all'accumulo di informazioni dai frames precedenti. Solo che qui vengono usati deep learning e tensor cores per darti una qualita' dell'immagine superiore rispetto ad altre soluzioni che spalmano lo schermo di vaselina.
Per concludere i risultati non sono assolutamente simili, il DLDSR si mangia molte piu' risorse. Nel tuo ragionamento c'era un errore come dire, fatale. :D
PS: un altro discorso e' se usi DLDSR e poi ci applichi il DLSS sopra per avere un'AA quasi a gratis, ma e' un sistema che si mangia piu' prestazioni in confronto.
Alekos Panagulis
15-02-2023, 16:23
1. No, e' il contrario, la GPU renderizza internamente la scena ad una res superiore a quella del tuo monitor e poi la ridimensiona, si tratta di una forma di supersampling. In questo caso i tensor core sono coinvolti nel processo di ridimensionamento da quello che ricordo.
Ah si certo, è il contrario! Quello che ho descritto io è il DLSS :doh:
2. Stiamo sempre parlando di una forma di temporal AA, e la ricostruzione certo che c'e', l'aliasing viene eliminato in questo modo in base all'accumulo di informazioni dai frames precedenti. Solo che qui vengono usati deep learning e tensor cores per darti una qualita' dell'immagine superiore rispetto ad altre soluzioni che spalmano lo schermo di vaselina.
Per concludere i risultati non sono assolutamente simili, il DLDSR si mangia molte piu' risorse. Nel tuo ragionamento c'era un errore come dire, fatale. :D
PS: un altro discorso e' se usi DLDSR e poi ci applichi il DLSS sopra per avere un'AA quasi a gratis, ma e' un sistema che si mangia piu' prestazioni in confronto.
Si l'errore era fatale in effetti
Cmq sta roba qui applicata a un film degli anni 50 dovrebbe essere in grado di ricostruirlo con rese pari a un bluray moderno 4k + HDR. Incredibile.
Secondo me a breve vedremo svariate applicazioni fuori di testa.
micronauta1981
15-02-2023, 16:26
Vedo che ancora confondi il Dynamic Super Resolution con l'AA.
Voglio vederti giocare con il DLDSR a CP2077 con RT ultra. Ti sembrerà di sfogliare l'album della Panini :asd:
Leggi pagine indietro..usa le console se non sai cosa stai dicendo..
micronauta1981
15-02-2023, 17:34
Vedo che ancora confondi il Dynamic Super Resolution con l'AA.
Voglio vederti giocare con il DLDSR a CP2077 con RT ultra. Ti sembrerà di sfogliare l'album della Panini :asd:
Vatti a leggere cosa ti ho scritto a pag 345 😂😂😂
Cmq a grandi linee Chi di voi ha familiarità con l'anti-aliasing dovrebbe conoscere la più vecchia forma di anti-aliasing, il Super-Sampling Anti-Aliasing (SSAA). Si tratta della tecnica più antica, probabilmente anche la più esigente, ma è quella visivamente più appagante. L'SSAA renderizza un gioco a risoluzione superiore rispetto a quella a cui è stato impostato il titolo, e fa un down-sampling del risultato a una risoluzione target. Il risultato è che gli artefatti legati all'aliasing sono drasticamente ridotti. Il problema più grande con l'SSA è che è così esigente dal punto di vista delle risorse hardware che la maggior parte dei motori di gioco lo ignorano completamente. A volte può essere forzato dai driver, ma talvolta si tratta di una soluzione instabile.
Ciò che Nvidia offre con DSR è un modo per fornire il super-sampling anti-aliasing aggirando totalmente le limitazioni dell'anti-aliasing integrate nel gioco
Siamo in un forum tecnico,dovresti prima studiare e poi venire a scrivere qui..
micronauta1981
15-02-2023, 17:35
https://www.tomshw.it/hardware/geforce-gtx-980-e-geforce-gtx-970-prestazioni-delle-top-di-gamma-nvidia/dynamic-super-resolution-mfaa-vr-direct-vxgi-e-dx12/
Ho provato ieri RDR2 con il plug-in per abilitare il DLAA al posto del Dlss ed è visivamente un vero spettacolo. Se non sapete di cosa sto parlando mi riferisco a questo: [CUT]
Grazie
Cutter90
15-02-2023, 21:58
Vatti a leggere cosa ti ho scritto a pag 345
Cmq a grandi linee Chi di voi ha familiarità con l'anti-aliasing dovrebbe conoscere la più vecchia forma di anti-aliasing, il Super-Sampling Anti-Aliasing (SSAA). Si tratta della tecnica più antica, probabilmente anche la più esigente, ma è quella visivamente più appagante. L'SSAA renderizza un gioco a risoluzione superiore rispetto a quella a cui è stato impostato il titolo, e fa un down-sampling del risultato a una risoluzione target. Il risultato è che gli artefatti legati all'aliasing sono drasticamente ridotti. Il problema più grande con l'SSA è che è così esigente dal punto di vista delle risorse hardware che la maggior parte dei motori di gioco lo ignorano completamente. A volte può essere forzato dai driver, ma talvolta si tratta di una soluzione instabile.
Ciò che Nvidia offre con DSR è un modo per fornire il super-sampling anti-aliasing aggirando totalmente le limitazioni dell'anti-aliasing integrate nel gioco
Siamo in un forum tecnico,dovresti prima studiare e poi venire a scrivere qui..
Ma quello non è un AA ma solo una risoluzione alta dowscalata a una bassa.... ma che stai dicendo? È una soluzione inutilmente dispendiosa e soprattutto impossibile per il 4k ad esempio. Che fai renderizzi in 6k solo per avere una AA buono? Ma sai cosa vuol dire in termini di performance? È inutilizzabile. Il dlaa, invece, non fa sta roba inutile e ottiene lo stesso risultato o quasi con pochissima perdita di performance rispetto appunto a un downsampling.
Lo sappiamo tutti che se una scena la renderizzi in 16 k l aliasing è assente eh. Secondo te non lo sappiamo? Ma non è una strada percorribile.
Tutti usano il TAA perché è quello che dà i migliori benifici/costo performance. E visto che l AA è imprescindibile dire 4k nativo è = a 4k+ TAA. Indi per cui il dlss è migliore del 4k nativo in alcuni giochi. Questo è quanto.
micronauta1981
15-02-2023, 22:11
È un sistema di antialiasing,tipo il supersampling,leggiti il link di Tom's..voi dicevate che il dlss è alla pari se nn meglio della risoluzione nativa,il dlaa lo so anche io che è ottimo .non era quello che contestavo io..applicare il dsr serve proprio per ripulire la nativa dal taa,questo ho detto,dovete paragonare il dlss con una nativa più antialiasing,tipo dlaa o dsr,e li nn c'è proprio storia
micronauta1981
15-02-2023, 22:13
Infatti il supersampling anche per i motivi della risoluzione che hai scritto tu, è stato abbandonato..ma è cmq la soluzione che offre la migliore qualità, ovviamente se sei in 4k non lo puoi usare..ma questo è un altro discorso..
Cutter90
16-02-2023, 08:17
Infatti il supersampling anche per i motivi della risoluzione che hai scritto tu, è stato abbandonato..ma è cmq la soluzione che offre la migliore qualità, ovviamente se sei in 4k non lo puoi usare..ma questo è un altro discorso..
Ma come un altro discorso? Questo è IL discorso. Siamo nel thread del 4k, inoltre una AA inutilizzabile di fatto non è un opzione, che poi, ripeto il SSAA non è un AA in post-processing. Quindi direi di restare tra le soluzioni "pensabili" no?
Cmq ragazzi, è uscito Returnal anche su pc. Al di là dell'aspetto tecnico, che resta cmq pregevole giocatelo: E' un gioco della madonna, lo finii ai tempi su ps5.
Cmq ragazzi, è uscito Returnal anche su pc. Al di là dell'aspetto tecnico, che resta cmq pregevole giocatelo: E' un gioco della madonna, lo finii ai tempi su ps5.
lo proverò sicuramente: avete già avuto modo di testarlo a livello tecnico?
Sembrerebbe abbiano fatto una buona conversione, da come sto leggendo in giro.
magic carpet
16-02-2023, 08:47
lo proverò sicuramente: avete già avuto modo di testarlo a livello tecnico?
Sembrerebbe abbiano fatto una buona conversione, da come sto leggendo in giro.Sì interessa anche a me.
Come si comporta con le nostre 4090 in 4K?
Ho letto che c'è anche un benchmark interno. :)
Inviato dal mio SM-F721B utilizzando Tapatalk
DJurassic
16-02-2023, 09:03
Sì interessa anche a me.
Come si comporta con le nostre 4090 in 4K?
Ho letto che c'è anche un benchmark interno. :)
Inviato dal mio SM-F721B utilizzando Tapatalk
L’ho provato ieri e per ora l’unico problema che purtroppo ha è anche qui il traversal stuttering che però a differenza di altri giochi si riduce man mano che si gioca, anche raggiungendo nuove aree. Però comunque è presente ed è giusto segnalarlo. Sono fiducioso che verrà presto fixato anche perché il resto è da 9 pieno se apprezzate il genere. Tecnicamente sembra la remastered della versione PS5 tante sono le nuove aggiunge tecniche e le migliorie apportate alla versione PC.
Questo è il bench eseguito sulla mia configurazione in 4K / Ultra RT / No DLSS.
https://youtu.be/tBkm8dm29Wo
L’uso della CPU non è correttamente riportato durante il test perché usando l’OSD di Afterburner i numeri sono ben diversi e si fa presto a capire che Returnal sfrutta in modo consistente anche il processore. In particolari momenti oserei dire a livello intensivo anche se lo stuttering non sembra essere legato a questi picchi.
Il gioco volendo mette a disposizione anche il DLSS,FSR,NIS ma non il DLSS 3. Il dualsense di PS5 per chi volesse saperlo é sfruttato perfettamente con tutte le funzioni aggiunte alla pari della console.
Cmq ragazzi, è uscito Returnal anche su pc. Al di là dell'aspetto tecnico, che resta cmq pregevole giocatelo: E' un gioco della madonna, lo finii ai tempi su ps5.
Roguelike puro? Se è così me ne terrò alla larga perchè i giochi difficili e quelli che devi fare le stesse cose all'infinito li odio con tutto il cuore.
Cutter90
16-02-2023, 09:20
Roguelike puro? Se è così me ne terrò alla larga perchè i giochi difficili e quelli che devi fare le stesse cose all'infinito li odio con tutto il cuore.
E' sicuramente molto impegnativo. Non lo riterrei proprio puro però. Detto questo a me mi aveva letteralmente rapito ai tempi: poi su oled era spettacolare con tutte quelle luci e neri.
Il porting sembra eccellente, ma bisogna vedere sto maledetto stuttering
E' sicuramente molto impegnativo. Non lo riterrei proprio puro però. Detto questo a me mi aveva letteralmente rapito ai tempi: poi su oled era spettacolare con tutte quelle luci e neri.
Il porting sembra eccellente, ma bisogna vedere sto maledetto stuttering
ci ho smadonnato a suo tempo anche io sull' oled (abbiamo la stessa tv :D ),
ma non l'ho mai finito.
Ora ci riprovo con mouse e tastiera, col dual sense ero praticamente inabile :rolleyes:
Cutter90
16-02-2023, 09:29
L’ho provato ieri e per ora l’unico problema che purtroppo ha è anche qui il traversal stuttering che però a differenza di altri giochi si riduce man mano che si gioca, anche raggiungendo nuove aree. Però comunque è presente ed è giusto segnalarlo. Sono fiducioso che verrà presto fixato anche perché il resto è da 9 pieno se apprezzate il genere. Tecnicamente sembra la remastered della versione PS5 tante sono le nuove aggiunge tecniche e le migliorie apportate alla versione PC.
Questo è il bench eseguito sulla mia configurazione in 4K / Ultra RT / No DLSS.
https://youtu.be/tBkm8dm29Wo
L’uso della CPU non è correttamente riportato durante il test perché usando l’OSD di Afterburner i numeri sono ben diversi e si fa presto a capire che Returnal sfrutta in modo consistente anche il processore. In particolari momenti oserei dire a livello intensivo anche se lo stuttering non sembra essere legato a questi picchi.
Il gioco volendo mette a disposizione anche il DLSS,FSR,NIS ma non il DLSS 3. Il dualsense di PS5 per chi volesse saperlo é sfruttato perfettamente con tutte le funzioni aggiunte alla pari della console.
Come porting sembra avere moltissimo, peccato il dlss3, ma è un gioco abbastanza leggero pur con rt su riflessi e ombre. Ottimo il bench integrato, oggi faccio qualche test pure io con la mia configurazione
albero77
16-02-2023, 09:30
L’ho provato ieri e per ora l’unico problema che purtroppo ha è anche qui il traversal stuttering che però a differenza di altri giochi si riduce man mano che si gioca, anche raggiungendo nuove aree. Però comunque è presente ed è giusto segnalarlo. Sono fiducioso che verrà presto fixato anche perché il resto è da 9 pieno se apprezzate il genere. Tecnicamente sembra la remastered della versione PS5 tante sono le nuove aggiunge tecniche e le migliorie apportate alla versione PC.
Questo è il bench eseguito sulla mia configurazione in 4K / Ultra RT / No DLSS.
https://youtu.be/tBkm8dm29Wo
L’uso della CPU non è correttamente riportato durante il test perché usando l’OSD di Afterburner i numeri sono ben diversi e si fa presto a capire che Returnal sfrutta in modo consistente anche il processore. In particolari momenti oserei dire a livello intensivo anche se lo stuttering non sembra essere legato a questi picchi.
Il gioco volendo mette a disposizione anche il DLSS,FSR,NIS ma non il DLSS 3. Il dualsense di PS5 per chi volesse saperlo é sfruttato perfettamente con tutte le funzioni aggiunte alla pari della console.
Stessi tuoi settaggi, stessa cpu, stessa gpu, non ho quei cali che hai te. Ho ricontrollato adesso e rifatto il bench, gli fps non scendono mai sotto i 120.
Gioco fantastico, piacerà molto a kiwida secondo me;)
DJurassic
16-02-2023, 09:54
Stessi tuoi settaggi, stessa cpu, stessa gpu, non ho quei cali che hai te. Ho ricontrollato adesso e rifatto il bench, gli fps non scendono mai sotto i 120.
Gioco fantastico, piacerà molto a kiwida secondo me;)
Intendi nel bench? Stai giocando con DLSS attivo? Non hai notato Stuttering?
alla fine il cavo è arrivato, credo proprio di aver fatto un affare avendolo pagato 21.30€ :D
https://i.ibb.co/RDJNkky/Whats-App-Image-2023-02-16-at-10-37-43.jpg (https://ibb.co/RDJNkky)
Quindi ricapitolando in 4k nativo su 4090, dove possibile, il DLAA e' la migliore opzione per la qualita' a prescindere dai cali fps, giusto ?? :rolleyes:
@Djurassic il comando da mettere nel file.ini e' questo ??
[DLSS]
ForceDLAA: forza tutte le modalità di qualità DLSS ad agire invece come DLAA, rendendo il gioco a piena risoluzione, mentre il DLSS si applica su di esso
albero77
16-02-2023, 11:08
Intendi nel bench? Stai giocando con DLSS attivo? Non hai notato Stuttering?
No dlss, stuttering in alcuni casi c'è purtroppo, ma nel bench a me fila tutto liscio.
DJurassic
16-02-2023, 11:18
No dlss, stuttering in alcuni casi c'è purtroppo, ma nel bench a me fila tutto liscio.
Si ma senza DLSS nel bench non puoi fare 120fps di Average, così come non li fai nemmeno ingame. Può capitare di vederli senz'altro ma la media è ben più bassa.
Quindi ricapitolando in 4k nativo su 4090, dove possibile, il DLAA e' la migliore opzione per la qualita' a prescindere dai cali fps, giusto ?? :rolleyes:
@Djurassic il comando da mettere nel file.ini e' questo ??
[DLSS]
ForceDLAA: forza tutte le modalità di qualità DLSS ad agire invece come DLAA, rendendo il gioco a piena risoluzione, mentre il DLSS si applica su di esso
Si, il DLAA ti offre in assoluto la migliore qualità di immagine poichè unisce alla tua res nativa il deep Learning.
Per farlo funzionare:
* Copia il contenuto dello zip dentro la cartella del gioco dove è situato l'exe.
* Apri il file dlsstweaks.ini e modifica (vale per tutti i titoli da me provati):
ForceDLAA = true
OverrideAppId = true
Poi salva il file. Nel caso di RDR2 il file dxgi.dll và rinominato in XInput9_1_0.dll o altrimenti non funziona (E' tutto scritto nella guida su Github). In altri giochi non occorre fare questa modifica.
Per attivarlo una volta che sei dentro il gioco ti basta attivare un qualsiasi settings DLSS. Non cambia nulla tra Quality, Balanced, Performance poichè il plug-in si attiva in ogni caso e il DLAA non ha variazioni di qualità visiva poichè non implica l'upscaling.
albero77
16-02-2023, 11:23
Si ma senza DLSS nel bench non puoi fare 120fps di Average, così come non li fai nemmeno ingame. Può capitare di vederli senz'altro ma la media è ben più bassa.
Potrebbere essere il g-synch? Le impostazioni quelle sono...
DJurassic
16-02-2023, 11:28
Potrebbere essere il g-synch? Le impostazioni quelle sono...
No, non centra nulla il Gsync. Mi sono confrontato con altri giocatori che hanno la stessa scheda e siamo tutti allineati. Anche Bang4Buck che ha un 13900K tirato a bestia ottiene un punteggio simile:
Bench: https://www.youtube.com/watch?v=1oL3_wMrh1I&t=167s
Gameplay: https://www.youtube.com/watch?v=O_aiv7VrZKA&t=1200s
I 120fps di media in 4K nativo con RT ultra non li dovresti proprio vedere in Returnal.
bagnino89
16-02-2023, 11:30
L’ho provato ieri e per ora l’unico problema che purtroppo ha è anche qui il traversal stuttering che però a differenza di altri giochi si riduce man mano che si gioca, anche raggiungendo nuove aree. Però comunque è presente ed è giusto segnalarlo. Sono fiducioso che verrà presto fixato anche perché il resto è da 9 pieno se apprezzate il genere. Tecnicamente sembra la remastered della versione PS5 tante sono le nuove aggiunge tecniche e le migliorie apportate alla versione PC.
Questo è il bench eseguito sulla mia configurazione in 4K / Ultra RT / No DLSS.
https://youtu.be/tBkm8dm29Wo
L’uso della CPU non è correttamente riportato durante il test perché usando l’OSD di Afterburner i numeri sono ben diversi e si fa presto a capire che Returnal sfrutta in modo consistente anche il processore. In particolari momenti oserei dire a livello intensivo anche se lo stuttering non sembra essere legato a questi picchi.
Il gioco volendo mette a disposizione anche il DLSS,FSR,NIS ma non il DLSS 3. Il dualsense di PS5 per chi volesse saperlo é sfruttato perfettamente con tutte le funzioni aggiunte alla pari della console.
Visto che parlate di stuttering: ma con Dead Space remake si può fare qualcosa per ridurlo? In certi punti è imbarazzante, come si può rilasciare un gioco così...
Si
Si, il DLAA ti offre in assoluto la migliore qualità di immagine poichè unisce alla tua res nativa il deep Learning.
Per farlo funzionare:
* Copia il contenuto dello zip dentro la cartella del gioco dove è situato l'exe.
* Apri il file dlsstweaks.ini e modifica (vale per tutti i titoli da me provati):
ForceDLAA = true
OverrideAppId = true
Poi salva il file. Nel caso di RDR2 il file dxgi.dll và rinominato in XInput9_1_0.dll o altrimenti non funziona (E' tutto scritto nella guida su Github). In altri giochi non occorre fare questa modifica.
Per attivarlo una volta che sei dentro il gioco ti basta attivare un qualsiasi settings DLSS. Non cambia nulla tra Quality, Balanced, Performance poichè il plug-in si attiva in ogni caso e il DLAA non ha variazioni di qualità visiva poichè non implica l'upscaling.
:cincin:
DJurassic
16-02-2023, 12:04
Visto che parlate di stuttering: ma con Dead Space remake si può fare qualcosa per ridurlo? In certi punti è imbarazzante, come si può rilasciare un gioco così...
Si, ma non lo eliminerai mai completamente.
Puoi disattivare il CFG (Control Flow Guard ) di Win 11 dalla cartella Protezione Exploit, selezionando l'exe di DeadSpace Remake mediante il percorso all'eseguibile e cambiando questo parametro qui:
https://i.ibb.co/hZ5wD3b/2023-02-16-130222.jpg
Riavviare il PC dopo aver modificato il CFG.
L'ho testato ed effettivamente migliora la stabilità del frametime e riduce lo stutter, pur non eliminandolo. In altri giochi invece non porta nessun vantaggio.
Cutter90
16-02-2023, 12:16
Potrebbere essere il g-synch? Le impostazioni quelle sono...
Hai qualche impostazione off oppure usi il dlss. 120 fps non si fanno su returnal maxato da come vedo
amon.akira
16-02-2023, 12:33
Hai qualche impostazione off oppure usi il dlss. 120 fps non si fanno su returnal maxato da come vedo
siccome non è fullscreen esclusivo all inizio come lo lanci ha un bug per il quale anche se prende direttamente 4k, in realtà è in 1080, infatti avevo l osd di afterburner gigante, ho dovuto cambiare prima risoluzione e poi rimetterla a 4k e poi è andato ok...
potrebbe essere un problema del genere
DJurassic
16-02-2023, 13:09
siccome non è fullscreen esclusivo all inizio come lo lanci ha un bug per il quale anche se prende direttamente 4k, in realtà è in 1080, infatti avevo l osd di afterburner gigante, ho dovuto cambiare prima risoluzione e poi rimetterla a 4k e poi è andato ok...
potrebbe essere un problema del genere
Si ma come fai a non rendertene conto se stai giocando in 1080p o se sei in 4K?
bagnino89
16-02-2023, 13:36
Si, ma non lo eliminerai mai completamente.
Puoi disattivare il CFG (Control Flow Guard ) di Win 11 dalla cartella Protezione Exploit, selezionando l'exe di DeadSpace Remake mediante il percorso all'eseguibile e cambiando questo parametro qui:
Riavviare il PC dopo aver modificato il CFG.
L'ho testato ed effettivamente migliora la stabilità del frametime e riduce lo stutter, pur non eliminandolo. In altri giochi invece non porta nessun vantaggio.
Stasera provo, grazie mille!
magic carpet
16-02-2023, 14:15
siccome non è fullscreen esclusivo all inizio come lo lanci ha un bug per il quale anche se prende direttamente 4k, in realtà è in 1080, infatti avevo l osd di afterburner gigante, ho dovuto cambiare prima risoluzione e poi rimetterla a 4k e poi è andato ok...
potrebbe essere un problema del genere
Sì è un glitch noto quello della risoluzione.
Da una review online:
"Eravamo dunque molto curiosi di capire come si sarebbe comportato il gioco su PC, e dobbiamo dire di avere ancora oggi con qualche perplessità in merito a misteriosi avvisi e glitch che sembrano collegati in particolare all'uso della RTX 3070: in partenza la scheda non viene riconosciuta dal sistema, che tuttavia presenta le opzioni standard e consente di giocare tranquillamente a 4K, con tutte le impostazioni al massimo, facendo segnare... 147 fps?
Pur nella nostra incredulità, eravamo pronti a lanciarci con entusiasmo nell'edificazione di un monumento a Climax Studios, il team che si è occupato di realizzare la conversione, quando ci è sorto un dubbio, risolto poi con le catture video: a quanto pare le opzioni dicevano 2160p, ma in realtà il gioco girava ad appena 720p. Ripristinati i valori reali, siamo tornati coi piedi per terra sul fronte delle performance, pur trovando un impianto davvero completo e scalabile".
DJurassic
16-02-2023, 14:52
Sì è un glitch noto quello della risoluzione.
Da una review online:
"Eravamo dunque molto curiosi di capire come si sarebbe comportato il gioco su PC, e dobbiamo dire di avere ancora oggi con qualche perplessità in merito a misteriosi avvisi e glitch che sembrano collegati in particolare all'uso della RTX 3070: in partenza la scheda non viene riconosciuta dal sistema, che tuttavia presenta le opzioni standard e consente di giocare tranquillamente a 4K, con tutte le impostazioni al massimo, facendo segnare... 147 fps?
Pur nella nostra incredulità, eravamo pronti a lanciarci con entusiasmo nell'edificazione di un monumento a Climax Studios, il team che si è occupato di realizzare la conversione, quando ci è sorto un dubbio, risolto poi con le catture video: a quanto pare le opzioni dicevano 2160p, ma in realtà il gioco girava ad appena 720p. Ripristinati i valori reali, siamo tornati coi piedi per terra sul fronte delle performance, pur trovando un impianto davvero completo e scalabile".
Questo vi fà capire il grado di preparazione di chi scrive le recensioni e sopratutto l'attenzione al dettaglio.
Non riconoscere i 720p dai 2160p è un dono che hanno in pochi. Hanno dovuto guardare le catture video per capire che c'era qualcosa che non andava, i loro occhi non bastavano. :asd:
Questo vi fà capire il grado di preparazione di chi scrive le recensioni e sopratutto l'attenzione al dettaglio.
Non riconoscere i 720p dai 2160p è un dono che hanno in pochi. Hanno dovuto guardare le catture video per capire che c'era qualcosa che non andava, i loro occhi non bastavano. :asd:
C'è da dire che chi fa review difficilmente sta davanti allo schermo, spesso ha batch per lanciare i benchmark (ove possibile) e se non li ha una volta cliccato avvia difficilmente rimane lì davanti. Quindi ci sta che poi te ne accorgi quando vai a montare il video, dove si spera gli occhi siano attivi :D
Cutter90
16-02-2023, 20:15
Questo vi fà capire il grado di preparazione di chi scrive le recensioni e sopratutto l'attenzione al dettaglio.
Non riconoscere i 720p dai 2160p è un dono che hanno in pochi. Hanno dovuto guardare le catture video per capire che c'era qualcosa che non andava, i loro occhi non bastavano. :asd:
Mamma mia che vergogna, davvero.
Cmq, messu su Returnal e dopo aver sistemato la Res.... questo il risultato del bench senza dlss
https://i.imgur.com/ngXmo1i.jpg
Poi ho avviato il gioco e stando fermo senza muovere nulla questi sono gli fps
https://i.imgur.com/q2mMEfF.jpg
Foto oscene, lo so :D
Jeetkundo
16-02-2023, 20:22
Mamma mia che vergogna, davvero.
Cmq, messu su Returnal e dopo aver sistemato la Res.... questo il risultato del bench senza dlss
Poi ho avviato il gioco e stando fermo senza muovere nulla questi sono gli fps
Foto oscene, lo so :DHo notato degli stutter random con gli effetti raytracing. Anche da te fa così? Se disattivo quei due settaggi gira invece perfetto. Speriamo in qualche patch.
DJurassic
16-02-2023, 21:11
Foto oscene, lo so :D
Io avrei detto foto enormi, ma poi ho visto che c'è pure chi te le ha quotate come se vederle una sola volta non bastasse :asd:
Cutter90
17-02-2023, 06:46
Cmq sta storia dello stutter per via degli shader inizia davveroa farsi pesantissima e per me surreale.... ma possibile che non ce la facciano a farlo sparire AL D1?
Cioè, ora dico da mezzo ignorante, ma sti shader non è possibile precaricarli TUTTI prima che si avvii una partita? Del tipo, nel menù, al primo avvia che vada in background, mentre intanto aggiustiamo le opzioni, una percentuale di avanzamento, stile Horizon Zero Dawn ad esempio.
Cioè, anche se ci dovesse mettere 5-10 minuti dove sarebbe il problema?
Mi fai aspettare 10 minuti, mi avvisi che se voglio giocare in quei 10 minuti avrò stutter, ma poi terminato questo lasso di tempo almeno il gioco fila liscio senza intoppi dall'inizio alla fine. Perchè diavolo non fanno così?
Anche in Returnal, 2 minuti di pre-compilazione e poi parto con la partita e tac..... stutter per la precompilazione degli shader... ma porca vacca! Ma fammi una precompilazione VERA di 10 minuti, al posto di 2, così ingame non ho più problemi!
Magistercris
17-02-2023, 07:06
Sono perfettamente d'accordo. È un problema di giochi. Sono fatti a cazzola e studiati per via dei tempi per andare molto bene nel 97% tra console e hardware (con porting) obsoleto o entry level che giocano al massimo su medio con risoluzioni ridicole.
Con loro tutti i giochi vanno.
Il 3 %, noi, con macchine costate come una moto media, se non di più, dato che non accettiamo meno del tutto ultra uber a 4k, visto l'investimento, giochiamo qualsiasi gioco nuovo con stuttering e difetti vari.
Purtroppo inizio a pensare che con le nostre macchine ci girano bene, tutto a uber, solo qualche bench.
La situazione negli anni è sempre peggiorata nei giochi destinati ai pochi entusiast che hanno speso un botto e si consolano con Port royal. Poi se giochi te tocca trovare workaround o compromessi grafici per far girare un gioco con la 4090 + 13900...
C'è qualcosa di sbagliato e se non cambia, allora è il caso di rivedere il proprio hobby.
Non ci sto a giocare bene oggi giochi di 3 anni fa.
Spero di sbagliarmi, e spero che i giochi a venire portino qualcosa di migliore.....
sertopica
17-02-2023, 07:10
Cmq sta storia dello stutter per via degli shader inizia davveroa farsi pesantissima e per me surreale.... ma possibile che non ce la facciano a farlo sparire AL D1?
Cioè, ora dico da mezzo ignorante, ma sti shader non è possibile precaricarli TUTTI prima che si avvii una partita? Del tipo, nel menù, al primo avvia che vada in background, mentre intanto aggiustiamo le opzioni, una percentuale di avanzamento, stile Horizon Zero Dawn ad esempio.
Cioè, anche se ci dovesse mettere 5-10 minuti dove sarebbe il problema?
Mi fai aspettare 10 minuti, mi avvisi che se voglio giocare in quei 10 minuti avrò stutter, ma poi terminato questo lasso di tempo almeno il gioco fila liscio senza intoppi dall'inizio alla fine. Perchè diavolo non fanno così?
Anche in Returnal, 2 minuti di pre-compilazione e poi parto con la partita e tac..... stutter per la precompilazione degli shader... ma porca vacca! Ma fammi una precompilazione VERA di 10 minuti, al posto di 2, così ingame non ho più problemi!
Stanno ancora cercando di capire come funzionano le DX12. In poche parole come si dice dalle mie parti, stanno a "caro amico". :asd: :asd:
PS: per favore postiamo thumbnails invece di quelle foto. E' netiquette. ;)
ieri ho sostituito il polpo con il cavo corsair singolo,
(con il polpo mai nessun problema)
ho giocato un'oretta e in cp2077 ho iniziato ad avere dei crash, sempre più frequenti.
ho provato requiem e ha crashato quasi subito.
più riavviavo e il pc e più si freezava prima, arrivando a freezarsi direttamente alla schermata di windows.
ho rimesso il polpo.
ha continuato a fare lo stesso.
ho provato ad avviare in modalità provvisoria e disinstallato i drivers.
avviato normalmente e reinstallato i drivers: nuovo freeze.
ho provato a rimettere la vecchia 2080 con il suo cavo 8+6: NESSUN PROBLEMA.
cosa potrebbe essere?
il cavo nuovo da 600w può aver fottuto l'ali, o aver fatto danni alla 4090?
nel dubbio, ho ordinato un nuovo Corsair RM1000x SHIFT 3.0, che testerò domenica.
che ne pensate? :mc:
mimi8384
17-02-2023, 07:27
Ho notato degli stutter random con gli effetti raytracing. Anche da te fa così? Se disattivo quei due settaggi gira invece perfetto. Speriamo in qualche patch.
da un test veloce con la 4080 e i5 13600k, con ray tracing attivo c'è stuttering, senza invece sembra essere quasi del tutto assente...
Comunque con le ombre raytracing e i riflessi è un discreto spettacolo..ma anche senza surclassa tranquillamente la versione PS5 per per la maggiore risoluzione e soprattutto per i 120 fps che su RETURNAL porta l'esperienza a un livello superiore.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.