Quote:
Per quanto TLOU sicuramente sia ottimizzato male, temo che il futuro in generale non sia tanto roseo per le schede da 8GB. Le console attuali hanno circa 13GB disponibili, di cui sicuramente la maggior parte sarà utilizzata per la sezione video. Non mi stupirebbe se in futuro, almeno 10GB di VRAM diventasse il minimo sindacale. E io ho preso una 6600 XT... vabbè che è una soluzione temporanea, spero... e non mi dispiace neppure giocare a dettagli bassi se necessario... Inoltre forse sarò salvato dall'esistenza della Series S, che ha solo 8GB condivisi da sfruttare. |
Quote:
https://www.hwupgrade.it/forum/showp...postcount=1096 |
Quote:
faccio fantavga proprio :D ma in pratica ci si potrebbe aspettare una battaglia performance/watt con la futura ipotetica 5070, e se costasse meno sarebbe davvero molto molto interessante...vedremo |
Quote:
Per la nuova Intel, premetto non so se ci saranno stravolgimenti microarchitetturali, ma è abbastanza difficile da inquadrare. Al momento potrebbe fare un 70% di perf buone, ed il range potrebbe essere tra 4070 liscia a 4080. La A770, nei sintetici raggiunge la 3070, e qua in molti giochi si sono avvicinati, ma nei test, io la vedo sempre in zona 3060, compreso l'ultimo TLOU. Ovviamente anche qua, ci saranno aumenti, il 4nm, costa quasi 2x il 6nm.:) Se riesce a tarare la top, ad almeno 500-550 euro, potrebbe essere un best buy veramente.:) |
Quote:
|
Quote:
Il salto tra la A750 e la A770 l'ho sentito più per la vram che per i frame in sè, ma anche in paragone con la 3070Ti, frame molto più elevati ma minimi più bassi e instabili su alcuni giochi, mentre con la A770 i frame minimi son più stabili, mentre i massimi sono sul livello della 3060Ti mediamente. TLOU guardando in giro online pare pure voglia 32 gb di ram di sistema per girare senza stuttering tra l'altro... |
Quote:
|
Quote:
|
|
Quote:
Tutto a beneficio dei tanti che hanno creduto e hanno scommesso sulle ARC. Poi ovvio, probabilmente nVidia non verrà mai scalzata dal primo posto, pazienza, anzi poco importa. L'importante è che anche Intel dovesse diventare veramente performante non impazzisca lato prezzi. Non mi aspetto la prossima generazione di schede video di fascia alta Intel a 380€ come la A770 ma neanche che si azzardino ad andare oltre i 500/600€, ovviamente con modelli inferiori a prezzi ancora più bassi. |
Quote:
Queste costano poco perché fossero costate di più non le avrebbe acquistate nessuno visti i limiti driver e le prestazioni. |
Quote:
Quote:
Paradossalmente costerebbe più la battlemage che la 4080, solo che la seconda è tutta margine e speculazione. Se la mette a 500$, sarà un gran bel risultati per gli acquirenti, ed un probabile best buy. |
|
A riguardo di D3D9on12 sulle altre GPU, con una 3060 nel benchmark classico di FEAR (ultima versione), senza AA e senza Soft Shadows (mai piaciuta quell'implementazione delle soft shadows per stencil shadows) e tutto il resto al massimo) si fanno 400 FPS di media contro i 550 nativi a 2560x1440: è un 27% di perfomance hit dovuto alla rimappatura. Nessun evidente errore nel rendering.
|
NVIDIA Remix è Open Source :)
https://www.moddb.com/games/portal-w...ng-open-source https://www.phoronix.com/news/NVIDIA-RTX-Remix-0.1 |
L'ultima patch di cyberpunk che aggiunge l'XeSS da gli steroidi a Arc, la versione di Xess 1.1 é notevole sia lato qualitá che prestazione, presumo ci siano state ottimizzazioni anche lato architettura Arc dato che il RT ha boostato da pazzi, ho avuto davanti una scheda diversa. Aggiungo che XeSS 1.1 si mangia fsr tranquillamente in CP. Provate ve lo consiglio. :)
Il path tracing meglio evitarlo sempre che 15 fps non vadano bene :D |
che xess fosse meglio di fsr si era già capito dall'inizio e non c'erano dubbi, intel ha fatto un lavorone se consideriamo che sono alla loro prima gen, e già offre prestazioni rt paragonabili alle RTX 3000, e upscaling ai livelli del dlss...non vedo l'ora di vedere battlemage!
|
Quote:
|
Quote:
https://www.hardwaretimes.com/intel-...image-quality/ Quote:
|
Quote:
Alla fine se Intel continuerà a spingere come sta facendo ora Battleimage potrebbe davvero essere interessante, sempre che Intel non decida di seguire la politica di prezzo di Nvidia e AMD, ma non credo visto che sarebbe ancora solo alla 2a generazione. |
Quote:
Ora tira il RT su folle, è assurdo :D |
Quote:
|
Quote:
|
Ero certo che ci saresti rimasto, é un cambio di marcia francamente mostruoso. Certo che quado si usa davvero l'hw di Arc le cose cambiano, e parecchio.
Questa sera ho provato CP con la 3070 e dlss e concordo sulla qualitá di XeSS 1.1, é assolutamente a livello di dlss e anzi, mi sbilancio, lo vedo addirittura piú pulito. Arc 770 si mangia vivi i 4k in raster, hai provato ? :) |
Quote:
Per XeSS stesse impressioni, l'immagine mi sembra più pulita e stabile soprattutto in distanza e quando si cerca di inquadrare reti, lampioni ecc. Personalmente trovo solo eccessivo ghosting rispetto al DLSS, anche in Death Stranding è presente, ma nulla di fastidioso come già detto. In 4K purtroppo non ho la possibilità di provare in quanto non ho un televisore 4K, il monitor è 1440p e sfortunatamente dai driver non c'è ancora nessuna possibilità di settare una risoluzione virtuale superiore di rendering come invece accade da anni per Nvidia e AMD. Però posso immaginare, dato che la scheda problemi di banda non ne ha, dati i 256 bit di bus. Se sui 3 nm riescono a raddoppiare le unità ed a rivedere la uarch per migliorare l'efficenza e ridurre le latenze si prospettano belle schede le Battleimage. Ah, tra l'altro, senza OC a stock anche in CB2077 oltre i 190W non va la scheda, quindi anche lato consumi non è affatto male come prima iterazione. |
Qualcuno che a parti scambiate provi XeSS 1.1 su AMD / NVidia (visto che si può) ?
|
Quote:
DLSS 3.1.11 PRESET C XeSS 1.1 Guardate non tanto la framerate quanto l'albero sotto e la definizione in generale a pari risoluzione di input (66,667%)......il DLSS resta il benchmark. Vedi anche aliasing del limite superiore del tetto a sinistra che nel DLSS non c'è e invece è pesantissimo (data la risoluzione di input) nello XeSS. Inoltre dagli screenshot non si può vedere ma XeSS 1.1 ha ancora parecchio ghosting :asd: :asd: :asd: (i fiocchi di neve durante una tempesta sono perfetti come test), il preset C del DLSS 3.1.11 invece non ce l'ha proprio! Resa delle trasparenze accettabile in entrembi (FSR lasciamo stare......meglio evitarlo, non riesce per nulla a gestire correttamente le trasparenze - gli oggetti dietro ai fluidi trasparenti come i vapori/fumi della forgia o l'aria eccitata dagli incantesimi) Ricordo che il DLSS 3.x NON ha lo sharpening di suo (e nel plugin per Skyrim lo disattivo apposta per tutti gli upscaler) quindi non ci sono trucchi, gli screenshot di sopra riflettono perfettamente le differenze nella resa finale dell'algoritmo. |
Quote:
Servirebbe un qualche controllo in più via driver, in effetti è un pò avaro, speriamo che in futuro venga in qualche modo ampliato. :) Battlemage si prospetta interessante, se Intel non fa scherzi ne piazzo una nella macchina principale e ciao ciao a tutti gli altri :cool: |
Quote:
Come dicevo a EffeX io non ho ghost, e provando sia DLSS (3070) che XeSS (Arc 770) con CB 2077 ho trovato addirittura meglio la proposta Intel, poi di certo ci saranno mille possibili variabili ci mancherebbe, del resto lo sviluppo di XeSS non ha goduto degli anni avuti da DLSS, che di certo è pietra di paragone. Per XeSS già il passaggio dalla versione 1.0 a 1.1 ha portato grosse variazioni sul modo di operare dell'algoritmo. https://www.hardwaretimes.com/intel-...image-quality/ |
Allora, confrontandomi sui test di ieri sera col mio collega che ha la 4070Ti, mi ha consigliato di disattivare il motion blur, in quanto anche a lui su TV oled 4K causa ghosting se usa dlss, provato rapidamente in pausa pranzo, effettivamente con motion blur disattivato il ghosting non c'è più.
Discorso XeSS credo anche io che su ARC abbia un'altra resa: sempre a casa del mio collega avevamo fatto una prova quando lui aveva ancora la 3070 su Death Stranding, XeSS non sembrava lo stesso che avevo io risultando molto sfocato e con poco guadagno di fps. Diciamo che Intel ha fatto una via di mezzo tra Nvidia e AMD, ti dà l'opportunità di attivare XeSS anche senza unità dedicate, ma l'emulazione come risultato non dà ne prestazioni né qualità soddisfacenti. |
Quote:
Infatti i problemi che vedo io (considerando un titolo perfettamente agnostico su cui sono "buttati" DLSS e XeSS a posteriori come appunto Skyrim) sono nella gestione delle trasparenze soprattutto. I 20-30 FPS mica li considero importanti proprio perchè il DLSS sta girando sul "suo" HW mentre XeSS no. |
Quote:
Cmq il Motion Blur E' un forma di "ghosting controllato" per definizione :p (con la differenza che può essere applicato solo ad alcuni oggetti nella scena e non solo alla camera) Come la Chromatic Aberration il Motion Blur va benissimo per simulare confusione quando feriti (vedi lavoro fatto magistralmente già nel 2005 con Republic Commando), in tutti gli altri contesti devo ancora capire chi possa apprezzarli (a parte i fanatici della camera "che è una camera e non gli occhi umani" - del resto l'HDR+Tonemapping inizialmente fu introdotto nel 2004 proprio per simulare la risposta della camera più che degli occhi - aka esposizione) |
Usciti i driver beta 101.4311
Quote:
|
Quote:
Io il motion blur l'ho apprezzato molto sugli schermi CRT, sugli LCD non mi ha mai fatto impazzire. Qualcuno se lo ricorda Need for Speed Underground quando si usava il NOS? :sofico: |
Quote:
|
Con tempismo perfetto finiti i benck in 4K per CP escono i nuovi driver, pazienza... farò un confronto tra i due :D
Iniziamo con un 4K, con RT FOLLE e XeSS su prestazioni. CP - 4k - RT FOLLE - XeSS prestazioni Ora 4K RASTER CP - 4k - XeSS prestazioni CP - 4k - XeSS bilanciato CP - 4k - XeSS qualità CP - 4k - XeSS ultra quality |
Quote:
|
Quote:
In merito ai settaggi, Chromatic Aberration e Motion Blur sono le prime due voci che tolgo. Veramente inutili oltre che deleterie per la qualità d'immagine. |
Quote:
https://www.digitaltrends.com/comput...big-advantage/ Only Intel’s Arc Alchemist graphics cards will have the dedicated XMX cores, and Intel says they provide the best quality and performance. However, GPUs that support DP4a instruction can also run XeSS, just with a slight trade-off between image quality and/or performance. Here are the GPUs that support DP4a for Intel XeSS Del resto DP4a & DP2a were, together with a control structure for VRS, the only new features which came with SM6.4. Intel's requirement is likely just simplifying it, meaning SM6.4 = DP4a support. "These intrinsics are a required/supported feature of Shader model 6.4. Consequently, no separate capability bit check is required, beyond assuring the use of Shader Model 6.4." Quindi di fatto basta una GPU compliant con lo SM 6.4 e automaticamente questo implica la presenza di supporto allo XeSS tramite path DP4a (sicuramente più immediato da controllare rispetto a cercare nell'ISA della GPU) E' una cosa da indagare quel tradeoff con la qualità di resa finale.....e volendo con i sorgenti non è difficile. MIKE? :D https://github.com/intel/xess/ |
Tutti gli orari sono GMT +1. Ora sono le: 17:14. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.