Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] Aspettando le nuove VGA Intel™ (https://www.hwupgrade.it/forum/showthread.php?t=2933029)


Malek86 04-04-2023 10:19

Quote:

Originariamente inviato da Saturn (Messaggio 48157745)
The Last of Us Remastered con Intel ARC A770 ! ;)

Alla faccia di chi ci vuol male !

Il gioco è buggato e ottimizzato alla membro di segugio ma i nostri 16 gb di ram tornano utilissimi, anzi VITALI per questo titolo.

Ovviamente mi aspetto che Intel tiri fuori il prima possibile un driver ottimizzato anche per questo titolo. :)

Mi piacerebbe vedere un confronto con il modello da 8GB, per avere un'idea dell'impatto specifico della VRAM in questo gioco. Oggigiorno è molto raro che venga venduta la stessa scheda con ammontare di memoria diverso (la 3060 8GB è decisamente più debole della 12GB). Si tratta di un occasione interessante. E a giudicare da quel grafico postato primo, si vede che Returnal, un altro gioco esclusivo per PS5, sembra beneficiarne parecchio.

Per quanto TLOU sicuramente sia ottimizzato male, temo che il futuro in generale non sia tanto roseo per le schede da 8GB. Le console attuali hanno circa 13GB disponibili, di cui sicuramente la maggior parte sarà utilizzata per la sezione video. Non mi stupirebbe se in futuro, almeno 10GB di VRAM diventasse il minimo sindacale. E io ho preso una 6600 XT... vabbè che è una soluzione temporanea, spero... e non mi dispiace neppure giocare a dettagli bassi se necessario...

Inoltre forse sarò salvato dall'esistenza della Series S, che ha solo 8GB condivisi da sfruttare.

mikael84 04-04-2023 11:26

Quote:

Originariamente inviato da appleroof (Messaggio 48160971)
anche io seguo molto interessato, non a caso qualche tempo fa chiedevo questo : :sofico:





certo, mi spiacerebbe perdere il gsync, ed il supporto driver eccellente di nvidia, vedrò

Non leggo sempre qui Apple, cmq ne avevo già parlato la pagina precedente.:)
https://www.hwupgrade.it/forum/showp...postcount=1096

appleroof 04-04-2023 11:34

Quote:

Originariamente inviato da mikael84 (Messaggio 48161088)
Non leggo sempre qui Apple, cmq ne avevo già parlato la pagina precedente.:)
https://www.hwupgrade.it/forum/showp...postcount=1096

si ma figurati Mike, lo avevo capito e avevo anche letto le tue considerazioni successive :)

faccio fantavga proprio :D ma in pratica ci si potrebbe aspettare una battaglia performance/watt con la futura ipotetica 5070, e se costasse meno sarebbe davvero molto molto interessante...vedremo

mikael84 04-04-2023 11:54

Quote:

Originariamente inviato da appleroof (Messaggio 48161096)
si ma figurati Mike, lo avevo capito e avevo anche letto le tue considerazioni successive :)

faccio fantavga proprio :D ma in pratica ci si potrebbe aspettare una battaglia performance/watt con la futura ipotetica 5070, e se costasse meno sarebbe davvero molto molto interessante...vedremo

La 5070 probabilmente verrà tarata like 4080 sui 3nmE.
Per la nuova Intel, premetto non so se ci saranno stravolgimenti microarchitetturali, ma è abbastanza difficile da inquadrare. Al momento potrebbe fare un 70% di perf buone, ed il range potrebbe essere tra 4070 liscia a 4080.
La A770, nei sintetici raggiunge la 3070, e qua in molti giochi si sono avvicinati, ma nei test, io la vedo sempre in zona 3060, compreso l'ultimo TLOU.

Ovviamente anche qua, ci saranno aumenti, il 4nm, costa quasi 2x il 6nm.:)
Se riesce a tarare la top, ad almeno 500-550 euro, potrebbe essere un best buy veramente.:)

appleroof 04-04-2023 12:02

Quote:

Originariamente inviato da mikael84 (Messaggio 48161135)
La 5070 probabilmente verrà tarata like 4080 sui 3nmE.
Per la nuova Intel, premetto non so se ci saranno stravolgimenti microarchitetturali, ma è abbastanza difficile da inquadrare. Al momento potrebbe fare un 70% di perf buone, ed il range potrebbe essere tra 4070 liscia a 4080.
La A770, nei test raggiunge la 3070, e qua in molti giochi si sono avvicinati, ma nei test, io la vedo sempre in zona 3060, compreso l'ultimo TLOU.

Ovviamente anche qua, ci saranno aumenti, il 4nm, costa quasi 2x il 6nm.:)
Se riesce a tarare la top, ad almeno 500-550 euro, potrebbe essere un best buy veramente.:)

ecco le parole che mi piacciono :D....peccato manchi ancora molto (ma magari in questo frattempo recuperano lato supporto driver), si vedrà ;)

EffeX 05-04-2023 10:45

Quote:

Originariamente inviato da Malek86 (Messaggio 48161027)
Mi piacerebbe vedere un confronto con il modello da 8GB, per avere un'idea dell'impatto specifico della VRAM in questo gioco. Oggigiorno è molto raro che venga venduta la stessa scheda con ammontare di memoria diverso (la 3060 8GB è decisamente più debole della 12GB). Si tratta di un occasione interessante. E a giudicare da quel grafico postato primo, si vede che Returnal, un altro gioco esclusivo per PS5, sembra beneficiarne parecchio.

Per quanto TLOU sicuramente sia ottimizzato male, temo che il futuro in generale non sia tanto roseo per le schede da 8GB. Le console attuali hanno circa 13GB disponibili, di cui sicuramente la maggior parte sarà utilizzata per la sezione video. Non mi stupirebbe se in futuro, almeno 10GB di VRAM diventasse il minimo sindacale. E io ho preso una 6600 XT... vabbè che è una soluzione temporanea, spero... e non mi dispiace neppure giocare a dettagli bassi se necessario...

Inoltre forse sarò salvato dall'esistenza della Series S, che ha solo 8GB condivisi da sfruttare.

Io ho fatto il passaggio 2070 --> 3070Ti---> A750 --> A770.
Il salto tra la A750 e la A770 l'ho sentito più per la vram che per i frame in sè, ma anche in paragone con la 3070Ti, frame molto più elevati ma minimi più bassi e instabili su alcuni giochi, mentre con la A770 i frame minimi son più stabili, mentre i massimi sono sul livello della 3060Ti mediamente.
TLOU guardando in giro online pare pure voglia 32 gb di ram di sistema per girare senza stuttering tra l'altro...

EffeX 05-04-2023 10:56

Quote:

Originariamente inviato da mikael84 (Messaggio 48161135)
La 5070 probabilmente verrà tarata like 4080 sui 3nmE.
Per la nuova Intel, premetto non so se ci saranno stravolgimenti microarchitetturali, ma è abbastanza difficile da inquadrare. Al momento potrebbe fare un 70% di perf buone, ed il range potrebbe essere tra 4070 liscia a 4080.
La A770, nei sintetici raggiunge la 3070, e qua in molti giochi si sono avvicinati, ma nei test, io la vedo sempre in zona 3060, compreso l'ultimo TLOU.

Ovviamente anche qua, ci saranno aumenti, il 4nm, costa quasi 2x il 6nm.:)
Se riesce a tarare la top, ad almeno 500-550 euro, potrebbe essere un best buy veramente.:)

Ma le soluzioni MCM per ora sembrano essere state accantonate?

Saturn 05-04-2023 15:53

Quote:

Originariamente inviato da EffeX (Messaggio 48162038)
Io ho fatto il passaggio 2070 --> 3070Ti---> A750 --> A770.
Il salto tra la A750 e la A770 l'ho sentito più per la vram che per i frame in sè, ma anche in paragone con la 3070Ti, frame molto più elevati ma minimi più bassi e instabili su alcuni giochi, mentre con la A770 i frame minimi son più stabili, mentre i massimi sono sul livello della 3060Ti mediamente.
TLOU guardando in giro online pare pure voglia 32 gb di ram di sistema per girare senza stuttering tra l'altro...

Praticamente questo porting di TLOUS l'hanno fatto decisamente controvoglia. :muro:

Wolfw00f 05-04-2023 21:03

https://www.tomshw.it/hardware/tsmc-...e-e-celestial/

Saturn 06-04-2023 10:07

Quote:

Originariamente inviato da Wolfw00f (Messaggio 48162727)

Ottimo. E non solo perchè vuol dire che a dispetto di quanto pensavano alcuni, per Intel non è stata "una parentesi" l'ingresso nel mercato delle schede video, ma soprattutto perchè saranno ancora più incentivati nel miglioramento dei driver, attuali e futuri.

Tutto a beneficio dei tanti che hanno creduto e hanno scommesso sulle ARC.

Poi ovvio, probabilmente nVidia non verrà mai scalzata dal primo posto, pazienza, anzi poco importa. L'importante è che anche Intel dovesse diventare veramente performante non impazzisca lato prezzi.

Non mi aspetto la prossima generazione di schede video di fascia alta Intel a 380€ come la A770 ma neanche che si azzardino ad andare oltre i 500/600€, ovviamente con modelli inferiori a prezzi ancora più bassi.

nessuno29 06-04-2023 10:32

Quote:

Originariamente inviato da Saturn (Messaggio 48163039)
Ottimo. E non solo perchè vuol dire che a dispetto di quanto pensavano alcuni, per Intel non è stata "una parentesi" l'ingresso nel mercato delle schede video, ma soprattutto perchè saranno ancora più incentivati nel miglioramento dei driver, attuali e futuri.

Tutto a beneficio dei tanti che hanno creduto e hanno scommesso sulle ARC.

Poi ovvio, probabilmente nVidia non verrà mai scalzata dal primo posto, pazienza, anzi poco importa. L'importante è che anche Intel dovesse diventare veramente performante non impazzisca lato prezzi.

Non mi aspetto la prossima generazione di schede video di fascia alta Intel a 380€ come la A770 ma neanche che si azzardino ad andare oltre i 500/600€, ovviamente con modelli inferiori a prezzi ancora più bassi.

Se andasse come una 4090 la piazzerebbe allo stesso prezzo stanne certo ;)
Queste costano poco perché fossero costate di più non le avrebbe acquistate nessuno visti i limiti driver e le prestazioni.

mikael84 06-04-2023 11:30

Quote:

Originariamente inviato da EffeX (Messaggio 48162059)
Ma le soluzioni MCM per ora sembrano essere state accantonate?

Per ora si. Si pensava che fosse proprio intel ad aprire le danze, ma pare di no. AMD l'ha fatto ma solo con i collegamenti.

Quote:

Originariamente inviato da Saturn (Messaggio 48163039)
Ottimo. E non solo perchè vuol dire che a dispetto di quanto pensavano alcuni, per Intel non è stata "una parentesi" l'ingresso nel mercato delle schede video, ma soprattutto perchè saranno ancora più incentivati nel miglioramento dei driver, attuali e futuri.

Tutto a beneficio dei tanti che hanno creduto e hanno scommesso sulle ARC.

Poi ovvio, probabilmente nVidia non verrà mai scalzata dal primo posto, pazienza, anzi poco importa. L'importante è che anche Intel dovesse diventare veramente performante non impazzisca lato prezzi.

Non mi aspetto la prossima generazione di schede video di fascia alta Intel a 380€ come la A770 ma neanche che si azzardino ad andare oltre i 500/600€, ovviamente con modelli inferiori a prezzi ancora più bassi.

Con il 6nm ci stai giusto giusto con i costi, con i 4nm, difficilmente vedrai quei prezzi, in quanto, se mantiene un die mediamente equivalente, come da rumour, i costi di produzione aumentano di circa 70/80$ solo lato die.
Paradossalmente costerebbe più la battlemage che la 4080, solo che la seconda è tutta margine e speculazione.

Se la mette a 500$, sarà un gran bel risultati per gli acquirenti, ed un probabile best buy.

Wolfw00f 06-04-2023 14:20

https://www.youtube.com/watch?v=l59x...=Reto%27sBench

Beh che dire, 60 giochi testati :|

Wolfw00f 10-04-2023 00:01

A riguardo di D3D9on12 sulle altre GPU, con una 3060 nel benchmark classico di FEAR (ultima versione), senza AA e senza Soft Shadows (mai piaciuta quell'implementazione delle soft shadows per stencil shadows) e tutto il resto al massimo) si fanno 400 FPS di media contro i 550 nativi a 2560x1440: è un 27% di perfomance hit dovuto alla rimappatura. Nessun evidente errore nel rendering.

Wolfw00f 12-04-2023 16:39

NVIDIA Remix è Open Source :)

https://www.moddb.com/games/portal-w...ng-open-source

https://www.phoronix.com/news/NVIDIA-RTX-Remix-0.1

Maury 12-04-2023 17:29

L'ultima patch di cyberpunk che aggiunge l'XeSS da gli steroidi a Arc, la versione di Xess 1.1 é notevole sia lato qualitá che prestazione, presumo ci siano state ottimizzazioni anche lato architettura Arc dato che il RT ha boostato da pazzi, ho avuto davanti una scheda diversa. Aggiungo che XeSS 1.1 si mangia fsr tranquillamente in CP. Provate ve lo consiglio. :)

Il path tracing meglio evitarlo sempre che 15 fps non vadano bene :D

StylezZz` 12-04-2023 17:40

che xess fosse meglio di fsr si era già capito dall'inizio e non c'erano dubbi, intel ha fatto un lavorone se consideriamo che sono alla loro prima gen, e già offre prestazioni rt paragonabili alle RTX 3000, e upscaling ai livelli del dlss...non vedo l'ora di vedere battlemage!

Cyfer73 12-04-2023 18:04

Quote:

Originariamente inviato da Maury (Messaggio 48168294)
L'ultima patch di cyberpunk che aggiunge l'XeSS da gli steroidi a Arc, la versione di Xess 1.1 é notevole sia lato qualitá che prestazione, presumo ci siano state ottimizzazioni anche lato architettura Arc dato che il RT ha boostato da pazzi, ho avuto davanti una scheda diversa. Aggiungo che XeSS 1.1 si mangia fsr tranquillamente in CP. Provate ve lo consiglio. :)

Il path tracing meglio evitarlo sempre che 15 fps non vadano bene :D

Cyberpunk 1.62 RT Overdrive (and XeSS) Patch on Intel Arc ;)

Maury 13-04-2023 09:38

Quote:

Originariamente inviato da StylezZz` (Messaggio 48168312)
che xess fosse meglio di fsr si era già capito dall'inizio e non c'erano dubbi, intel ha fatto un lavorone se consideriamo che sono alla loro prima gen, e già offre prestazioni rt paragonabili alle RTX 3000, e upscaling ai livelli del dlss...non vedo l'ora di vedere battlemage!

La versione 1.1 ha subito un grosso step rispetto alla versione base, qua lo spiegano bene :)

https://www.hardwaretimes.com/intel-...image-quality/

Quote:

Originariamente inviato da Cyfer73 (Messaggio 48168334)

Una conferma, fps a manciate :)

EffeX 13-04-2023 10:20

Quote:

Originariamente inviato da Maury (Messaggio 48168294)
L'ultima patch di cyberpunk che aggiunge l'XeSS da gli steroidi a Arc, la versione di Xess 1.1 é notevole sia lato qualitá che prestazione, presumo ci siano state ottimizzazioni anche lato architettura Arc dato che il RT ha boostato da pazzi, ho avuto davanti una scheda diversa. Aggiungo che XeSS 1.1 si mangia fsr tranquillamente in CP. Provate ve lo consiglio. :)

Il path tracing meglio evitarlo sempre che 15 fps non vadano bene :D

Ottimo, stasera lo provo che son molto curioso!
Alla fine se Intel continuerà a spingere come sta facendo ora Battleimage potrebbe davvero essere interessante, sempre che Intel non decida di seguire la politica di prezzo di Nvidia e AMD, ma non credo visto che sarebbe ancora solo alla 2a generazione.

Maury 13-04-2023 17:08

Quote:

Originariamente inviato da EffeX (Messaggio 48168936)
Ottimo, stasera lo provo che son molto curioso!
Alla fine se Intel continuerà a spingere come sta facendo ora Battleimage potrebbe davvero essere interessante, sempre che Intel non decida di seguire la politica di prezzo di Nvidia e AMD, ma non credo visto che sarebbe ancora solo alla 2a generazione.

Prova prova :D

Ora tira il RT su folle, è assurdo :D

EffeX 13-04-2023 18:28

Quote:

Originariamente inviato da Maury (Messaggio 48169549)
Prova prova :D

Ora tira il RT su folle, è assurdo :D

XeSS in 1440p su che settaggio? :D

Maury 13-04-2023 21:22

Quote:

Originariamente inviato da EffeX (Messaggio 48169627)
XeSS in 1440p su che settaggio? :D

Con rt folle bilanciato o prestazione, da tener conto che XeSS prestazione é > di fsr bilanciato. :D

EffeX 13-04-2023 21:35

Quote:

Originariamente inviato da Maury (Messaggio 48169770)
Con rt folle bilanciato o prestazione, da tener conto che XeSS prestazione é > di fsr bilanciato. :D

Ho fatto un po' di prove nel mentre: partendo dal presupposto che ho visto DLSS, FSR ed ora XeSS, posso affermare che questa implementazione è un qualcosa di sbalorditivo, forse non ha lo stesso guadagno di performance del DLSS, ma la qualità è uguale, se non migliore nel complesso, al DLSS.
Unico neo continuo a trovare un eccessivo ghosting, ma nulla di catastrofico.
XeSS su prestazioni in 1440p riesce a far girare sulla mia configurazione il gioco con tutta la parte RT attiva + illuminazione su "folle" intorno ai 45-50 fps nelle aree dense di traffico e npc, mentre in periferia si sta sui 60 fps.
Hanno fatto qualcosa di pazzesco, qui un paio di screen con le differenze tra ora e prima della patch, senza RT e senza XeSS, i test li avevo fatti appena acquistata la scheda, giudicate voi.




Ho provato anche ad abilitare il path tracing, sempre con XeSS su prestazioni in 1440p ottengo circa 13 fps nel bench, un bel slide show devo dire. :D

Maury 13-04-2023 21:43

Ero certo che ci saresti rimasto, é un cambio di marcia francamente mostruoso. Certo che quado si usa davvero l'hw di Arc le cose cambiano, e parecchio.

Questa sera ho provato CP con la 3070 e dlss e concordo sulla qualitá di XeSS 1.1, é assolutamente a livello di dlss e anzi, mi sbilancio, lo vedo addirittura piú pulito.

Arc 770 si mangia vivi i 4k in raster, hai provato ? :)

EffeX 13-04-2023 21:53

Quote:

Originariamente inviato da Maury (Messaggio 48169786)
Ero certo xhe ci saresti rimasto, é un cambio di marcia francamente mostruoso. Certo che quado si usa davvero l'hw di Arc le cose cambiano, e parecchio.

Questa sera ho provato CP con la 3070 e dlss e concordo sulla qualitá di XeSS 1.2, é assolutamente a livello di dlss e anzi, mi sbilancio, lo vedo addirittura piú pulito.

Arc 770 si mangia vivi i 4k in raster, hai provato ? :)

Guarda, sapevo che CDPR stava lavorando per una patch che migliorasse le prestazioni su ARC ma non pensavo quasi 20 fps di guadagno a pari impostazioni.
Per XeSS stesse impressioni, l'immagine mi sembra più pulita e stabile soprattutto in distanza e quando si cerca di inquadrare reti, lampioni ecc. Personalmente trovo solo eccessivo ghosting rispetto al DLSS, anche in Death Stranding è presente, ma nulla di fastidioso come già detto.
In 4K purtroppo non ho la possibilità di provare in quanto non ho un televisore 4K, il monitor è 1440p e sfortunatamente dai driver non c'è ancora nessuna possibilità di settare una risoluzione virtuale superiore di rendering come invece accade da anni per Nvidia e AMD.
Però posso immaginare, dato che la scheda problemi di banda non ne ha, dati i 256 bit di bus.
Se sui 3 nm riescono a raddoppiare le unità ed a rivedere la uarch per migliorare l'efficenza e ridurre le latenze si prospettano belle schede le Battleimage.
Ah, tra l'altro, senza OC a stock anche in CB2077 oltre i 190W non va la scheda, quindi anche lato consumi non è affatto male come prima iterazione.

Wolfw00f 14-04-2023 00:30

Qualcuno che a parti scambiate provi XeSS 1.1 su AMD / NVidia (visto che si può) ?

Wolfw00f 14-04-2023 10:46

Quote:

Originariamente inviato da Wolfw00f (Messaggio 48169861)
Qualcuno che a parti scambiate provi XeSS 1.1 su AMD / NVidia (visto che si può) ?

OK, fatto da solo con Skyrim + Upscaler che è perfettamente agnostico e si becca banalmente le DLL di riferimento (DLSS 3.1.11 e XeSS 1.1)

DLSS 3.1.11 PRESET C


XeSS 1.1


Guardate non tanto la framerate quanto l'albero sotto e la definizione in generale a pari risoluzione di input (66,667%)......il DLSS resta il benchmark.
Vedi anche aliasing del limite superiore del tetto a sinistra che nel DLSS non c'è e invece è pesantissimo (data la risoluzione di input) nello XeSS.

Inoltre dagli screenshot non si può vedere ma XeSS 1.1 ha ancora parecchio ghosting :asd: :asd: :asd: (i fiocchi di neve durante una tempesta sono perfetti come test), il preset C del DLSS 3.1.11 invece non ce l'ha proprio!
Resa delle trasparenze accettabile in entrembi (FSR lasciamo stare......meglio evitarlo, non riesce per nulla a gestire correttamente le trasparenze - gli oggetti dietro ai fluidi trasparenti come i vapori/fumi della forgia o l'aria eccitata dagli incantesimi)

Ricordo che il DLSS 3.x NON ha lo sharpening di suo (e nel plugin per Skyrim lo disattivo apposta per tutti gli upscaler) quindi non ci sono trucchi, gli screenshot di sopra riflettono perfettamente le differenze nella resa finale dell'algoritmo.

Maury 14-04-2023 11:06

Quote:

Originariamente inviato da EffeX (Messaggio 48169797)
Guarda, sapevo che CDPR stava lavorando per una patch che migliorasse le prestazioni su ARC ma non pensavo quasi 20 fps di guadagno a pari impostazioni.
Per XeSS stesse impressioni, l'immagine mi sembra più pulita e stabile soprattutto in distanza e quando si cerca di inquadrare reti, lampioni ecc. Personalmente trovo solo eccessivo ghosting rispetto al DLSS, anche in Death Stranding è presente, ma nulla di fastidioso come già detto.
In 4K purtroppo non ho la possibilità di provare in quanto non ho un televisore 4K, il monitor è 1440p e sfortunatamente dai driver non c'è ancora nessuna possibilità di settare una risoluzione virtuale superiore di rendering come invece accade da anni per Nvidia e AMD.
Però posso immaginare, dato che la scheda problemi di banda non ne ha, dati i 256 bit di bus.
Se sui 3 nm riescono a raddoppiare le unità ed a rivedere la uarch per migliorare l'efficenza e ridurre le latenze si prospettano belle schede le Battleimage.
Ah, tra l'altro, senza OC a stock anche in CB2077 oltre i 190W non va la scheda, quindi anche lato consumi non è affatto male come prima iterazione.

Il bus da 256 fa sicuramente la sua parte, in merito all'effetto ghost sai che io non ne soffro ? forse per via del fatto che è connessa ad un Tv 4K HDR :confused:
Servirebbe un qualche controllo in più via driver, in effetti è un pò avaro, speriamo che in futuro venga in qualche modo ampliato. :)

Battlemage si prospetta interessante, se Intel non fa scherzi ne piazzo una nella macchina principale e ciao ciao a tutti gli altri :cool:

Maury 14-04-2023 11:09

Quote:

Originariamente inviato da Wolfw00f (Messaggio 48170240)
OK, fatto da solo con Skyrim + Upscaler che è perfettamente agnostico e si becca banalmente le DLL di riferimento (DLSS 3.1.11 e XeSS 1.1)

Guardate non tanto la framerate quanto l'albero sotto e la definizione in generale a pari risoluzione di input (66,667%)......il DLSS resta il benchmark.
Vedi anche aliasing del limite superiore del tetto a sinistra che nel DLSS non c'è e invece è pesantissimo (data la risoluzione di input) nello XeSS.

Inoltre dagli screenshot non si può vedere ma XeSS 1.1 ha ancora parecchio ghosting :asd: :asd: :asd: (i fiocchi di neve durante una tempesta sono perfetti come test), il preset C del DLSS 3.1.11 invece non ce l'ha proprio!
Resa delle trasparenze accettabile in entrembi (FSR lasciamo stare......meglio evitarlo, non riesce per nulla a gestire correttamente le trasparenze - gli oggetti dietro ai fluidi trasparenti come i vapori/fumi della forgia o l'aria eccitata dagli incantesimi)

Ricordo che il DLSS 3.x NON ha lo sharpening di suo (e nel plugin per Skyrim lo disattivo apposta per tutti gli upscaler) quindi non ci sono trucchi, gli screenshot di sopra riflettono perfettamente le differenze nella resa finale dell'algoritmo.

Tieni conto però che il "vero" XeSS è solo su ARC, che ha le unità di IA hw.

Come dicevo a EffeX io non ho ghost, e provando sia DLSS (3070) che XeSS (Arc 770) con CB 2077 ho trovato addirittura meglio la proposta Intel, poi di certo ci saranno mille possibili variabili ci mancherebbe, del resto lo sviluppo di XeSS non ha goduto degli anni avuti da DLSS, che di certo è pietra di paragone.
Per XeSS già il passaggio dalla versione 1.0 a 1.1 ha portato grosse variazioni sul modo di operare dell'algoritmo.

https://www.hardwaretimes.com/intel-...image-quality/

EffeX 14-04-2023 12:48

Allora, confrontandomi sui test di ieri sera col mio collega che ha la 4070Ti, mi ha consigliato di disattivare il motion blur, in quanto anche a lui su TV oled 4K causa ghosting se usa dlss, provato rapidamente in pausa pranzo, effettivamente con motion blur disattivato il ghosting non c'è più.
Discorso XeSS credo anche io che su ARC abbia un'altra resa: sempre a casa del mio collega avevamo fatto una prova quando lui aveva ancora la 3070 su Death Stranding, XeSS non sembrava lo stesso che avevo io risultando molto sfocato e con poco guadagno di fps.
Diciamo che Intel ha fatto una via di mezzo tra Nvidia e AMD, ti dà l'opportunità di attivare XeSS anche senza unità dedicate, ma l'emulazione come risultato non dà ne prestazioni né qualità soddisfacenti.

Wolfw00f 14-04-2023 13:24

Quote:

Originariamente inviato da Maury (Messaggio 48170279)
Tieni conto però che il "vero" XeSS è solo su ARC, che ha le unità di IA hw.

Come dicevo a EffeX io non ho ghost, e provando sia DLSS (3070) che XeSS (Arc 770) con CB 2077 ho trovato addirittura meglio la proposta Intel, poi di certo ci saranno mille possibili variabili ci mancherebbe, del resto lo sviluppo di XeSS non ha goduto degli anni avuti da DLSS, che di certo è pietra di paragone.
Per XeSS già il passaggio dalla versione 1.0 a 1.1 ha portato grosse variazioni sul modo di operare dell'algoritmo.

https://www.hardwaretimes.com/intel-...image-quality/

Certo, ma la differenza dell'HW è in performance, non in precisione :D
Infatti i problemi che vedo io (considerando un titolo perfettamente agnostico su cui sono "buttati" DLSS e XeSS a posteriori come appunto Skyrim) sono nella gestione delle trasparenze soprattutto. I 20-30 FPS mica li considero importanti proprio perchè il DLSS sta girando sul "suo" HW mentre XeSS no.

Wolfw00f 14-04-2023 13:27

Quote:

Originariamente inviato da EffeX (Messaggio 48170418)
Allora, confrontandomi sui test di ieri sera col mio collega che ha la 4070Ti, mi ha consigliato di disattivare il motion blur, in quanto anche a lui su TV oled 4K causa ghosting se usa dlss, provato rapidamente in pausa pranzo, effettivamente con motion blur disattivato il ghosting non c'è più.
Discorso XeSS credo anche io che su ARC abbia un'altra resa: sempre a casa del mio collega avevamo fatto una prova quando lui aveva ancora la 3070 su Death Stranding, XeSS non sembrava lo stesso che avevo io risultando molto sfocato e con poco guadagno di fps.
Diciamo che Intel ha fatto una via di mezzo tra Nvidia e AMD, ti dà l'opportunità di attivare XeSS anche senza unità dedicate, ma l'emulazione come risultato non dà ne prestazioni né qualità soddisfacenti.

Bisognerebbe indagare meglio sulla differenza qualitativa, ovvio che ci sia quella in performance.
Cmq il Motion Blur E' un forma di "ghosting controllato" per definizione :p (con la differenza che può essere applicato solo ad alcuni oggetti nella scena e non solo alla camera)

Come la Chromatic Aberration il Motion Blur va benissimo per simulare confusione quando feriti (vedi lavoro fatto magistralmente già nel 2005 con Republic Commando), in tutti gli altri contesti devo ancora capire chi possa apprezzarli (a parte i fanatici della camera "che è una camera e non gli occhi umani" - del resto l'HDR+Tonemapping inizialmente fu introdotto nel 2004 proprio per simulare la risposta della camera più che degli occhi - aka esposizione)

StylezZz` 14-04-2023 13:38

Usciti i driver beta 101.4311

Quote:

GAMING HIGHLIGHTS:
Intel Game On Driver support on Intel Arc A-series Graphics for:

Boundary
Minecraft Legends
Total War: Warhammer III - Mirror of Madness
Dead Island 2

Game performance improvements versus Intel 31.0.101.4257 software driver for:

Dead Space Remake (DX12)
Up to 55% uplift at 1080p with Ultra settings on Arc A750
Up to 63% uplift at 1440p with High settings on Arc A750
F1 22 (DX12)
Up to 6% uplift at 1440p with High settings on Arc A770
Up to 7% uplift at 1440p with High settings on Arc A750
Up to 17% uplift at 1080p with Ultra High Ray Tracing settings on Arc A750
Dying Light 2 Stay Human (DX12)
Up to 6% uplift at 1080p with High Ray Tracing settings preset on Arc A770
Up to 7% uplift at 1440p with High Ray Tracing settings preset on Arc A770
Dirt 5 (DX12)
Up to 8% uplift at 1080p with Ultra High Ray Tracing settings on Arc A750
Up to 4% uplift at 1440p with Ultra High Ray Tracing settings on Arc A750
Deathloop (DX12)
Up to 4% uplift at 1080p with Very High and Ray Tracing Performance settings on Arc A750
Up to 6% uplift at 1440p with Very High and Ray Tracing Performance settings on Arc A750

Fixed Issues
Intel Arc Graphics Products:

Microsoft Flight Simulator (DX11) may experience application crash during gameplay.
Sea of Thieves (DX11) may exhibit color corruption on water edges.
Bright Memory Infinite Ray Tracing Benchmark (DX12) may experience lower than expected performance.
Blackmagic DaVinci Resolve may exhibit color corruption with Optical Flow.

Known Issues
Intel Arc Graphics Products:

System may hang while waking up from sleep. May need to power cycle the system for recovery.
GPU hardware acceleration may not be available for media playback and encode with some versions of Adobe Premiere Pro.
Topaz Video AI may experience errors when using some models for video enhancement.
Intel Iris Xe MAX Graphics Products:
Driver installation may not complete successfully on certain notebook systems with both Intel Iris Xe + Iris Xe MAX devices. A system reboot and re-installation of the graphics driver may be required for successful installation.

Intel Core Processor Products:

Total War: Warhammer III (DX11) may experience an application crash when loading battle scenarios.
Call of Duty Warzone 2.0 (DX12) may exhibit corruption on certain light sources such as fire.
Conqueror's Blade (DX12) may experience an application crash during game launch.
A Plague Tale: Requiem (DX12) may experience application instability during gameplay.
Battlefield: 2042 (DX12) may exhibit color corruption at the game menu.
Crime boss (DX12) may experience texture flickering when XESS is enabled.
Call of Duty: Modern Warfare 2 may experience color corruption in QuickPlay Lobby

EffeX 14-04-2023 13:46

Quote:

Originariamente inviato da Wolfw00f (Messaggio 48170474)
Bisognerebbe indagare meglio sulla differenza qualitativa, ovvio che ci sia quella in performance.
Cmq il Motion Blur E' un forma di "ghosting controllato" per definizione :p (con la differenza che può essere applicato solo ad alcuni oggetti nella scena e non solo alla camera)

Come la Chromatic Aberration il Motion Blur va benissimo per simulare confusione quando feriti (vedi lavoro fatto magistralmente già nel 2005 con Republic Commando), in tutti gli altri contesti devo ancora capire chi possa apprezzarli (a parte i fanatici della camera "che è una camera e non gli occhi umani" - del resto l'HDR+Tonemapping inizialmente fu introdotto nel 2004 proprio per simulare la risposta della camera più che degli occhi - aka esposizione)

Io di solito lo disattivo, ma giocando coi preset predefiniti di CB2077 facendo le varie prove si era attivato e mi son dimenticato di toglierlo. :rolleyes:
Io il motion blur l'ho apprezzato molto sugli schermi CRT, sugli LCD non mi ha mai fatto impazzire.
Qualcuno se lo ricorda Need for Speed Underground quando si usava il NOS? :sofico:

Maury 14-04-2023 14:41

Quote:

Originariamente inviato da Wolfw00f (Messaggio 48170467)
Certo, ma la differenza dell'HW è in performance, non in precisione :D
Infatti i problemi che vedo io (considerando un titolo perfettamente agnostico su cui sono "buttati" DLSS e XeSS a posteriori come appunto Skyrim) sono nella gestione delle trasparenze soprattutto. I 20-30 FPS mica li considero importanti proprio perchè il DLSS sta girando sul "suo" HW mentre XeSS no.

Che la differenza sia solo in performance non è quello che rilevo dai confronti che faccio usando anche 3070, quando nativo XeSS è migliore dell'emulato DP4a. Poi non voglio convincere nessuno ci mancherebbe, porto l'esperienza avendo Arc, tutto qua :)

Maury 14-04-2023 14:55

Con tempismo perfetto finiti i benck in 4K per CP escono i nuovi driver, pazienza... farò un confronto tra i due :D


Iniziamo con un 4K, con RT FOLLE e XeSS su prestazioni.


CP - 4k - RT FOLLE - XeSS prestazioni




Ora 4K RASTER



CP - 4k - XeSS prestazioni



CP - 4k - XeSS bilanciato



CP - 4k - XeSS qualità



CP - 4k - XeSS ultra quality


EffeX 14-04-2023 14:58

Quote:

Originariamente inviato da Maury (Messaggio 48170609)
Con tempismo perfetto finiti i benck in 4K per CP escono i nuovi driver, pazienza... farò un confronto tra i due :D


Iniziamo con un 4K, con RT FOLLE e XeSS su prestazioni.


CP - 4k - RT FOLLE - XeSS prestazioni




Ora 4K RASTER



CP - 4k - XeSS prestazioni



CP - 4k - XeSS bilanciato



CP - 4k - XeSS qualità



CP - 4k - XeSS ultra quality


Direi che in 4K raster con XeSS è giocabilissimo! :)

Maury 14-04-2023 15:03

Quote:

Originariamente inviato da EffeX (Messaggio 48170615)
Direi che in 4K raster con XeSS è giocabilissimo! :)

Assolutamente :)

In merito ai settaggi, Chromatic Aberration e Motion Blur sono le prime due voci che tolgo. Veramente inutili oltre che deleterie per la qualità d'immagine.

Wolfw00f 14-04-2023 15:08

Quote:

Originariamente inviato da Maury (Messaggio 48170593)
Che la differenza sia solo in performance non è quello che rilevo dai confronti che faccio usando anche 3070, quando nativo XeSS è migliore dell'emulato DP4a. Poi non voglio convincere nessuno ci mancherebbe, porto l'esperienza avendo Arc, tutto qua :)

pare che tu abbia ragione, pardon!

https://www.digitaltrends.com/comput...big-advantage/

Only Intel’s Arc Alchemist graphics cards will have the dedicated XMX cores, and Intel says they provide the best quality and performance. However, GPUs that support DP4a instruction can also run XeSS, just with a slight trade-off between image quality and/or performance. Here are the GPUs that support DP4a for Intel XeSS

Del resto

DP4a & DP2a were, together with a control structure for VRS, the only new features which came with SM6.4.
Intel's requirement is likely just simplifying it, meaning SM6.4 = DP4a support.

"These intrinsics are a required/supported feature of Shader model
6.4. Consequently, no separate capability bit check is required, beyond
assuring the use of Shader Model 6.4."


Quindi di fatto basta una GPU compliant con lo SM 6.4 e automaticamente questo implica la presenza di supporto allo XeSS tramite path DP4a (sicuramente più immediato da controllare rispetto a cercare nell'ISA della GPU)

E' una cosa da indagare quel tradeoff con la qualità di resa finale.....e volendo con i sorgenti non è difficile.
MIKE? :D https://github.com/intel/xess/


Tutti gli orari sono GMT +1. Ora sono le: 17:14.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.