|
|
|
|
Strumenti |
23-06-2021, 11:47 | #61 | |
Senior Member
Iscritto dal: Mar 2002
Messaggi: 1648
|
Quote:
tuttavia come prevedibile da oggi sara' un tripudio di screenshot zoomati, cosa senza senso visto che il fine e' aumentare le prestazioni, che la qualita' si va perdere era scontato nvidia lavora piu' in hw, e lo permette solo con le sue ultime serie, Amd si arrangia come puo' ma almeno permette il plus anche a gpu datate, di fascia bassa e incredibilmente anche con gpu della concorrenza in futuro grazie anche alle console ci sara' un supporto ampio , e poi essendo open non e' da escludere un miglioramento anche per gli algoritmi da guru3D a fine articolo: I'll end this article with an open question towards the graphics card industry, applying to AMD, Intel, and NVIDIA. Why did tinkering with image quality become a norm and is that deemed to be acceptable? semplicemente e' stato scelto il tempo giusto, anni fa ti linciavano se provavi a presentare una tecnica del genere, ma oggi e' diventato un impresa trovare una gpu a prezzi decenti con la magra che c'e' piu' mettiamo che in effetti c'e' stato un cambio culturale, sta fissa per monitor con refresh elevatissimi, le prestazioni oggi sono tutto da Techpowerup: The more performance-oriented modes of FSR are definitely not for those who want the best quality—the loss in rendering resolution becomes very apparent, very quickly, especially in areas with strong colors and high contrast. Still, I'm not sure if we should completely dismiss these modes as "unusable." For example, if you own an older graphic card and a 4K display, the output of "FSR Performance" will look MUCH better than simply rendering at 1080p and letting the monitor or GPU upscale the output to your monitor's native 4K—I tested it. FSR Performance, which renders at 1920x1080, even looks better than 1440p upscaled to 4K. questo e' molto interessante, alcuni pessimisti credevano che questo trucchetto poteva essere implementato pure 10 anni fa, o usare direttamente lo scaler del monitor che era meglio etc, ma a quanto sembra FSR non e' un "banale" scaler |
|
23-06-2021, 11:49 | #62 |
Senior Member
Iscritto dal: Feb 2000
Messaggi: 10535
|
Anche la vendita degli occhiali aumenta con questo FSR
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 13600kf@5.6 Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600@3900 cl 16 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 | PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w| ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI Ultima modifica di Maury : 23-06-2021 alle 12:00. |
23-06-2021, 12:12 | #63 |
Member
Iscritto dal: Sep 2016
Messaggi: 335
|
Ormai leggere di schede video è come guardarsi il Postalmarket sul cesso. Praticamente parliamo di cose che nessuno vedrà mai perchè tanto non esistono.
|
23-06-2021, 12:28 | #64 |
Senior Member
Iscritto dal: Jun 2007
Città: Casnate con Bernate
Messaggi: 1918
|
Come qualcuno ha fatto notare, sia dlss 2 che fsr sono i realtà un ammissione del fatto che ad oggi il 4k è ancora molto tassante per qualunque vga e che se si vogliono frame alti per sfruttare i monitor da settordicimila hz bisogna ricorrere all'upscaling.
Chiunque dotato di intelligenza dovrebbe riconoscere una sconfitta per la propria gpu quando si va ad attivare uno di questi due upscaler. Nella master race vogliamo giocare a risoluzione nativa! Detto ciò Sicuramente il dlss al momento è meglio. Ma questo fsr parte molto bene. Molto meglio della prima versione del dlss. Può solamente migliorare ed intanto amd ha regalato praticamente a tutti un bel boost alle prestazioni se lo si vuole attivare. Vedremo in futuro se entrambe le soluzioni continueranno a darsi battaglia o se una delle due cadrà in disuso.
__________________
PSU: Seasonic M12II-620 Evo MB: MSI X370 Sli Plus CPU: AMD Ryzen 7 5700X SSD: Kingston SA400S37/240GB RAM: 2x 16GB DDR4 3200MHz SCHEDA VIDEO: SAPPHIRE RX 6700 Pulse OC 10GB S.O.: openSUSE Tumbleweed |
23-06-2021, 12:29 | #65 | |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7063
|
Quote:
Tutte le recensioni che ho letto concordano nel dire che l'output è chiaramente migliore di qualsiasi filtro tu possa avere nel monitor, quindi smettila con questa storia che il tuo monitor fa upscaling meglio di FSR. Giudichi una tecnologia che evidentemente non hai mai provato solo per partito preso. Poi dici che è roba già vecchia, senza nemmeno sapere come è implementato (i sorgenti saranno disponibili tra un mesetto mi pare). Fatto sta che ora Nvidia sta spingendo sull'acceleratore con DLSS e questo significa che c'è concorrenza, che è un bene per tutti. |
|
23-06-2021, 12:29 | #66 | ||||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Quote:
MA NON PERFORMACE A DISCAPITO DELLA QUALITA'. Ora invece pare che la modalità console sia diventata lo standard. Colpa ancora una volta dell'avere un singolo fornitore di HW per le console? Quote:
Quello che "i pessimisti" vorrebbero è una misura reale della qualità dell'immagine realizzata attraverso questi algoritmi e quella che si può ottenere tramite lo scaler di un monitor (magari non il 4K TN da 150 euro) e soprattutto attraverso lo scaler di una TV moderna che hanno processori di elaborazione d'immagine da far paura che applicano algoritmi simili a questi per migliorare l'immagine. Giusto per capire se bisognava aspettare un algoritmo SW che degradasse la qualità d'immagine per poter godere di una risoluzione maggiore (roba che se ci pensate bene fa a pugni con se stessa ma sembra essere accolta come il santo Graal). Quote:
E non ce ne facciamo nulla neanche oggi. Come già detto, fino a qualche tempo fa se avessi proposto una cosa del genere saresti stato linciato da tutta la comunità per evidente tentativo di camuffare le scarse capacità della GPU con qualcosa di qualitativamente inferiore (ma con le barre dei grafici più lunghi) imbrogliando spudoratamente. Ecco perché non è mai stato fatto. Lavaggio del cervello (o accettazione di una standard qualitativo inferiore).. e voilà, la cosa migliore mai fatta negli ultimi 10 anni. Tanto che magari non sapevi che si può fare scaling e sharpening già da tempo anche con i drive Nvidia (ancora prima del DLSS) o le suite di algoritmi di post processing di terze parti. Nessuno si è mai preso la briga di farne un articolo e proporli come la soluzione alle scarse prestazioni delle GPU. Invece ora si scopre che c'è gente che "non aspettava altro che un algoritmo di degrado che supportasse tutte le GPU". La "matematica" su cui si basano questi algoritmi è roba non vecchia, di più. Non serve il codice sorgente (che comunque tu non capiresti) per sapere che sono algoritmi di tipo classico basati sull'elaborazione delle informazioni a disposizione per ottenere un set più esteso degli stessi ma mancando comunque dei dettagli che non ci sono nel primo set (estrapolazione). Puoi inventarti tutti gli algoritmi che vuoi di questo tipo, ma non avrai mai più informazione di quella da cui sei partito. Puoi solo giocare con la psico-percezione e fare in modo che l'immagine SEMBRI migliore. E' roba che si usa da 40 anni circa nell'elaborazione dell'immagine. E non ha molto margine di miglioramento. Miglioramento che comunque va di pari passo alla complessità dei calcoli, per cui c'è da tenere conto anche di quanto vuoi perdere in termini di tempo per diminuire il tempo di calcolo (altra roba che fa a pugni con se stessa). La "matematica" e il set di dati su cui si basa l'algoritmo DLSS è altra roba e soprattutto usa HW dedicato per i calcoli che non ruba tempo al rendering (o solo una parte infinitesimale) rispetto all'approccio di AMD. I vantaggi del DLSS anche in termini di potenzialità e miglioramento sono quindi evidenti se si conosce la materia e non si guarda solo il totem di AMD come un venerando fanboy in ginocchio nella speranza che arrivi il miracolo (sto ancora aspettando quello del raytracing senza unità dedicate perché non sapevo di quello di cui parlavo anche allora). Se AMD avesse messo delle unità di elaborazione ML nelle sue GPU ora potremmo parlare di algoritmi concorrenti, invece stiamo parlando dell'ennesimo surrogato di una tecnologia migliore proposta dalla concorrenza giusto per dimostrare che si ha qualcosa di simile. Forse nel 2025 con le future GPU e HW dedicato si potrà dire "ecco, visto che AMD fa lo stesso di Nvidia" esattamente come oggi (8 anni dopo il lancio di G-Sync) bisogna comprare un monitor con Freesync Premium dal costo simile a uno G-Sync per avere le stesse performance, mentre nel frattempo si è usato un bel surrogato. O dopo 3 anni un RT raffazzonato che va peggio della versione precedente della concorrenza. Ma è vero, non aspettavamo alto che un bel algoritmo degradante ben confezionato per allungare la vita alle nostre GPU. Ultima modifica di CrapaDiLegno : 23-06-2021 alle 12:55. |
||||
23-06-2021, 12:46 | #67 |
Senior Member
Iscritto dal: Jan 2006
Città: Pozzolo Formigaro (AL)
Messaggi: 7873
|
Ma che obbliga a spendere 700 euro minimo per poterlo usare, diciamoci tutti i pro e i contro. A meno che tu non sia figlio di Berlusconi, dovresti mettere tra i contro il prezzo che ti costa il DLSS.
__________________
C.M. HAF 922; Win 10 64 bit; Yamakasi Catleap Q270 SE IPS 1440P; Asrock B365 Pro4; Intel i5 9400F; 16GB Kingston 2666; senza vga (non gioco più); Asus Xonar Essence ONE (Burson Audio V6 Vivid); Crucial P2 500 GB; WD Green 2 Tb; Seasonic X-750. |
23-06-2021, 12:51 | #68 | |
Bannato
Iscritto dal: Jun 2021
Messaggi: 29
|
Quote:
Non c'è proprio niente da fare con voi nvidiot fanboy, è una causa persa e continuate ad appestare comunity. |
|
23-06-2021, 12:59 | #69 | |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Quote:
E se mai dovessi essere un fanboy, lo sarei di AMD, non c'è paragone tra la simpatia che provo per loro, per il loro approccio open alla tecnologia, e per l'antipatia che provo per nVidia, ma sono un appassionato di VR per cui sono obbligato a comprare sempre top di gamma. Il mio cuore sarà sempre con AMD, il mio portafoglio sarà sempre con chi mi garantisce la tecnologia più efficace. |
|
23-06-2021, 13:02 | #70 | |
Bannato
Iscritto dal: Jun 2021
Messaggi: 29
|
Quote:
|
|
23-06-2021, 13:02 | #71 | |
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Il FSR non lo sò, ma il DLSS2 è una bomba, una rivoluzione molto più del RT. Consente di avere a video la stessa qualità con frame rate molto più alti, io lo tengo attivo anche in titoli leggeri in modo che il carico della VGA sia più basso possibile. Ovviamente parlo delle modalità più qualitative, quelle sotto nemmeno le considero l'esistenza. |
|
23-06-2021, 13:21 | #72 | |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7063
|
Quote:
E di nuovo con questa storia dell'hardware dedicato... per far funzionare FSR semplicemente non serve ML, fattene una ragione. Magari in futuro introdurranno un'altra versione di FSR basata su ML, ma mi sembra che oggi sia una mossa azzeccata quella di AMD, dato che la stragrande maggioranza di schede video in circolazione non ha hardware ottimizzato per calcoli di quel tipo. EDIT: anche PC Gamer ha fatto una comparazione del genere ed è giunto alla stessa conclusione https://www.pcgamer.com/uk/amd-fidel...ed-benchmarks/ Ultima modifica di k0nt3 : 23-06-2021 alle 13:28. |
|
23-06-2021, 13:27 | #73 | |
Bannato
Iscritto dal: Jun 2021
Messaggi: 29
|
Quote:
|
|
23-06-2021, 13:34 | #74 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Comparabile al DLSS in 4K se lo guardi a 3 metri di distanza su un monitor a 24", altrimenti se non vedi la perdita di dettaglio non si capisce perché giochi in 4K. Poi se voi fanboy AMD vi accontentate sempre dei surrogati spacciati per "roba mai vista prima" va bene così. |
|
23-06-2021, 13:38 | #75 | ||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Quote:
Hai capito la metà di quello che ti ho scritto prima o neanche quello? Lo so bene che non usa ML e so bene che è tecnologia vecchia a cui basta la potenza computazionale delle normali unità shader. Sei tu che non hai capito che i risultati sono diversi così come lo sono le potenzialità. Surrogato per tutti, e tutti siamo contenti. Giusto così. |
||
23-06-2021, 13:45 | #76 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Ancora aspetto schede AMD senza unità dedicate capaci di fare RT meglio di Nvidia. Perché AMD ha shader migliori, più potenti e bla bla bla... lei può. Gli altri devono ricorrere a HW dedicato. Intanto state lodando un sistema che degrada l'immagine per aumentare le prestazioni delle vostre GPU. Roba che fino a ieri avete additato come inconcepibile e ingannatrice. Ora che lo fa AMD, ovviamente lo fa meglio degli altri ed è la cosa migliore che sia mai stata fatta. Come ogni cosa dove AMD arriva con anni di ritardo. Si denigra quello che fa la concorrenza in ogni modo, poi quando lo fa AMD.. huhuuuu... miracoli come se piovesse. |
|
23-06-2021, 13:48 | #77 | |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7063
|
Quote:
Io di DLSS non me ne faccio proprio niente, perchè non spendo migliaia di euro per giocare al PC. Per me, come per la stragrande maggioranza delle persone, semplicemente DLSS non è un'opzione. Scusa se ho di meglio da fare (a proposito di surrogati della realtà ) |
|
23-06-2021, 13:59 | #78 |
Senior Member
Iscritto dal: May 2010
Messaggi: 776
|
pare che ai puristi del powaaa pare non piace l'FSR
Pare che ai puristi l'FSR non piaccia.
È una bella tecnologia, è gratuita ed ha un grande bacino d'utenza potenziale. Già questi tre elementi sono tanta roba. In impostazione ultra quality sembra perdere poca qualità con un +20/25% di fps. A gratis? È oro in un momento in cui le GPU costano a peso d'oro. Il DLSS sembra migliore ma è tre anni che è in giro e gira solo sulle RTX. Quanto costa oggi una RTX? L'FSR ha poi il vantaggio di andare su console. Immaginate se arrivasse su PS4 pro/ XBOX One X (che alla fine montano Polaris come iGP) che vantaggi con i crossgen. Possiamo girarla come ci pare ma FSR è una bella trovata, sono stati bravi in casa AMD. Poi piú avanti non possiamo dire cosa succederà ma ad oggi hanno tirato fuori un bel coniglio dal cilindro. My opinion |
23-06-2021, 14:12 | #79 | |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 3190
|
Quote:
Tu stai giudicando dei test sulla base di screenshot, che ti raccontano una storia parziale, o per volontà o per incapacità di chi ha prodotto i test. |
|
23-06-2021, 14:16 | #80 | ||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Quote:
Il bel coniglio sarebbe usare il VRS in maniera decente che degrada sì l'immagine ma là dove non si nota, ma a quanto pare sembra che le loro ultime GPU non sono tanto brave in questo e quindi hanno tirato fuori questo surrogato per rincorrere la concorrenza. Un bel carro tirato da 6 cavalli per dimostrare di avere la velocità e l'autonomia delle prime automobili. Il problema è che se anche metti 12 cavalli davanti al carro, l'automobile è destinata a migliorare molto di più e questi surrogati stanno lì solo per marketing e nulla più. Così anche loro adesso nelle prova con RT non staranno sotto la riga della 2060+DLSS ma staranno molto più su. Se volevi degradare la qualità dell'immagine per avere più prestazioni potevi farlo anche prima. A risoluzioni inferiori al 4K (*) sembra che non ci sia proprio confronto con il DLSS. (*) Ma perché usare i 4K se poi si degrada la qualità dell'immagine? Solo per dire "io c'ho i QUATTRO CAPPA"? |
||
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 17:42.