Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Zenfone 11 Ultra ha tantissime qualità interessanti, fra cui potenza da vendere, un display di primissimo livello, un comparto audio potente e prestazioni di connettività fra le migliori della categoria. Manca però dell'esclusività del predecessore, che in un settore composto da "padelloni" si distingueva per le sue dimensioni compatte. Abbiamo provato il nuovo flagship ASUS, e in questa recensione vi raccontiamo com'è andata.
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Abbiamo partecipato ad Appian World 2024, evento dedicato a partner e clienti che si è svolto recentemente nei pressi di Washington DC, vicino alla sede storica dell’azienda. Nel festeggiare il 25mo anniversario, Appian ha annunciato diverse novità in ambito intelligenza artificiale
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Primo contatto con il monitor Lenovo ThinkVision 3D 27 che grazie a particolari accorgimenti tecnici riesce a ricreare l'illusione della spazialità tridimensionale senza che sia necessario utilizzare occhialini
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 23-06-2021, 11:47   #61
ionet
Senior Member
 
Iscritto dal: Mar 2002
Messaggi: 1648
Quote:
Originariamente inviato da ghiltanas Guarda i messaggi
l'articolo in se fa veramente pena, quando va detto va detto. E' l'unico che ho visto con una cosi scarca comparazione. Su diverse altre testate e filmati youtube infatti si evince bene come non sia male come prima incarnazione.

https://www.youtube.com/watch?v=yFZAo6xItOI
l'errore di fondo e' che si continua a paragonarlo al DLSS, cosa assolutamente inutile, sono due tecnologie diverse e quella di Nvidia e' nettamente superiore visivamente, ma condividono il fine
tuttavia come prevedibile da oggi sara' un tripudio di screenshot zoomati, cosa senza senso visto che il fine e' aumentare le prestazioni, che la qualita' si va perdere era scontato
nvidia lavora piu' in hw, e lo permette solo con le sue ultime serie, Amd si arrangia come puo' ma almeno permette il plus anche a gpu datate, di fascia bassa e incredibilmente anche con gpu della concorrenza
in futuro grazie anche alle console ci sara' un supporto ampio , e poi essendo open non e' da escludere un miglioramento anche per gli algoritmi

da guru3D a fine articolo:
I'll end this article with an open question towards the graphics card industry, applying to AMD, Intel, and NVIDIA. Why did tinkering with image quality become a norm and is that deemed to be acceptable?

semplicemente e' stato scelto il tempo giusto, anni fa ti linciavano se provavi a presentare una tecnica del genere, ma oggi e' diventato un impresa trovare una gpu a prezzi decenti con la magra che c'e'
piu' mettiamo che in effetti c'e' stato un cambio culturale, sta fissa per monitor con refresh elevatissimi, le prestazioni oggi sono tutto

da Techpowerup:
The more performance-oriented modes of FSR are definitely not for those who want the best quality—the loss in rendering resolution becomes very apparent, very quickly, especially in areas with strong colors and high contrast. Still, I'm not sure if we should completely dismiss these modes as "unusable." For example, if you own an older graphic card and a 4K display, the output of "FSR Performance" will look MUCH better than simply rendering at 1080p and letting the monitor or GPU upscale the output to your monitor's native 4K—I tested it. FSR Performance, which renders at 1920x1080, even looks better than 1440p upscaled to 4K.

questo e' molto interessante, alcuni pessimisti credevano che questo trucchetto poteva essere implementato pure 10 anni fa, o usare direttamente lo scaler del monitor che era meglio etc, ma a quanto sembra FSR non e' un "banale" scaler
ionet è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 11:49   #62
Maury
Senior Member
 
L'Avatar di Maury
 
Iscritto dal: Feb 2000
Messaggi: 10535
Quote:
Originariamente inviato da egounix Guarda i messaggi
e lasciatelo sfogare!!!

è la prima volta che amd può uscirsene con un prodotto non-beta apparente e poi sono fps aggratisse!!!

immaginate una igp + resizable + fsr o una gtx 1030 + resizable + fsr... minchia zio le vendite di nvidia si impennano!
Anche la vendita degli occhiali aumenta con questo FSR
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 13600kf@5.6 Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600@3900 cl 16 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 |

PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w|

ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI

Ultima modifica di Maury : 23-06-2021 alle 12:00.
Maury è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 12:12   #63
The_Hypersonic
Member
 
L'Avatar di The_Hypersonic
 
Iscritto dal: Sep 2016
Messaggi: 335
Ormai leggere di schede video è come guardarsi il Postalmarket sul cesso. Praticamente parliamo di cose che nessuno vedrà mai perchè tanto non esistono.
The_Hypersonic è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 12:28   #64
matsnake86
Senior Member
 
L'Avatar di matsnake86
 
Iscritto dal: Jun 2007
Città: Casnate con Bernate
Messaggi: 1918
Come qualcuno ha fatto notare, sia dlss 2 che fsr sono i realtà un ammissione del fatto che ad oggi il 4k è ancora molto tassante per qualunque vga e che se si vogliono frame alti per sfruttare i monitor da settordicimila hz bisogna ricorrere all'upscaling.

Chiunque dotato di intelligenza dovrebbe riconoscere una sconfitta per la propria gpu quando si va ad attivare uno di questi due upscaler.
Nella master race vogliamo giocare a risoluzione nativa!

Detto ciò Sicuramente il dlss al momento è meglio.
Ma questo fsr parte molto bene. Molto meglio della prima versione del dlss.
Può solamente migliorare ed intanto amd ha regalato praticamente a tutti un bel boost alle prestazioni se lo si vuole attivare.

Vedremo in futuro se entrambe le soluzioni continueranno a darsi battaglia o se una delle due cadrà in disuso.
__________________
PSU: Seasonic M12II-620 Evo MB: MSI X370 Sli Plus CPU: AMD Ryzen 7 5700X SSD: Kingston SA400S37/240GB RAM: 2x 16GB DDR4 3200MHz SCHEDA VIDEO: SAPPHIRE RX 6700 Pulse OC 10GB S.O.: openSUSE Tumbleweed
matsnake86 è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 12:29   #65
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7063
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
1. L'articolo è alquanto lacunoso. 2 immagini in croce di comparazione e niente di più. Dove è finito Corsini?

2. CVD. Un bel filtrone fatto a monte dell'UI che non porta nulla di nuovo che non si poteva fare prima.

Mi divertono quelli che aspettavano questa soluzione per allungare la vita alle loro GPU.
1. Gli effetti di semplice scaling e sharpening esistono da anni, anche già inseriti nei driver sia di AMD che di Nvidia.
2. A una certa distanza, come consigliato da AMD, pure lo scaling del mio monitor a costo zero mi permette di godere di una finta risoluzione 4K. Quello della TV ancora meglio, visto che ha uno scaler molto pià evoluto e la guardo da una distanza ancora "più consigliata" per non vedere le sfocature.

Fino a qualche anno fa parlare di diminuzione della qualità per aumentare le prestazioni era una bestemmia senza se e senza ma.
Ricordo quando Nvidia prima e AMD dopo avevano cambiato il LOD di alcune texture lontane (pre cursori del VRS?) per aumentare le prestazioni di schede evidentemente in affanno e come si dibatteva sulla cosa, di come non si potesse tollerare una cosa del genere e si andava di ingrandimenti del 200% per vedere i pixel sfuocati e criticare pesantemente queste pratiche "da truffatori".

Poi sono arrivte le console e via di critiche si critiche ai botoli che non arrivavano neanche al FullHD prima e ai reali 4K ora senza trucchi, barbatrucchi e scaler vari (addirittura alcune anche in HW).

Ora ci presentano la stessa cosa su tutta l'immagine (UI esclusa) e... huhuu, che miracolo, non aspettavo altro per allungare la vita alla mia GPU, che cosa meravigliosa degna di garantire il supporto alla casa che lo ha pensato per il resto della vita e amenità del genere.

Quando si parla di marketing, direi che questa trovata della diminuzione della qualità vs prestazioni facendola passare come la panacea di tutti i problemi di schede inadeguate al periodo la dice lunga su come si può rivoltare il cervello delle persone.

E pensare che io è da molto tempo che ho allungato la vita della mia GPU in maniera impressionante ben prima di questa presa in giro usando lo scaler del monitor senza dover attendere né driver né titoli scritti appositamemte.
"Alla giusta distanza" non vedo alcun artefatto o annebbiamento.
Devo essere davvero avanti a molti di voi che cadono in queste becere proposte di NON tecnologia ma marketing puro.

Sarebbe davvero interessante avere una analisi analogica dell'immagine sullo schermo dopo queste tecniche e gli scaler HW delle TV moderne.
Secondo me molti di voi si porrebbero più domande che trovare futili risposte.
Roba da non credere che qualcuno non aspettasse altro che una diminuzione della qualità per avere una immagine impastata su uno schermo 4K...
CVD cosa? Tante cose si potevano già fare anni fà, ma ce ne facciamo poco del "si può fare" se nessuno lo fa. Vedi anche SAM.
Tutte le recensioni che ho letto concordano nel dire che l'output è chiaramente migliore di qualsiasi filtro tu possa avere nel monitor, quindi smettila con questa storia che il tuo monitor fa upscaling meglio di FSR.
Giudichi una tecnologia che evidentemente non hai mai provato solo per partito preso.
Poi dici che è roba già vecchia, senza nemmeno sapere come è implementato (i sorgenti saranno disponibili tra un mesetto mi pare).
Fatto sta che ora Nvidia sta spingendo sull'acceleratore con DLSS e questo significa che c'è concorrenza, che è un bene per tutti.
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 12:29   #66
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da ionet Guarda i messaggi
l'errore di fondo e' che si continua a paragonarlo al DLSS, cosa assolutamente inutile, sono due tecnologie diverse e quella di Nvidia e' nettamente superiore visivamente, ma condividono il fine
tuttavia come prevedibile da oggi sara' un tripudio di screenshot zoomati, cosa senza senso visto che il fine e' aumentare le prestazioni, che la qualita' si va perdere era scontato
nvidia lavora piu' in hw, e lo permette solo con le sue ultime serie, Amd si arrangia come puo' ma almeno permette il plus anche a gpu datate, di fascia bassa e incredibilmente anche con gpu della concorrenza
in futuro grazie anche alle console ci sara' un supporto ampio , e poi essendo open non e' da escludere un miglioramento anche per gli algoritmi
Usando tecnologia vecchia ovvio che è supportata un maggiore numero di schede rispetto ad algoritmi che usano molte pià informazioni e quindi richiedono molta più computazione e quindi unità HW dedicate.

Quote:
Originariamente inviato da ionet Guarda i messaggi
da guru3D a fine articolo:
I'll end this article with an open question towards the graphics card industry, applying to AMD, Intel, and NVIDIA. Why did tinkering with image quality become a norm and is that deemed to be acceptable?

semplicemente e' stato scelto il tempo giusto, anni fa ti linciavano se provavi a presentare una tecnica del genere, ma oggi e' diventato un impresa trovare una gpu a prezzi decenti con la magra che c'e'
piu' mettiamo che in effetti c'e' stato un cambio culturale, sta fissa per monitor con refresh elevatissimi, le prestazioni oggi sono tutto
Semplicemente è stato fatto unlavaggio del cervello alle persoe, perché anche 10 anni fa le schede erano care per alcuni e un incremento di performance non sarebbe stato più che accettato.
MA NON PERFORMACE A DISCAPITO DELLA QUALITA'.
Ora invece pare che la modalità console sia diventata lo standard.
Colpa ancora una volta dell'avere un singolo fornitore di HW per le console?

Quote:
Originariamente inviato da ionet Guarda i messaggi
da Techpowerup:
The more performance-oriented modes of FSR are definitely not for those who want the best quality—the loss in rendering resolution becomes very apparent, very quickly, especially in areas with strong colors and high contrast. Still, I'm not sure if we should completely dismiss these modes as "unusable." For example, if you own an older graphic card and a 4K display, the output of "FSR Performance" will look MUCH better than simply rendering at 1080p and letting the monitor or GPU upscale the output to your monitor's native 4K—I tested it. FSR Performance, which renders at 1920x1080, even looks better than 1440p upscaled to 4K.

questo e' molto interessante, alcuni pessimisti credevano che questo trucchetto poteva essere implementato pure 10 anni fa, o usare direttamente lo scaler del monitor che era meglio etc, ma a quanto sembra FSR non e' un "banale" scaler
Certo che non è un "banale scaler" altrimenti sarebbe stata una presa in giro al 1000%. Algoritmi di post processing per dare un'apparente miglioramento alle immagini anche in difetto di dettaglio esistono da decenni.
Quello che "i pessimisti" vorrebbero è una misura reale della qualità dell'immagine realizzata attraverso questi algoritmi e quella che si può ottenere tramite lo scaler di un monitor (magari non il 4K TN da 150 euro) e soprattutto attraverso lo scaler di una TV moderna che hanno processori di elaborazione d'immagine da far paura che applicano algoritmi simili a questi per migliorare l'immagine.

Giusto per capire se bisognava aspettare un algoritmo SW che degradasse la qualità d'immagine per poter godere di una risoluzione maggiore (roba che se ci pensate bene fa a pugni con se stessa ma sembra essere accolta come il santo Graal).

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
CVD cosa? Tante cose si potevano già fare anni fà, ma ce ne facciamo poco del "si può fare" se nessuno lo fa. Vedi anche SAM.
Tutte le recensioni che ho letto concordano nel dire che l'output è chiaramente migliore di qualsiasi filtro tu possa avere nel monitor, quindi smettila con questa storia che il tuo monitor fa upscaling meglio di FSR.
Giudichi una tecnologia che evidentemente non hai mai provato solo per partito preso.
Poi dici che è roba già vecchia, senza nemmeno sapere come è implementato (i sorgenti saranno disponibili tra un mesetto mi pare).
Fatto sta che ora Nvidia sta spingendo sull'acceleratore con DLSS e questo significa che c'è concorrenza, che è un bene per tutti.
"Chiaramente migliore" dove lo hai letto? Link, please, magari anche con dei numeri.
E non ce ne facciamo nulla neanche oggi. Come già detto, fino a qualche tempo fa se avessi proposto una cosa del genere saresti stato linciato da tutta la comunità per evidente tentativo di camuffare le scarse capacità della GPU con qualcosa di qualitativamente inferiore (ma con le barre dei grafici più lunghi) imbrogliando spudoratamente. Ecco perché non è mai stato fatto.
Lavaggio del cervello (o accettazione di una standard qualitativo inferiore).. e voilà, la cosa migliore mai fatta negli ultimi 10 anni.
Tanto che magari non sapevi che si può fare scaling e sharpening già da tempo anche con i drive Nvidia (ancora prima del DLSS) o le suite di algoritmi di post processing di terze parti.
Nessuno si è mai preso la briga di farne un articolo e proporli come la soluzione alle scarse prestazioni delle GPU.
Invece ora si scopre che c'è gente che "non aspettava altro che un algoritmo di degrado che supportasse tutte le GPU".

La "matematica" su cui si basano questi algoritmi è roba non vecchia, di più. Non serve il codice sorgente (che comunque tu non capiresti) per sapere che sono algoritmi di tipo classico basati sull'elaborazione delle informazioni a disposizione per ottenere un set più esteso degli stessi ma mancando comunque dei dettagli che non ci sono nel primo set (estrapolazione). Puoi inventarti tutti gli algoritmi che vuoi di questo tipo, ma non avrai mai più informazione di quella da cui sei partito. Puoi solo giocare con la psico-percezione e fare in modo che l'immagine SEMBRI migliore.
E' roba che si usa da 40 anni circa nell'elaborazione dell'immagine. E non ha molto margine di miglioramento. Miglioramento che comunque va di pari passo alla complessità dei calcoli, per cui c'è da tenere conto anche di quanto vuoi perdere in termini di tempo per diminuire il tempo di calcolo (altra roba che fa a pugni con se stessa).

La "matematica" e il set di dati su cui si basa l'algoritmo DLSS è altra roba e soprattutto usa HW dedicato per i calcoli che non ruba tempo al rendering (o solo una parte infinitesimale) rispetto all'approccio di AMD.
I vantaggi del DLSS anche in termini di potenzialità e miglioramento sono quindi evidenti se si conosce la materia e non si guarda solo il totem di AMD come un venerando fanboy in ginocchio nella speranza che arrivi il miracolo (sto ancora aspettando quello del raytracing senza unità dedicate perché non sapevo di quello di cui parlavo anche allora).
Se AMD avesse messo delle unità di elaborazione ML nelle sue GPU ora potremmo parlare di algoritmi concorrenti, invece stiamo parlando dell'ennesimo surrogato di una tecnologia migliore proposta dalla concorrenza giusto per dimostrare che si ha qualcosa di simile.
Forse nel 2025 con le future GPU e HW dedicato si potrà dire "ecco, visto che AMD fa lo stesso di Nvidia" esattamente come oggi (8 anni dopo il lancio di G-Sync) bisogna comprare un monitor con Freesync Premium dal costo simile a uno G-Sync per avere le stesse performance, mentre nel frattempo si è usato un bel surrogato.
O dopo 3 anni un RT raffazzonato che va peggio della versione precedente della concorrenza.

Ma è vero, non aspettavamo alto che un bel algoritmo degradante ben confezionato per allungare la vita alle nostre GPU.

Ultima modifica di CrapaDiLegno : 23-06-2021 alle 12:55.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 12:46   #67
dado1979
Senior Member
 
L'Avatar di dado1979
 
Iscritto dal: Jan 2006
Città: Pozzolo Formigaro (AL)
Messaggi: 7873
Quote:
Originariamente inviato da mmorselli Guarda i messaggi
Esatto, quindi non si può paragonare direttamente a DLSS che è anche un antialiasing temporale. Il migliore che esista, per altro, anni luce dal classico TAA
Ma che obbliga a spendere 700 euro minimo per poterlo usare, diciamoci tutti i pro e i contro. A meno che tu non sia figlio di Berlusconi, dovresti mettere tra i contro il prezzo che ti costa il DLSS.
__________________
C.M. HAF 922; Win 10 64 bit; Yamakasi Catleap Q270 SE IPS 1440P; Asrock B365 Pro4; Intel i5 9400F; 16GB Kingston 2666; senza vga (non gioco più); Asus Xonar Essence ONE (Burson Audio V6 Vivid); Crucial P2 500 GB; WD Green 2 Tb; Seasonic X-750.
dado1979 è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 12:51   #68
Afixenc
Bannato
 
Iscritto dal: Jun 2021
Messaggi: 29
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
1. L'articolo è alquanto lacunoso. 2 immagini in croce di comparazione e niente di più. Dove è finito Corsini?

2. CVD. Un bel filtrone fatto a monte dell'UI che non porta nulla di nuovo che non si poteva fare prima.

Mi divertono quelli che aspettavano questa soluzione per allungare la vita alle loro GPU.
1. Gli effetti di semplice scaling e sharpening esistono da anni, anche già inseriti nei driver sia di AMD che di Nvidia.
2. A una certa distanza, come consigliato da AMD, pure lo scaling del mio monitor a costo zero mi permette di godere di una finta risoluzione 4K. Quello della TV ancora meglio, visto che ha uno scaler molto pià evoluto e la guardo da una distanza ancora "più consigliata" per non vedere le sfocature.

Fino a qualche anno fa parlare di diminuzione della qualità per aumentare le prestazioni era una bestemmia senza se e senza ma.
Ricordo quando Nvidia prima e AMD dopo avevano cambiato il LOD di alcune texture lontane (pre cursori del VRS?) per aumentare le prestazioni di schede evidentemente in affanno e come si dibatteva sulla cosa, di come non si potesse tollerare una cosa del genere e si andava di ingrandimenti del 200% per vedere i pixel sfuocati e criticare pesantemente queste pratiche "da truffatori".

Poi sono arrivte le console e via di critiche si critiche ai botoli che non arrivavano neanche al FullHD prima e ai reali 4K ora senza trucchi, barbatrucchi e scaler vari (addirittura alcune anche in HW).

Ora ci presentano la stessa cosa su tutta l'immagine (UI esclusa) e... huhuu, che miracolo, non aspettavo altro per allungare la vita alla mia GPU, che cosa meravigliosa degna di garantire il supporto alla casa che lo ha pensato per il resto della vita e amenità del genere.

Quando si parla di marketing, direi che questa trovata della diminuzione della qualità vs prestazioni facendola passare come la panacea di tutti i problemi di schede inadeguate al periodo la dice lunga su come si può rivoltare il cervello delle persone.

E pensare che io è da molto tempo che ho allungato la vita della mia GPU in maniera impressionante ben prima di questa presa in giro usando lo scaler del monitor senza dover attendere né driver né titoli scritti appositamemte.
"Alla giusta distanza" non vedo alcun artefatto o annebbiamento.
Devo essere davvero avanti a molti di voi che cadono in queste becere proposte di NON tecnologia ma marketing puro.

Sarebbe davvero interessante avere una analisi analogica dell'immagine sullo schermo dopo queste tecniche e gli scaler HW delle TV moderne.
Secondo me molti di voi si porrebbero più domande che trovare futili risposte.
Roba da non credere che qualcuno non aspettasse altro che una diminuzione della qualità per avere una immagine impastata su uno schermo 4K...
Certo che sei proprio una palla al piede. L'altra volta facevi il figo incollando pezzi da wikipedia di cose di cui non hai capito nulla per dire che l FSR sicuramente avrebbe avuto risultati osceni. Ora hai i risultati e vedi che l'FSR funziona perfettamente ed è tranquillamente comparabile col DLSS in 4k ultra quality ed inizi a sparare queste altre minchiate.

Non c'è proprio niente da fare con voi nvidiot fanboy, è una causa persa e continuate ad appestare comunity.
Afixenc è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 12:59   #69
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da Afixenc Guarda i messaggi
Ora hai i risultati e vedi che l'FSR funziona perfettamente ed è tranquillamente comparabile col DLSS in 4k ultra quality ed inizi a sparare queste altre minchiate.
Non è minimamente comparabile, l'ho già scritto, il DLSS è un temporal, questo no.

E se mai dovessi essere un fanboy, lo sarei di AMD, non c'è paragone tra la simpatia che provo per loro, per il loro approccio open alla tecnologia, e per l'antipatia che provo per nVidia, ma sono un appassionato di VR per cui sono obbligato a comprare sempre top di gamma. Il mio cuore sarà sempre con AMD, il mio portafoglio sarà sempre con chi mi garantisce la tecnologia più efficace.
mmorselli è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:02   #70
Afixenc
Bannato
 
Iscritto dal: Jun 2021
Messaggi: 29
Quote:
Originariamente inviato da mmorselli Guarda i messaggi
Non è minimamente comparabile, l'ho già scritto, il DLSS è un temporal, questo no.

E se mai dovessi essere un fanboy, lo sarei di AMD, non c'è paragone tra la simpatia che provo per loro, per il loro approccio open alla tecnologia, e per l'antipatia che provo per nVidia, ma sono un appassionato di VR per cui sono obbligato a comprare sempre top di gamma. Il mio cuore sarà sempre con AMD, il mio portafoglio sarà sempre con chi mi garantisce la tecnologia più efficace.
Il risultato è comparabile punto e basta, ci sono test che lo dimostrano, fine non c'è da discutere. Che le tecnologie siano diverse e non comparabili è un altro discorso. Per il resto se vedi il quote non era a te, ma all'altro utente.
Afixenc è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:02   #71
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da matsnake86 Guarda i messaggi
Come qualcuno ha fatto notare, sia dlss 2 che fsr sono i realtà un ammissione del fatto che ad oggi il 4k è ancora molto tassante per qualunque vga e che se si vogliono frame alti per sfruttare i monitor da settordicimila hz bisogna ricorrere all'upscaling.

Chiunque dotato di intelligenza dovrebbe riconoscere una sconfitta per la propria gpu quando si va ad attivare uno di questi due upscaler.
Nella master race vogliamo giocare a risoluzione nativa!
Si lo pensavo anche io fino a quando non l'ho provato.
Il FSR non lo sò, ma il DLSS2 è una bomba, una rivoluzione molto più del RT.
Consente di avere a video la stessa qualità con frame rate molto più alti, io lo tengo attivo anche in titoli leggeri in modo che il carico della VGA sia più basso possibile.

Ovviamente parlo delle modalità più qualitative, quelle sotto nemmeno le considero l'esistenza.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:21   #72
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7063
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
"Chiaramente migliore" dove lo hai letto? Link, please, magari anche con dei numeri.
E non ce ne facciamo nulla neanche oggi. Come già detto, fino a qualche tempo fa se avessi proposto una cosa del genere saresti stato linciato da tutta la comunità per evidente tentativo di camuffare le scarse capacità della GPU con qualcosa di qualitativamente inferiore (ma con le barre dei grafici più lunghi) imbrogliando spudoratamente. Ecco perché non è mai stato fatto.
Lavaggio del cervello (o accettazione di una standard qualitativo inferiore).. e voilà, la cosa migliore mai fatta negli ultimi 10 anni.
Tanto che magari non sapevi che si può fare scaling e sharpening già da tempo anche con i drive Nvidia (ancora prima del DLSS) o le suite di algoritmi di post processing di terze parti.
Nessuno si è mai preso la briga di farne un articolo e proporli come la soluzione alle scarse prestazioni delle GPU.
Invece ora si scopre che c'è gente che "non aspettava altro che un algoritmo di degrado che supportasse tutte le GPU".

La "matematica" su cui si basano questi algoritmi è roba non vecchia, di più. Non serve il codice sorgente (che comunque tu non capiresti) per sapere che sono algoritmi di tipo classico basati sull'elaborazione delle informazioni a disposizione per ottenere un set più esteso degli stessi ma mancando comunque dei dettagli che non ci sono nel primo set (estrapolazione). Puoi inventarti tutti gli algoritmi che vuoi di questo tipo, ma non avrai mai più informazione di quella da cui sei partito. Puoi solo giocare con la psico-percezione e fare in modo che l'immagine SEMBRI migliore.
E' roba che si usa da 40 anni circa nell'elaborazione dell'immagine. E non ha molto margine di miglioramento. Miglioramento che comunque va di pari passo alla complessità dei calcoli, per cui c'è da tenere conto anche di quanto vuoi perdere in termini di tempo per diminuire il tempo di calcolo (altra roba che fa a pugni con se stessa).

La "matematica" e il set di dati su cui si basa l'algoritmo DLSS è altra roba e soprattutto usa HW dedicato per i calcoli che non ruba tempo al rendering (o solo una parte infinitesimale) rispetto all'approccio di AMD.
I vantaggi del DLSS anche in termini di potenzialità e miglioramento sono quindi evidenti se si conosce la materia e non si guarda solo il totem di AMD come un venerando fanboy in ginocchio nella speranza che arrivi il miracolo (sto ancora aspettando quello del raytracing senza unità dedicate perché non sapevo di quello di cui parlavo anche allora).
Se AMD avesse messo delle unità di elaborazione ML nelle sue GPU ora potremmo parlare di algoritmi concorrenti, invece stiamo parlando dell'ennesimo surrogato di una tecnologia migliore proposta dalla concorrenza giusto per dimostrare che si ha qualcosa di simile.
Forse nel 2025 con le future GPU e HW dedicato si potrà dire "ecco, visto che AMD fa lo stesso di Nvidia" esattamente come oggi (8 anni dopo il lancio di G-Sync) bisogna comprare un monitor con Freesync Premium dal costo simile a uno G-Sync per avere le stesse performance, mentre nel frattempo si è usato un bel surrogato.
O dopo 3 anni un RT raffazzonato che va peggio della versione precedente della concorrenza.

Ma è vero, non aspettavamo alto che un bel algoritmo degradante ben confezionato per allungare la vita alle nostre GPU.
Nella recensione di Hardware Unboxed hanno fatto una comparazione con altre tecniche di upscaling: https://www.youtube.com/watch?v=yFZAo6xItOI&t=1277s
E di nuovo con questa storia dell'hardware dedicato... per far funzionare FSR semplicemente non serve ML, fattene una ragione. Magari in futuro introdurranno un'altra versione di FSR basata su ML, ma mi sembra che oggi sia una mossa azzeccata quella di AMD, dato che la stragrande maggioranza di schede video in circolazione non ha hardware ottimizzato per calcoli di quel tipo.

EDIT: anche PC Gamer ha fatto una comparazione del genere ed è giunto alla stessa conclusione https://www.pcgamer.com/uk/amd-fidel...ed-benchmarks/

Ultima modifica di k0nt3 : 23-06-2021 alle 13:28.
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:27   #73
Afixenc
Bannato
 
Iscritto dal: Jun 2021
Messaggi: 29
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Nella recensione di Hardware Unboxed hanno fatto una comparazione con altre tecniche di upscaling: https://www.youtube.com/watch?v=yFZAo6xItOI&t=1277s
E di nuovo con questa storia dell'hardware dedicato... per far funzionare FSR semplicemente non serve ML, fattene una ragione. Magari in futuro introdurranno un'altra versione di FSR basata su ML, ma mi sembra che oggi sia una mossa azzeccata quella di AMD, dato che la stragrande maggioranza di schede video in circolazione non ha hardware ottimizzato per calcoli di quel tipo.
Guarda ignoralo. A questo punto o è un troll o nvidia gli da a campare a fine mese, non vedo alternative.
Afixenc è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:34   #74
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da Afixenc Guarda i messaggi
Certo che sei proprio una palla al piede. L'altra volta facevi il figo incollando pezzi da wikipedia di cose di cui non hai capito nulla per dire che l FSR sicuramente avrebbe avuto risultati osceni. Ora hai i risultati e vedi che l'FSR funziona perfettamente ed è tranquillamente comparabile col DLSS in 4k ultra quality ed inizi a sparare queste altre minchiate.

Non c'è proprio niente da fare con voi nvidiot fanboy, è una causa persa e continuate ad appestare comunity.
Io non ho mai linkato roba da wikipedia su questo argomento che possa ricordare.
Comparabile al DLSS in 4K se lo guardi a 3 metri di distanza su un monitor a 24", altrimenti se non vedi la perdita di dettaglio non si capisce perché giochi in 4K.

Poi se voi fanboy AMD vi accontentate sempre dei surrogati spacciati per "roba mai vista prima" va bene così.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:38   #75
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Nella recensione di Hardware Unboxed hanno fatto una comparazione con altre tecniche di upscaling: https://www.youtube.com/watch?v=yFZAo6xItOI&t=1277s
Guarderò il video appena posso, grazie.
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
E di nuovo con questa storia dell'hardware dedicato... per far funzionare FSR semplicemente non serve ML, fattene una ragione.
Ma una ragione di cosa dovei farmene?
Hai capito la metà di quello che ti ho scritto prima o neanche quello?
Lo so bene che non usa ML e so bene che è tecnologia vecchia a cui basta la potenza computazionale delle normali unità shader.
Sei tu che non hai capito che i risultati sono diversi così come lo sono le potenzialità.
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Magari in futuro introdurranno un'altra versione di FSR basata su ML, ma mi sembra che oggi sia una mossa azzeccata quella di AMD, dato che la stragrande maggioranza di schede video in circolazione non ha hardware ottimizzato per calcoli di quel tipo.
Surrogato per tutti, e tutti siamo contenti. Giusto così.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:45   #76
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da Afixenc Guarda i messaggi
Guarda ignoralo. A questo punto o è un troll o nvidia gli da a campare a fine mese, non vedo alternative.
Qua di ignoranti e troll ho sempre e solo visto fanboy AMD che arrivano a frotte dicono le loro sciocchezze poi scompaiono appena vedono che le cose non stanno come credevano.
Ancora aspetto schede AMD senza unità dedicate capaci di fare RT meglio di Nvidia. Perché AMD ha shader migliori, più potenti e bla bla bla... lei può.
Gli altri devono ricorrere a HW dedicato.

Intanto state lodando un sistema che degrada l'immagine per aumentare le prestazioni delle vostre GPU. Roba che fino a ieri avete additato come inconcepibile e ingannatrice.

Ora che lo fa AMD, ovviamente lo fa meglio degli altri ed è la cosa migliore che sia mai stata fatta. Come ogni cosa dove AMD arriva con anni di ritardo. Si denigra quello che fa la concorrenza in ogni modo, poi quando lo fa AMD.. huhuuuu... miracoli come se piovesse.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:48   #77
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7063
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma una ragione di cosa dovei farmene?
Hai capito la metà di quello che ti ho scritto prima o neanche quello?
Lo so bene che non usa ML e so bene che è tecnologia vecchia a cui basta la potenza computazionale delle normali unità shader.
Sei tu che non hai capito che i risultati sono diversi così come lo sono le potenzialità.

Surrogato per tutti, e tutti siamo contenti. Giusto così.
Non ho mai detto che FSR dia risultati migliori di DLSS 2.0, mi sono sempre aspettato una qualità migliore di DLSS 1.0 (ok ci vuole poco) e inferiore a DLSS 2.0. A giudicare dalle recensioni il risultato è anche meglio di quello che mi aspettavo, ossia più vicino a DLSS 2.0 di quanto pensassi.
Io di DLSS non me ne faccio proprio niente, perchè non spendo migliaia di euro per giocare al PC. Per me, come per la stragrande maggioranza delle persone, semplicemente DLSS non è un'opzione.
Scusa se ho di meglio da fare (a proposito di surrogati della realtà )
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 13:59   #78
ilariovs
Senior Member
 
Iscritto dal: May 2010
Messaggi: 776
pare che ai puristi del powaaa pare non piace l'FSR

Pare che ai puristi l'FSR non piaccia.

È una bella tecnologia, è gratuita ed ha un grande bacino d'utenza potenziale.

Già questi tre elementi sono tanta roba.

In impostazione ultra quality sembra perdere poca qualità con un +20/25% di fps.
A gratis? È oro in un momento in cui le GPU costano a peso d'oro.

Il DLSS sembra migliore ma è tre anni che è in giro e gira solo sulle RTX.
Quanto costa oggi una RTX?

L'FSR ha poi il vantaggio di andare su console. Immaginate se arrivasse su PS4 pro/ XBOX One X (che alla fine montano Polaris come iGP) che vantaggi con i crossgen.

Possiamo girarla come ci pare ma FSR è una bella trovata, sono stati bravi in casa AMD.

Poi piú avanti non possiamo dire cosa succederà ma ad oggi hanno tirato fuori un bel coniglio dal cilindro.

My opinion
ilariovs è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 14:12   #79
mmorselli
Senior Member
 
L'Avatar di mmorselli
 
Iscritto dal: Jun 2007
Messaggi: 3190
Quote:
Originariamente inviato da Afixenc Guarda i messaggi
Il risultato è comparabile punto e basta, ci sono test che lo dimostrano, fine non c'è da discutere. Che le tecnologie siano diverse e non comparabili è un altro discorso. Per il resto se vedi il quote non era a te, ma all'altro utente.
Se non capisci la differenza tra un algoritmo temporale e uno no, di cosa parliamo? Cambia proprio il modo in cui l'oggetto viene visualizzato, non è solo questione di dettagli, anzi, teoricamente l'algoritmo non temporale ne perde meno, purché ne abbia la stesa quantità all'origine. Ma con la scena in movimento cambia tutto.

Tu stai giudicando dei test sulla base di screenshot, che ti raccontano una storia parziale, o per volontà o per incapacità di chi ha prodotto i test.
mmorselli è offline   Rispondi citando il messaggio o parte di esso
Old 23-06-2021, 14:16   #80
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da ilariovs Guarda i messaggi
L'FSR ha poi il vantaggio di andare su console. Immaginate se arrivasse su PS4 pro/ XBOX One X (che alla fine montano Polaris come iGP) che vantaggi con i crossgen.
Le console sono circa 15 anni che fanno scaling dell'immagine con tecniche simili già inserite nei motori dei giochi e non cambia un bel niente per loro.

Quote:
Originariamente inviato da ilariovs Guarda i messaggi
Possiamo girarla come ci pare ma FSR è una bella trovata, sono stati bravi in casa AMD.

Poi piú avanti non possiamo dire cosa succederà ma ad oggi hanno tirato fuori un bel coniglio dal cilindro.
Secondo me non è un bel coniglio per niente perché non cambia nulla rispetto a prima.
Il bel coniglio sarebbe usare il VRS in maniera decente che degrada sì l'immagine ma là dove non si nota, ma a quanto pare sembra che le loro ultime GPU non sono tanto brave in questo e quindi hanno tirato fuori questo surrogato per rincorrere la concorrenza.
Un bel carro tirato da 6 cavalli per dimostrare di avere la velocità e l'autonomia delle prime automobili.
Il problema è che se anche metti 12 cavalli davanti al carro, l'automobile è destinata a migliorare molto di più e questi surrogati stanno lì solo per marketing e nulla più.
Così anche loro adesso nelle prova con RT non staranno sotto la riga della 2060+DLSS ma staranno molto più su.

Se volevi degradare la qualità dell'immagine per avere più prestazioni potevi farlo anche prima.

A risoluzioni inferiori al 4K (*) sembra che non ci sia proprio confronto con il DLSS.
(*) Ma perché usare i 4K se poi si degrada la qualità dell'immagine? Solo per dire "io c'ho i QUATTRO CAPPA"?
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone' Recensione Zenfone 11 Ultra: il flagship ASUS ri...
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA Appian: non solo low code. La missione è ...
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini Lenovo ThinkVision 3D 27, la steroscopia senza o...
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Dacia Duster, prima guida: con le versio...
Google Pixel 8 Pro 256 GB a 928€ (minimo...
Arriva l'ok da Parlamento europeo sul di...
RISC-V: l'uso dell'ISA open-source da pa...
Amazon scatenata: iPad a 399€, airfryer ...
SK hynix, costruzione della Fab M15X ai ...
Oggi 459€ per utenti Prime il portatile ...
Sta per succedere! La prima gara a guida...
Parthenope: un nuovo RPG investigativo t...
Urbanista Malibu: ecco come va la cassa ...
Gas Station Simulator è costato 1...
AOC Graphic Pro U3, tre nuovi monitor pe...
Wacom Movink: per la prima volta il disp...
HPE Aruba presenta i nuovi access point ...
Lamborghini presenta Urus SE, prima vers...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 17:42.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v
1