![]() |
Quote:
Ho solo fatto notare che i 4A hanno chiamato 1) con 2) in Metro Exodus *NON* EE :asd: Nell' EE è tutto corretto, c'è VRS ed è appunto quella che entrambi conosciamo come tale da specifica DX12. L'intelligenza sta nel crearli i pixel in più, in modo che siano appropriati al contesto. |
Quote:
|
Quote:
Quote:
sarebbe interessante capire quelli che usano DLSS con quale impostazione sono soliti giocare, se con quality o bilanciato o performance |
Quote:
Il denoising senza appoggio a reti neurali è una cosa assurda computazionalmente parlando: praticamente è lui il macigno, mica il raytracing (beam tracing) in sè. |
Quote:
Quindi cosa? Ho solo fatto notare l'errore in Metro NON EE a riguardo di "variable shading" che si trova nel menù e NON è il VRS ma appunto downsampling. Il DLSS 2.0 di intelligente ha che i pixel li inferisce. |
Quote:
Nessuno shitstorm, ho una 6900XT qui imballata che aspetta il 22 giugno per essere aperta o rivenduta :) Dispiace vedere la semplicità dell'implementazione AMD, tutto qui. Evidenziavo solo che anche in ultra quality, il blur regna sovrano e la qualità è molto lontana, purtroppo, dal concorrente diretto. |
Quote:
Mentre Nvidia pubblicizza che il denoising è fatto in modo intelligente andando a ridurre il carico mantenendo la massima qualità. |
Quote:
|
Quote:
Va detto che negli ultimi giochi anche il bilanciato e a volte il performance rendono moooolto vicino alla nativa. In Metro Exodus EE dicevano appunto che il Performance rende molto vicino al nativo. In altri l'unica che rende bene è quality e già a balanced si vede il blur... |
Quote:
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione! |
Quote:
Sono cose che io facevo su Amiga ma con 1 frame al quarto d'ora |
Quote:
Motion vector. Che AMD non usa. Frame buffers: che AMD non usa. Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc... Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS). Ed AMD non usa neanche queste oggi. Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte. |
Il brevetto a cui fa riferimento l'FSR parla di inference, quindi utilizzerà calcoli di AI. Quello che non fa (per il momento) è utilizzare i motion vectors, come dichiarato da AMD e comunque anche nel brevetto non vi si fa riferimento. Detto ciò, non è detto che revisioni successive non li implementino, o che FSR non possa essere accoppiato ad altri metodi di ricostruzione dell'immagine.
|
Quote:
|
Quote:
Il brevetto è citato qui: https://forums.anandtech.com/threads...n-gsr.2593747/ e come si vede si cita l'utilizzo di inferencing in un ambiente "wholly learned". Non solo, ma si fa già riferimento alle reti neurali nell'abstract (ribadendo che un minimo di utilizzo di reti neurali esiste già nelle tecniche di upscaling tradizionali). |
domani viene presentato qualcosa da amd?
|
Quote:
|
Quote:
|
Quote:
Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così. Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN. |
Quote:
Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato: |
Quote:
|
Quote:
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'aritmetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training. In B4 al training ci pensano le GPU che verranno presentate a breve. |
Quote:
|
Quote:
Non è necessaria l'AI per fare inferenza. |
Quote:
Per lo meno per l'argomento su cui stiamo discutendo. Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML. Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR |
Quote:
Quote:
|
Quote:
Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML |
Quote:
" Sembra proprio di no, e non solo perché le GPU Nvidia hanno i Tensor core mentre l'architettura RDNA 2 è sprovvista di unità dedicate ai calcoli IA. Userà DirectML di Microsoft come vociferato in passato? Ancora non è chiaro." E' pura speculazione dell'autore dell'articolo e Herkelman non ha mai detto nulla del genere. Tralaltro, come detto, RDNA2 è in grado di eseguire i calcoli per l'AI nelle unità shader pur non avendo i tensor core (E ad una velocità molto maggiore che non i calcoli FP32/FP16) Herkelman ha solo detto poi che non é strettamente necessario ML per l'upscaling, e che stavano valutando diverse strade. Però Il brevetto di cui sopra fa esplicito riferimento al ML. |
'n c'ho capito 'na sega :stordita:
![]() ma quindi noi abbiamo vinto e loro hanno perso? (cit. del migliore) |
Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.
|
In 2 settimane lo tiriamo fuori noi l'algoriMMMMo :asd: :asd: :asd:
|
Quote:
|
Quote:
Inoltre ultimamente dichiarazioni di AMD dicono che non é l'unico modo farlo con l'AI. Boh, vedremo. Ma non sarei così sicuro che ci sia molta "AI" in mezzo. |
Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi. |
Quote:
Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN. Come dicevo prima: Quote:
Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel): y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc... se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo. gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico: y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc... le differenze tra NN ed altri metodo di stima sono due: - Le informazioni che dai in pasto al training (shit in - shit out) - Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti". Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto. Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco. |
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)
E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training. |
Quote:
Per evitarlo una tecnica è, ad esempio, togliere i neuroni a manina dopo il primo training e ripetere di nuovo il training. Come dici tu la rete neurale non fa altro che "TUNARSI" cioè stimare i pesi, fine. E' sempre più semplice fare il training di una NN, rispetto a definire i criteri di convergenza di stimatori non lineari. Ma non è detto sia sempre più performante ;) |
Quote:
|
Quote:
|
Quote:
Quando uno parla di bot ed acquisti schede video giustamente vi lamentate perchè non si parla di qualcosa di tecnico o interessante. Quando invece uno prova a dare una "smossa" al thread co qualche spunto tecnico come questo: Quote:
Quote:
Mamma mia ragazzi. Sconforto. Invece sono utilissime per chi vuole capire :) |
Tutti gli orari sono GMT +1. Ora sono le: 11:07. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2022, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.