Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


incorreggiubile 07-06-2021 14:50

Quote:

Originariamente inviato da Gigibian (Messaggio 47434929)
Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.

Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.

Esattamente.

incorreggiubile 07-06-2021 14:53

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435084)
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'aritmetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.

leoneazzurro 07-06-2021 14:56

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435109)
Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'artimetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.

RDNA2 ha buone capacità di calcolo INT4-INT8 supportate nelle compute unit. (in realtà un supporto discreto c'era già nelle schede Vega).

Gigibian 07-06-2021 15:17

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435084)
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato:


L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

ray_hunter 07-06-2021 16:32

Quote:

Originariamente inviato da Gigibian (Messaggio 47435163)
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

Sono d'accordo con te ma credo anche che sia l'unico modo con cui può essere efficiente fare inferenza.
Per lo meno per l'argomento su cui stiamo discutendo.

Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR

leoneazzurro 07-06-2021 17:02

Quote:

Originariamente inviato da Gigibian (Messaggio 47435163)
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.

Quote:

Originariamente inviato da ray_hunter (Messaggio 47435322)
Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR

Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

ray_hunter 07-06-2021 17:06

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435373)
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.



Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

https://www.hwupgrade.it/news/skvide...are_96319.html

Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML

leoneazzurro 07-06-2021 17:09

Quote:

Originariamente inviato da ray_hunter (Messaggio 47435377)
https://www.hwupgrade.it/news/skvide...are_96319.html

Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML

Il trafiletto seguente:

" Sembra proprio di no, e non solo perché le GPU Nvidia hanno i Tensor core mentre l'architettura RDNA 2 è sprovvista di unità dedicate ai calcoli IA. Userà DirectML di Microsoft come vociferato in passato? Ancora non è chiaro."

E' pura speculazione dell'autore dell'articolo e Herkelman non ha mai detto nulla del genere. Tralaltro, come detto, RDNA2 è in grado di eseguire i calcoli per l'AI nelle unità shader pur non avendo i tensor core (E ad una velocità molto maggiore che non i calcoli FP32/FP16)

Herkelman ha solo detto poi che non é strettamente necessario ML per l'upscaling, e che stavano valutando diverse strade. Però Il brevetto di cui sopra fa esplicito riferimento al ML.

FroZen 07-06-2021 17:40

'n c'ho capito 'na sega :stordita:



ma quindi noi abbiamo vinto e loro hanno perso? (cit. del migliore)

leoneazzurro 07-06-2021 18:44

Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.

incorreggiubile 07-06-2021 18:52

In 2 settimane lo tiriamo fuori noi l'algoriMMMMo :asd: :asd: :asd:

FroZen 07-06-2021 18:58

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435539)
Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.

e io che pensavo chissà cosa!!!!!


Gigibian 07-06-2021 19:00

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435373)
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.



Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

Fai riferimento ad un brevetto del 2019, dove l'unico reference è relativamente al "wholly learned". Come e quando viene fatto il training non è dato sapere.

Inoltre ultimamente dichiarazioni di AMD dicono che non é l'unico modo farlo con l'AI.

Boh, vedremo. Ma non sarei così sicuro che ci sia molta "AI" in mezzo.

leoneazzurro 07-06-2021 19:25

Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.

Gigibian 07-06-2021 20:55

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435616)
Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.

Dipende tutto da come ed in che modo si deve fare un training.

Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN.

Come dicevo prima:
Quote:

Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.


Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.
Se non utilizza nessuna delle due informazioni, che tu usi una rete neurale o un polinomio di fitting con dei pesi calcolati con un altri tipo di training, è assolutamente identico, non è che le NN sono "magiche".

Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel):

y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...


se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo.

gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico:

y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...

le differenze tra NN ed altri metodo di stima sono due:
- Le informazioni che dai in pasto al training (shit in - shit out)
- Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti".

Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto.
Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco.

incorreggiubile 07-06-2021 21:06

Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.

Gigibian 07-06-2021 21:13

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435739)
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.

Beh, molte reti neurali hanno il problema dell'over-training, stessa roba dell'overfitting.

Per evitarlo una tecnica è, ad esempio, togliere i neuroni a manina dopo il primo training e ripetere di nuovo il training.

Come dici tu la rete neurale non fa altro che "TUNARSI" cioè stimare i pesi, fine.
E' sempre più semplice fare il training di una NN, rispetto a definire i criteri di convergenza di stimatori non lineari. Ma non è detto sia sempre più performante ;)

leoneazzurro 07-06-2021 21:44

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435739)
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.

E difatti il brevetto prevede persino due reti, una lineare ed una non. Per il problema delle prestazioni, bisogna vedere se effettivamente sono un problema o meno, e come vengono ottimizzate le reti.

Gyammy85 08-06-2021 09:47

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435789)
E difatti il brevetto prevede persino due reti, una lineare ed una non. Per il problema delle prestazioni, bisogna vedere se effettivamente sono un problema o meno, e come vengono ottimizzate le reti.

Si ma queste spiegazioni sono inutili, rivolte a chi di vga amd non sa assolutamente nulla, hanno la scheda che "impara, inferisce e distrugge", prima avevano la vga che "riflessava, computava e asfaltava", prima ancora quella che "geometrava, tessellava e piallava", non sono qui per arricchire la discussione ma per essere sicuri di essersi davvero convinti di aver fatto l'acquisto giusto

Gigibian 08-06-2021 11:09

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47436167)
Si ma queste spiegazioni sono inutili, rivolte a chi di vga amd non sa assolutamente nulla, hanno la scheda che "impara, inferisce e distrugge", prima avevano la vga che "riflessava, computava e asfaltava", prima ancora quella che "geometrava, tessellava e piallava", non sono qui per arricchire la discussione ma per essere sicuri di essersi davvero convinti di aver fatto l'acquisto giusto

Vabbè che non serviva conferma, ma quanto è assurdo sto thread :D
Quando uno parla di bot ed acquisti schede video giustamente vi lamentate perchè non si parla di qualcosa di tecnico o interessante.

Quando invece uno prova a dare una "smossa" al thread co qualche spunto tecnico come questo:

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435739)
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.


Quote:

Originariamente inviato da Gigibian (Messaggio 47435724)
Dipende tutto da come ed in che modo si deve fare un training.

Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN.

Come dicevo prima:


Se non utilizza nessuna delle due informazioni, che tu usi una rete neurale o un polinomio di fitting con dei pesi calcolati con un altri tipo di training, è assolutamente identico, non è che le NN sono "magiche".

Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel):

y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...


se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo.

gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico:

y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...

le differenze tra NN ed altri metodo di stima sono due:
- Le informazioni che dai in pasto al training (shit in - shit out)
- Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti".

Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto.
Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco.

Vi lamentate che "queste spiegazioni sono inutili". :asd:

Mamma mia ragazzi. Sconforto.


Invece sono utilissime per chi vuole capire :)


Tutti gli orari sono GMT +1. Ora sono le: 01:45.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2022, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.