Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


Magiczar80 07-06-2021 13:12

domani viene presentato qualcosa da amd?

ninja750 07-06-2021 13:33

Quote:

Originariamente inviato da Magiczar80 (Messaggio 47435025)
domani viene presentato qualcosa da amd?

la big compute aka instinct o come la chiameranno

floop 07-06-2021 13:34

Quote:

Originariamente inviato da Magiczar80 (Messaggio 47435025)
domani viene presentato qualcosa da amd?

le vga pro penso...

Gigibian 07-06-2021 13:38

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435004)
Non si parla certo di inferenza statistica in questo caso. Uno dei campi dell'AI è proprio l'inferenza (determinazione delle conclusioni a partire dai presupposti secondo schemi di deduzione automatizzati basati su machine Learning, i cui passi sono detti appunto inferences).

Il brevetto è citato qui:
https://forums.anandtech.com/threads...n-gsr.2593747/

e come si vede si cita l'utilizzo di inferencing in un ambiente "wholly learned". Non solo, ma si fa già riferimento alle reti neurali nell'abstract (ribadendo che un minimo di utilizzo di reti neurali esiste già nelle tecniche di upscaling tradizionali).

Su utilizzi l'AI (che è un termine generico, bisognerebbe capire cosa si intende nello specifico) fai sicuramente inferenza, ma per fare inferenza non è indispensabile l'AI.

Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così.

Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN.

leoneazzurro 07-06-2021 13:41

Quote:

Originariamente inviato da Gigibian (Messaggio 47435075)
Su utilizzi l'AI (che è un termine generico, bisognerebbe capire cosa si intende nello specifico) fai sicuramente inferenza, ma per fare inferenza non è indispensabile l'AI.

Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così.

Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN.

L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato:


incorreggiubile 07-06-2021 13:50

Quote:

Originariamente inviato da Gigibian (Messaggio 47434929)
Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.

Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.

Esattamente.

incorreggiubile 07-06-2021 13:53

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435084)
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'aritmetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.

leoneazzurro 07-06-2021 13:56

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435109)
Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'artimetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.

RDNA2 ha buone capacità di calcolo INT4-INT8 supportate nelle compute unit. (in realtà un supporto discreto c'era già nelle schede Vega).

Gigibian 07-06-2021 14:17

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435084)
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato:


L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

ray_hunter 07-06-2021 15:32

Quote:

Originariamente inviato da Gigibian (Messaggio 47435163)
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

Sono d'accordo con te ma credo anche che sia l'unico modo con cui può essere efficiente fare inferenza.
Per lo meno per l'argomento su cui stiamo discutendo.

Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR

leoneazzurro 07-06-2021 16:02

Quote:

Originariamente inviato da Gigibian (Messaggio 47435163)
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.

Quote:

Originariamente inviato da ray_hunter (Messaggio 47435322)
Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR

Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

ray_hunter 07-06-2021 16:06

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435373)
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.



Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

https://www.hwupgrade.it/news/skvide...are_96319.html

Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML

leoneazzurro 07-06-2021 16:09

Quote:

Originariamente inviato da ray_hunter (Messaggio 47435377)
https://www.hwupgrade.it/news/skvide...are_96319.html

Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML

Il trafiletto seguente:

" Sembra proprio di no, e non solo perché le GPU Nvidia hanno i Tensor core mentre l'architettura RDNA 2 è sprovvista di unità dedicate ai calcoli IA. Userà DirectML di Microsoft come vociferato in passato? Ancora non è chiaro."

E' pura speculazione dell'autore dell'articolo e Herkelman non ha mai detto nulla del genere. Tralaltro, come detto, RDNA2 è in grado di eseguire i calcoli per l'AI nelle unità shader pur non avendo i tensor core (E ad una velocità molto maggiore che non i calcoli FP32/FP16)

Herkelman ha solo detto poi che non é strettamente necessario ML per l'upscaling, e che stavano valutando diverse strade. Però Il brevetto di cui sopra fa esplicito riferimento al ML.

FroZen 07-06-2021 16:40

'n c'ho capito 'na sega :stordita:



ma quindi noi abbiamo vinto e loro hanno perso? (cit. del migliore)

leoneazzurro 07-06-2021 17:44

Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.

incorreggiubile 07-06-2021 17:52

In 2 settimane lo tiriamo fuori noi l'algoriMMMMo :asd: :asd: :asd:

FroZen 07-06-2021 17:58

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435539)
Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.

e io che pensavo chissà cosa!!!!!


Gigibian 07-06-2021 18:00

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435373)
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.



Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

Fai riferimento ad un brevetto del 2019, dove l'unico reference è relativamente al "wholly learned". Come e quando viene fatto il training non è dato sapere.

Inoltre ultimamente dichiarazioni di AMD dicono che non é l'unico modo farlo con l'AI.

Boh, vedremo. Ma non sarei così sicuro che ci sia molta "AI" in mezzo.

leoneazzurro 07-06-2021 18:25

Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.

Gigibian 07-06-2021 19:55

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435616)
Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.

Dipende tutto da come ed in che modo si deve fare un training.

Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN.

Come dicevo prima:
Quote:

Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.


Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.
Se non utilizza nessuna delle due informazioni, che tu usi una rete neurale o un polinomio di fitting con dei pesi calcolati con un altri tipo di training, è assolutamente identico, non è che le NN sono "magiche".

Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel):

y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...


se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo.

gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico:

y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...

le differenze tra NN ed altri metodo di stima sono due:
- Le informazioni che dai in pasto al training (shit in - shit out)
- Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti".

Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto.
Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco.


Tutti gli orari sono GMT +1. Ora sono le: 12:57.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.