Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


incorreggiubile 07-06-2021 10:33

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434679)
Ma almeno sto banalissimo upscaler è dos 5 compatibile come il resizable bar?



Che poi voglio dire, anche la risoluzione nativa è un banale "mettere più pixel così si vede meglio", e grazie bravi tutti così, non c'è niente di intelligente :tapiro:

Tanto per la cronaca, il Virtual Super Resolution serve ad andare oltre la risoluzione nativa del monitor stile super sampling, mentre il VARIABLE RATE SHADING è la feature delle dx12 ultimate per avere un rate diverso in punti della scena, tecnica applicata anche in dirt 5, che applicata di recente al radeon boost pemette di non peggiorare l'immagine entrando in azione in maniera molto soft e garantendo comunque un discreto aumento di perf, ti ho postato anche un video

Appunto.
Ho solo fatto notare che i 4A hanno chiamato 1) con 2) in Metro Exodus *NON* EE :asd:
Nell' EE è tutto corretto, c'è VRS ed è appunto quella che entrambi conosciamo come tale da specifica DX12.

L'intelligenza sta nel crearli i pixel in più, in modo che siano appropriati al contesto.

Gyammy85 07-06-2021 10:40

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434693)
Appunto.
Ho solo fatto notare che i 4Engine hanno chiamato 1) con 2) in Metro Exodus *NON* EE :asd:
Nell' EE è tutto corretto, c'è VRS ed è appunto quella che entrambi conosciamo come tale da specifica DX12.

L'intelligenza sta nel crearli i pixel in più, in modo che siano appropriati al contesto.

Quindi?

ninja750 07-06-2021 10:45

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434674)
Sì ma le "unità dedicate" per l'AI servono in computer graphics innanzitutto per il denoising nel raytracing, ergo non vedo perchè AMD non debba implementarle sulle prossime GPU.

amd ha già unità dedicate al RT in navi2 :mbe:

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434676)
Diciamo che sarebbe auspicabile che l'Ultra Quality diventi il riferimento base quando non si vuole usare l'AI con a disposizione i motion vector della scena

vero ma se la concorrenza dà una scelta all'utente finale, e questa scelta permette una modalità bilanciata più performante, hai di fatto in mano una soluzione peggiore o se vogliamo scriverla in maniera diversa, meno scalabile

sarebbe interessante capire quelli che usano DLSS con quale impostazione sono soliti giocare, se con quality o bilanciato o performance

incorreggiubile 07-06-2021 10:54

Quote:

Originariamente inviato da ninja750 (Messaggio 47434724)
amd ha già unità dedicate al RT in navi2 :mbe:

Sì ma per il *denoising* POST-RAYTRACING (nel path tracing ad esempio) serve l'AI, non è che sarà magari per quello che in raytracing crolla?
Il denoising senza appoggio a reti neurali è una cosa assurda computazionalmente parlando: praticamente è lui il macigno, mica il raytracing (beam tracing) in sè.

incorreggiubile 07-06-2021 11:00

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434710)
Quindi?

Stai ciurlando nel manico? :confused:
Quindi cosa?

Ho solo fatto notare l'errore in Metro NON EE a riguardo di "variable shading" che si trova nel menù e NON è il VRS ma appunto downsampling.

Il DLSS 2.0 di intelligente ha che i pixel li inferisce.

Gigibian 07-06-2021 11:08

Quote:

Originariamente inviato da ninja750 (Messaggio 47434591)
diciamo che estrapolare dei PNG da un video compresso non è il massimo per capire come potrà funzionare questo algoritmo, ma credo che nessuno si aspetti alla presentazione di avere un immediato DLSS2.0 né lato qualitativo né tantomeno lato titoli supportati che sarà la cosa primaria per AMD da raggiungere

per me sarà una vittoria arrivare open source a quello che fu il DLSS1.0 per poi essere sviluppato via con gli anni e che non richieda unità dedicate, che come fatto vedere potrà funzionare sia su APU che su schede vecchie nvidia che adesso sono tagliate fuori

aspettate di metterci le mani sopra poi shitstormate a piacere :p

Ma la compressione vale sia a destra che a sinistra :D E poi dai su, si vede che non c'entra niente la compressione video nel confronto.

Nessuno shitstorm, ho una 6900XT qui imballata che aspetta il 22 giugno per essere aperta o rivenduta :)
Dispiace vedere la semplicità dell'implementazione AMD, tutto qui.
Evidenziavo solo che anche in ultra quality, il blur regna sovrano e la qualità è molto lontana, purtroppo, dal concorrente diretto.

ray_hunter 07-06-2021 11:12

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47434745)
Sì ma per il *denoising* POST-RAYTRACING (nel path tracing ad esempio) serve l'AI, non è che sarà magari per quello che in raytracing crolla?
Il denoising senza appoggio a reti neurali è una cosa assurda computazionalmente parlando: praticamente è lui il macigno, mica il raytracing (beam tracing) in sè.

AMD pubblicizza il denoising in hw ma non parla di AI.
Mentre Nvidia pubblicizza che il denoising è fatto in modo intelligente andando a ridurre il carico mantenendo la massima qualità.

ray_hunter 07-06-2021 11:13

Quote:

Originariamente inviato da Gigibian (Messaggio 47434777)
Ma la compressione vale sia a destra che a sinistra :D E poi dai su, si vede che non c'entra niente la compressione video nel confronto.

Nessuno shitstorm, ho una 6900XT qui imballata che aspetta il 22 giugno per essere aperta o rivenduta :)
Dispiace vedere la semplicità dell'implementazione AMD, tutto qui.
Evidenziavo solo che anche in ultra quality, il blur regna sovrano e la qualità è molto lontana, purtroppo, dal concorrente diretto.

Che poi, se vogliamo dirla tutta, se si vede già differenza di blur nel video compresso, a rigor di logica, sarà ancora più evidente nelle immagini RAW!

ray_hunter 07-06-2021 11:16

Quote:

Originariamente inviato da ninja750 (Messaggio 47434724)
amd ha già unità dedicate al RT in navi2 :mbe:



vero ma se la concorrenza dà una scelta all'utente finale, e questa scelta permette una modalità bilanciata più performante, hai di fatto in mano una soluzione peggiore o se vogliamo scriverla in maniera diversa, meno scalabile

sarebbe interessante capire quelli che usano DLSS con quale impostazione sono soliti giocare, se con quality o bilanciato o performance

Dipende da gioco, risoluzione del monitor e GPU che si possiede. Se hai una 2070 con monitor 1440P in CP2077 facile che si usi il performance. Chi ha una 3080 con stesso monitor andrà di qualità nel 99% dei casi...
Va detto che negli ultimi giochi anche il bilanciato e a volte il performance rendono moooolto vicino alla nativa. In Metro Exodus EE dicevano appunto che il Performance rende molto vicino al nativo.
In altri l'unica che rende bene è quality e già a balanced si vede il blur...

Gyammy85 07-06-2021 11:19

Quote:

Originariamente inviato da ray_hunter (Messaggio 47434786)
AMD pubblicizza il denoising in hw ma non parla di AI.
Mentre Nvidia pubblicizza che il denoising è fatto in modo intelligente andando a ridurre il carico mantenendo la massima qualità.

Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!

carloUba 07-06-2021 11:46

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434810)
Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!

Non ci vuole per forza l'AI ma ci vuole per rendere tutto fruibile.
Sono cose che io facevo su Amiga ma con 1 frame al quarto d'ora

Gigibian 07-06-2021 12:17

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47434810)
Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!

Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.

Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.

leoneazzurro 07-06-2021 12:48

Il brevetto a cui fa riferimento l'FSR parla di inference, quindi utilizzerà calcoli di AI. Quello che non fa (per il momento) è utilizzare i motion vectors, come dichiarato da AMD e comunque anche nel brevetto non vi si fa riferimento. Detto ciò, non è detto che revisioni successive non li implementino, o che FSR non possa essere accoppiato ad altri metodi di ricostruzione dell'immagine.

Gigibian 07-06-2021 12:57

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47434978)
Il brevetto a cui fa riferimento l'FSR parla di inference, quindi utilizzerà calcoli di AI. Quello che non fa (per il momento) è utilizzare i motion vectors, come dichiarato da AMD e comunque anche nel brevetto non vi si fa riferimento. Detto ciò, non è detto che revisioni successive non li implementino, o che FSR non possa essere accoppiato ad altri metodi di ricostruzione dell'immagine.

inference ed AI non sono strettamente correlati.

leoneazzurro 07-06-2021 13:00

Quote:

Originariamente inviato da Gigibian (Messaggio 47434997)
inference ed AI non sono strettamente correlati.

Non si parla certo di inferenza statistica in questo caso. Uno dei campi dell'AI è proprio l'inferenza (determinazione delle conclusioni a partire dai presupposti secondo schemi di deduzione automatizzati basati su machine Learning, i cui passi sono detti appunto inferences).

Il brevetto è citato qui:
https://forums.anandtech.com/threads...n-gsr.2593747/

e come si vede si cita l'utilizzo di inferencing in un ambiente "wholly learned". Non solo, ma si fa già riferimento alle reti neurali nell'abstract (ribadendo che un minimo di utilizzo di reti neurali esiste già nelle tecniche di upscaling tradizionali).

Magiczar80 07-06-2021 13:12

domani viene presentato qualcosa da amd?

ninja750 07-06-2021 13:33

Quote:

Originariamente inviato da Magiczar80 (Messaggio 47435025)
domani viene presentato qualcosa da amd?

la big compute aka instinct o come la chiameranno

floop 07-06-2021 13:34

Quote:

Originariamente inviato da Magiczar80 (Messaggio 47435025)
domani viene presentato qualcosa da amd?

le vga pro penso...

Gigibian 07-06-2021 13:38

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435004)
Non si parla certo di inferenza statistica in questo caso. Uno dei campi dell'AI è proprio l'inferenza (determinazione delle conclusioni a partire dai presupposti secondo schemi di deduzione automatizzati basati su machine Learning, i cui passi sono detti appunto inferences).

Il brevetto è citato qui:
https://forums.anandtech.com/threads...n-gsr.2593747/

e come si vede si cita l'utilizzo di inferencing in un ambiente "wholly learned". Non solo, ma si fa già riferimento alle reti neurali nell'abstract (ribadendo che un minimo di utilizzo di reti neurali esiste già nelle tecniche di upscaling tradizionali).

Su utilizzi l'AI (che è un termine generico, bisognerebbe capire cosa si intende nello specifico) fai sicuramente inferenza, ma per fare inferenza non è indispensabile l'AI.

Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così.

Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN.

leoneazzurro 07-06-2021 13:41

Quote:

Originariamente inviato da Gigibian (Messaggio 47435075)
Su utilizzi l'AI (che è un termine generico, bisognerebbe capire cosa si intende nello specifico) fai sicuramente inferenza, ma per fare inferenza non è indispensabile l'AI.

Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così.

Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN.

L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato:


incorreggiubile 07-06-2021 13:50

Quote:

Originariamente inviato da Gigibian (Messaggio 47434929)
Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.

Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.

Esattamente.

incorreggiubile 07-06-2021 13:53

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435084)
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'aritmetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.

leoneazzurro 07-06-2021 13:56

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435109)
Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'artimetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.

RDNA2 ha buone capacità di calcolo INT4-INT8 supportate nelle compute unit. (in realtà un supporto discreto c'era già nelle schede Vega).

Gigibian 07-06-2021 14:17

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435084)
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.

Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato:


L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

ray_hunter 07-06-2021 15:32

Quote:

Originariamente inviato da Gigibian (Messaggio 47435163)
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

Sono d'accordo con te ma credo anche che sia l'unico modo con cui può essere efficiente fare inferenza.
Per lo meno per l'argomento su cui stiamo discutendo.

Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR

leoneazzurro 07-06-2021 16:02

Quote:

Originariamente inviato da Gigibian (Messaggio 47435163)
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.

Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.

Quote:

Originariamente inviato da ray_hunter (Messaggio 47435322)
Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR

Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

ray_hunter 07-06-2021 16:06

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435373)
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.



Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

https://www.hwupgrade.it/news/skvide...are_96319.html

Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML

leoneazzurro 07-06-2021 16:09

Quote:

Originariamente inviato da ray_hunter (Messaggio 47435377)
https://www.hwupgrade.it/news/skvide...are_96319.html

Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML

Il trafiletto seguente:

" Sembra proprio di no, e non solo perché le GPU Nvidia hanno i Tensor core mentre l'architettura RDNA 2 è sprovvista di unità dedicate ai calcoli IA. Userà DirectML di Microsoft come vociferato in passato? Ancora non è chiaro."

E' pura speculazione dell'autore dell'articolo e Herkelman non ha mai detto nulla del genere. Tralaltro, come detto, RDNA2 è in grado di eseguire i calcoli per l'AI nelle unità shader pur non avendo i tensor core (E ad una velocità molto maggiore che non i calcoli FP32/FP16)

Herkelman ha solo detto poi che non é strettamente necessario ML per l'upscaling, e che stavano valutando diverse strade. Però Il brevetto di cui sopra fa esplicito riferimento al ML.

FroZen 07-06-2021 16:40

'n c'ho capito 'na sega :stordita:



ma quindi noi abbiamo vinto e loro hanno perso? (cit. del migliore)

leoneazzurro 07-06-2021 17:44

Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.

incorreggiubile 07-06-2021 17:52

In 2 settimane lo tiriamo fuori noi l'algoriMMMMo :asd: :asd: :asd:

FroZen 07-06-2021 17:58

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435539)
Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.

e io che pensavo chissà cosa!!!!!


Gigibian 07-06-2021 18:00

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435373)
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.



Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.

Fai riferimento ad un brevetto del 2019, dove l'unico reference è relativamente al "wholly learned". Come e quando viene fatto il training non è dato sapere.

Inoltre ultimamente dichiarazioni di AMD dicono che non é l'unico modo farlo con l'AI.

Boh, vedremo. Ma non sarei così sicuro che ci sia molta "AI" in mezzo.

leoneazzurro 07-06-2021 18:25

Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.

Gigibian 07-06-2021 19:55

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435616)
Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.

Dipende tutto da come ed in che modo si deve fare un training.

Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN.

Come dicevo prima:
Quote:

Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.


Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...

Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.

Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.
Se non utilizza nessuna delle due informazioni, che tu usi una rete neurale o un polinomio di fitting con dei pesi calcolati con un altri tipo di training, è assolutamente identico, non è che le NN sono "magiche".

Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel):

y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...


se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo.

gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico:

y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...

le differenze tra NN ed altri metodo di stima sono due:
- Le informazioni che dai in pasto al training (shit in - shit out)
- Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti".

Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto.
Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco.

incorreggiubile 07-06-2021 20:06

Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.

Gigibian 07-06-2021 20:13

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435739)
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.

Beh, molte reti neurali hanno il problema dell'over-training, stessa roba dell'overfitting.

Per evitarlo una tecnica è, ad esempio, togliere i neuroni a manina dopo il primo training e ripetere di nuovo il training.

Come dici tu la rete neurale non fa altro che "TUNARSI" cioè stimare i pesi, fine.
E' sempre più semplice fare il training di una NN, rispetto a definire i criteri di convergenza di stimatori non lineari. Ma non è detto sia sempre più performante ;)

leoneazzurro 07-06-2021 20:44

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435739)
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.

E difatti il brevetto prevede persino due reti, una lineare ed una non. Per il problema delle prestazioni, bisogna vedere se effettivamente sono un problema o meno, e come vengono ottimizzate le reti.

Gyammy85 08-06-2021 08:47

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47435789)
E difatti il brevetto prevede persino due reti, una lineare ed una non. Per il problema delle prestazioni, bisogna vedere se effettivamente sono un problema o meno, e come vengono ottimizzate le reti.

Si ma queste spiegazioni sono inutili, rivolte a chi di vga amd non sa assolutamente nulla, hanno la scheda che "impara, inferisce e distrugge", prima avevano la vga che "riflessava, computava e asfaltava", prima ancora quella che "geometrava, tessellava e piallava", non sono qui per arricchire la discussione ma per essere sicuri di essersi davvero convinti di aver fatto l'acquisto giusto

Gigibian 08-06-2021 10:09

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47436167)
Si ma queste spiegazioni sono inutili, rivolte a chi di vga amd non sa assolutamente nulla, hanno la scheda che "impara, inferisce e distrugge", prima avevano la vga che "riflessava, computava e asfaltava", prima ancora quella che "geometrava, tessellava e piallava", non sono qui per arricchire la discussione ma per essere sicuri di essersi davvero convinti di aver fatto l'acquisto giusto

Vabbè che non serviva conferma, ma quanto è assurdo sto thread :D
Quando uno parla di bot ed acquisti schede video giustamente vi lamentate perchè non si parla di qualcosa di tecnico o interessante.

Quando invece uno prova a dare una "smossa" al thread co qualche spunto tecnico come questo:

Quote:

Originariamente inviato da incorreggiubile (Messaggio 47435739)
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)

E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.


Quote:

Originariamente inviato da Gigibian (Messaggio 47435724)
Dipende tutto da come ed in che modo si deve fare un training.

Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN.

Come dicevo prima:


Se non utilizza nessuna delle due informazioni, che tu usi una rete neurale o un polinomio di fitting con dei pesi calcolati con un altri tipo di training, è assolutamente identico, non è che le NN sono "magiche".

Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel):

y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...


se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo.

gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico:

y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...

le differenze tra NN ed altri metodo di stima sono due:
- Le informazioni che dai in pasto al training (shit in - shit out)
- Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti".

Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto.
Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco.

Vi lamentate che "queste spiegazioni sono inutili". :asd:

Mamma mia ragazzi. Sconforto.


Invece sono utilissime per chi vuole capire :)


Tutti gli orari sono GMT +1. Ora sono le: 11:07.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2022, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.