domani viene presentato qualcosa da amd?
|
Quote:
|
Quote:
|
Quote:
Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così. Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN. |
Quote:
Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato: |
Quote:
|
Quote:
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'aritmetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training. In B4 al training ci pensano le GPU che verranno presentate a breve. |
Quote:
|
Quote:
Non è necessaria l'AI per fare inferenza. |
Quote:
Per lo meno per l'argomento su cui stiamo discutendo. Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML. Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR |
Quote:
Quote:
|
Quote:
Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML |
Quote:
" Sembra proprio di no, e non solo perché le GPU Nvidia hanno i Tensor core mentre l'architettura RDNA 2 è sprovvista di unità dedicate ai calcoli IA. Userà DirectML di Microsoft come vociferato in passato? Ancora non è chiaro." E' pura speculazione dell'autore dell'articolo e Herkelman non ha mai detto nulla del genere. Tralaltro, come detto, RDNA2 è in grado di eseguire i calcoli per l'AI nelle unità shader pur non avendo i tensor core (E ad una velocità molto maggiore che non i calcoli FP32/FP16) Herkelman ha solo detto poi che non é strettamente necessario ML per l'upscaling, e che stavano valutando diverse strade. Però Il brevetto di cui sopra fa esplicito riferimento al ML. |
'n c'ho capito 'na sega :stordita:
ma quindi noi abbiamo vinto e loro hanno perso? (cit. del migliore) |
Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.
|
In 2 settimane lo tiriamo fuori noi l'algoriMMMMo :asd: :asd: :asd:
|
Quote:
|
Quote:
Inoltre ultimamente dichiarazioni di AMD dicono che non é l'unico modo farlo con l'AI. Boh, vedremo. Ma non sarei così sicuro che ci sia molta "AI" in mezzo. |
Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi. |
Quote:
Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN. Come dicevo prima: Quote:
Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel): y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc... se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo. gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico: y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc... le differenze tra NN ed altri metodo di stima sono due: - Le informazioni che dai in pasto al training (shit in - shit out) - Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti". Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto. Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco. |
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)
E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training. |
Quote:
Per evitarlo una tecnica è, ad esempio, togliere i neuroni a manina dopo il primo training e ripetere di nuovo il training. Come dici tu la rete neurale non fa altro che "TUNARSI" cioè stimare i pesi, fine. E' sempre più semplice fare il training di una NN, rispetto a definire i criteri di convergenza di stimatori non lineari. Ma non è detto sia sempre più performante ;) |
Quote:
|
Quote:
|
Quote:
Quando uno parla di bot ed acquisti schede video giustamente vi lamentate perchè non si parla di qualcosa di tecnico o interessante. Quando invece uno prova a dare una "smossa" al thread co qualche spunto tecnico come questo: Quote:
Quote:
Mamma mia ragazzi. Sconforto. Invece sono utilissime per chi vuole capire :) |
Quote:
Per quanto mi riguarda, non mi dispiacerebbe affatto avere un boost a parità di qualità dell'immagine o quasi, se poi non è """""""intelligente"""""""" ma sfrutta solo le inutili cu cicciose noiose con inference fatto con direct ml che puzza pazienza |
Quote:
Considerando che ora le VGA le paghi 600 :sofico: E come ho mostrato con gli screenshot di Crysis 3 non delude manco a 2560x1440.....(vabbè che la tengo con la memoria overclockata di 500 MHz). Avendo supporto in fullscreen all'integer scaling (diversamente dalla coeva Pascal) e ora FSR non posso che essere cmq soddisfatto di AMD. |
600€ è ormai un acconto per una vga nuova :O
ben vengano i vostri discorsi ci mancherebbe, io sono il rompicoglioni delle ultime settimane che non ne poteva più di vedere paginate di isterismi per mancati acquisti, nanio in miniera, bot e compagnia cantante anche (e soprattutto) quando la discussione è molto al di sopra delle mie conoscenze tenniche :stordita: io sono rimasto alle dx7 :O |
c'è qualcosa di GRATIS da scaricare giusto per verificare che funzioni il RT? non c'era un benchmark apposito?
|
Quote:
|
Quote:
|
Comunque la scheda professionale W6600 è interessante: singolo slot, 100W e boost a 2900MHz (!). Con 28/32 CU la RX6600XT potrebbe avere tranquillamente prestazioni vicine alla 5700 XT in full HD
|
Quote:
La 6600 spaccherebbe il mercato |
Quote:
https://store.steampowered.com/app/1...ing_Benchmark/ https://store.steampowered.com/app/1...ary_Benchmark/ https://www.geeks3d.com/20210419/nvi...unreal-engine/ E ovviamente Q2 RTX (che funziona sulle Radeon, ci sono almeno 2 path di rendering Vulkan oltre a quello specifico per Nvidia) |
Quote:
|
Credo anche questo: https://store.steampowered.com/app/1..._in_the_Light/ (sempre Unreal Engine come il demo dell'attico)
|
Quote:
Scarica il demo dell'attico allora: https://www.geeks3d.com/20210419/nvi...unreal-engine/ + https://www.nvidia.com/en-us/geforce...ing-tech-demo/ (a trovare il download :D ) |
Se vuoi qualcosa di più "MA IO CERCO IL VERO RAYTRACING!!!111"
https://github.com/GPSnoopy/RayTracingInVulkan -> https://github.com/GPSnoopy/RayTracingInVulkan/releases Dovrebbe sfruttare l'accelerazione HW...... |
|
Tutti gli orari sono GMT +1. Ora sono le: 23:22. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.