Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] AMD Radeon RX6000 Series (https://www.hwupgrade.it/forum/showthread.php?t=2925328)


Mallardo 03-11-2020 10:17

Io invece sto ancora ad aspettare che esca qualcosa con implementazione dell RT che mi possa interessare, per adesso il nulla più assoluto. Non ne ho giocato uno dei titoli che lo utilizzano.

Gyammy85 03-11-2020 11:03

La verità è che con rt on ci passerà la differenza su ampere che c'è in rt off lato performance per le rx6000, senza farsi troppi viaggi mentali, parliamoci chiaro, il ray tracing comincia ora, se poi ci aspettiamo un mondo fatto di specchi con ombre stile doom 3 meglio cambiare hobby

Predator_1982 03-11-2020 11:30

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47073516)
La verità è che con rt on ci passerà la differenza su ampere che c'è in rt off lato performance per le rx6000, senza farsi troppi viaggi mentali, parliamoci chiaro, il ray tracing comincia ora, se poi ci aspettiamo un mondo fatto di specchi con ombre stile doom 3 meglio cambiare hobby

cmq io sarò uno di quelli che comprerà anche la 6800XT e farò i confronti in casa. Se in RT, come dite, andrà ugualmente bene o poco meno (sperando ovviamente esca qualche patch nel frattempo che consenta di sfruttarlo su più titoli) è altamente probabile che mi terrò la AMD, con il vantaggio di avere un sistema totalmente AMD anche in previsione dell'upgrade al 5900x.

Da qui nasce il mio forte interesse per questa generazione.

Cfranco 03-11-2020 12:32

Quote:

Originariamente inviato da StylezZz` (Messaggio 47072793)
1:09 ''At 4k resolution using ultrahd textures, Godfall requires tremendous memory bandwidth to run smoothly, in this intricately detailed scene we're using 4k x 4k textures sizes and 12GB of graphics memory to play at 4k resolutions''.

Capisco che è un video dell'oste, ma se sarà tutto confermato dai benchmark e dai giochi futuri, voglio vedere chi avrà ancora il coraggio di dire che 8/10GB di VRAM vanno benissimo in 4k, e quantitativi maggiori sono solo marketing.

Quote:

Originariamente inviato da Predator_1982 (Messaggio 47072974)
esame di realtà: non è 1 gioco su centinaia esistenti che fa la regola. E' ovviamente un game sponsorizzato da AMD...e a me sembra fatto a posta. Se tutti i giochi occupassero così tanta vram nessuno giocherebbe su pc anche perchè, mediamente, quanti hanno schede da più di 700 euro nel proprio case e giocano in 4k?

Inoltre è pure evidente che in termini di effetti RT c'è ben poco da vedere..

I giochi fatti per PS4 e Xbox one devono stare dentro gli 8 Gb per forza, mettono giusto qualche effettino in più o un pacco di texture ad alta risoluzione per il PC, ma di base si parte da quella ram disponibile.
Ovvio che per la generazione Xbox X e PS5 si partirà con una dotazione ram video differente e i giochi si adatteranno a quella.

Hadar 03-11-2020 12:53

https://videocardz.com/newz/amd-rade...y-tracing-apis



Inviato dal mio Pixel 2 XL utilizzando Tapatalk

Andy1111 03-11-2020 12:57

Quote:

Originariamente inviato da Hadar (Messaggio 47073794)
https://videocardz.com/newz/amd-rade...y-tracing-apis



Inviato dal mio Pixel 2 XL utilizzando Tapatalk

Buono e questo conferma quella che ho detto svariate volte, molti giochi non usano le api dx12 ma proprietarie nvidia

Control sembra che usa le api dx12

Mallardo 03-11-2020 13:05

Quando lo avevo detto mi era stato risposto che Nvidia non utilizzava api proprietarie...
Avrei una domanda tecnica da sottoporvi: come mai ci aspettiamo una minore efficacia in RT da parte di navi 2 rispetto ad ampere? Navi2 ha 1 RA per CU, ampere invece com'è strutturata? E che differenza c'è tra le 2 modalità di calcolo dei raggi?

Dotto Raus 03-11-2020 13:07

Quote:

Originariamente inviato da Andy1111 (Messaggio 47073801)
Buono e questo conferma quella che ho detto svariate volte, molti giochi non usano le api dx12 ma proprietarie nvidia

Control sembra che usa le api dx12

Mi sa che l'unico proprietario sia metro exodus. Perché è l'unico gioco che nelle opzioni ha chiaramente il riferimento a "nvidia rtx". Control, Tomb raider e bfv sono tutti dxr. Almeno stando alla dicitura delle opzioni.

Free Gordon 03-11-2020 13:38

Ho letto ora che sono 536mmq.
Quindi 26,8mld / 536 sono una densità di 50 milioni/mmq.


Una densità paragonabilissima all'8nm Samsung, tenendo conto anche della cache da 128MB... :asd:

I guru si sono sbagliati di nuovo... :asd:

DJurassic 03-11-2020 14:00

Quote:

Originariamente inviato da Predator_1982 (Messaggio 47073593)
cmq io sarò uno di quelli che comprerà anche la 6800XT e farò i confronti in casa. Se in RT, come dite, andrà ugualmente bene o poco meno (sperando ovviamente esca qualche patch nel frattempo che consenta di sfruttarlo su più titoli) è altamente probabile che mi terrò la AMD, con il vantaggio di avere un sistema totalmente AMD anche in previsione dell'upgrade al 5900x.

Da qui nasce il mio forte interesse per questa generazione.

Di la verità, te vuoi solo privare questi ragazzi di una delle poche GPU che si riuscirà a trovare all'uscita così come hai fatto con la 3080 :asd:

Scherzi a parte per valutare certe cose basterà aspettare le recensioni o ancora meglio i video comparativa sul Tubo.

Predator_1982 03-11-2020 14:07

Quote:

Originariamente inviato da DJurassic (Messaggio 47073978)
Di la verità, te vuoi solo privare questi ragazzi di una delle poche GPU che si riuscirà a trovare all'uscita così come hai fatto con la 3080 :asd:

Scherzi a parte per valutare certe cose basterà aspettare le recensioni o ancora meglio i video comparativa sul Tubo.

ovvio :D Dato che non compro una scheda AMD da secoli, voglio provare con mano le sensazioni che restituisce. Io me le ricordo come schede piuttosto stutterose, ma parliamo davvero di ricordi risalenti alla X1900XT, per cui sicuramente adesso è un altro mondo.

nickname88 03-11-2020 14:10

Quote:

Originariamente inviato da Predator_1982 (Messaggio 47074001)
ovvio :D Dato che non compro una scheda AMD da secoli, voglio provare con mano le sensazioni che restituisce. Io me le ricordo come schede piuttosto stutterose, ma parliamo davvero di ricordi risalenti alla X1900XT, per cui sicuramente adesso è un altro mondo.

ti posso aggiornare con i drivers che crashavano in Windows con le HD5870, nei giochi tutto ok, molti anni fa anche questo ma più recente del tuo mondo :asd:, con i driver che nel CP avevano ancora il logo ATI nonostante fossero già stati acquisiti.

mackillers 03-11-2020 14:15

Quote:

Originariamente inviato da Mallardo (Messaggio 47066314)
Ah su questo non c'è dubbio. Comunque sono ancora sbalordito dai dati sugli fps che danno sul sito di AMD, la differenza tra 6800 e 3070 è considerevole, in 4k poi c'è un abisso. Altro dato interessante è che sembrano scalare molto meglio al diminuire della risoluzione, a 1440 recuperano molto rispetto alla controparte.

Questo invece mi preoccupa un p;, significa che in 4k sono abbastanza tirate con il bus della Vram che comincia a fare da collo di bottiglia.

non sarebbe stato male avere la 6900XT con un BUS più amplio.

Predator_1982 03-11-2020 14:19

Quote:

Originariamente inviato da nickname88 (Messaggio 47074010)
ti posso aggiornare con i drivers che crashavano in Windows con le HD5870, nei giochi tutto ok, molti anni fa anche questo ma più recente del tuo mondo :asd:, con i driver che nel CP avevano ancora il logo ATI nonostante fossero già stati acquisiti.

eh già...si invecchia velocemente. che ne sanno quelli che adesso giocano in 4k di quando io giocavo con la S3 trio 64 V+ e con la prima scheda 3d S3 Virge DX....abbinata ad un bel pentium 133 mhz e 8 mb di EDO ram. Che tempi ragazzi.

leoneazzurro 03-11-2020 14:33

Quote:

Originariamente inviato da mackillers (Messaggio 47074027)
Questo invece mi preoccupa un p;, significa che in 4k sono abbastanza tirate con il bus della Vram che comincia a fare da collo di bottiglia.

non sarebbe stato male avere la 6900XT con un BUS più amplio.

Non è tanto questione di bus, è che la dimensione della cache è "giusta" per i 4K, con un hit rate del 58% fornisce una bandwidth effettiva molto più alta. Alle risoluzioni inferiori l'hit rate è ancora più alto per cui l'effetto si amplifica (senza contare che AMD è in vantaggio in geometria e fill rate rispetto alle dirette concorrenti)

mackillers 03-11-2020 14:36

Quote:

Originariamente inviato da Predator_1982 (Messaggio 47066889)
https://wccftech.com/amd-radeon-rx-6...ock-at-launch/

giusto per eh... Quest'anno mi sa che va cosi

non mi stupirebbe affatto, è vero che in Asia il problema Covid sembra più limitato al momento. ma comunque tutta l'economia ed i commerci mondiali hanno subito una forte battuta d'arresto.

io ho messo in pausa la scimmia, se ne riparla a gennaio/febbraio a disponibilità amplia sia per AMD che Nvidia.

tanto per adesso con il monitor che ho la 5700XT è ancora sotto sfruttata, mi spiace solo per la mancanza del Raytracing

mackillers 03-11-2020 14:40

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47074078)
Non è tanto questione di bus, è che la dimensione della cache è "giusta" per i 4K, con un hit rate del 58% fornisce una bandwidth effettiva molto più alta. Alle risoluzioni inferiori l'hit rate è ancora più alto per cui l'effetto si amplifica (senza contare che AMD è in vantaggio in geometria e fill rate rispetto alle dirette concorrenti)

bhe, in altre parole il buffer della cache è preciso per il 4K, mentre a a risoluzioni inferiori da il meglio di se.

ergo se il bus fosse più amplio, o la cache fosse di più avremmo prestazioni migliori in 4k.

Capisco che AMD debba bilanciare prestazioni e costi di produzione, dico solo che un BUS a 320bit non sarebbe costato poi molto.

ho una scheda amd di 5-6 anni fa con il bus a 512bit ed era costata molto meno di 500€.

probabilmente non valeva la pena ingegnerizzare quella soluzione solo per la 6900XT e questo è stato il bilanciamento migliore che hanno trovato.
probabilmente in questo modo riescono a fare le 6800XT e le 6900XT partendo dalla stessa base e globalmente risparmiano molto.

ionet 03-11-2020 14:40

Quote:

Originariamente inviato da mackillers (Messaggio 47074027)
Questo invece mi preoccupa un p;, significa che in 4k sono abbastanza tirate con il bus della Vram che comincia a fare da collo di bottiglia.

non sarebbe stato male avere la 6900XT con un BUS più amplio.

non ho capito perche vedi il bicchiere mezzo vuoto:confused:

non e' che a 4K ha problemi, anzi va come e piu' delle controparti Nvidia
che sono le attuali massime espressioni tecnologiche in campo gpu

semplicemente sono talmente potenti(ovvio se vuoi gestire 4K e RT)che quando le rilassi per gestire un QHD poi vola:sofico:

CiccoMan 03-11-2020 14:45

Sapete se è possibile far funzionare in qualche modo il gsync con una vga AMD?

Attualmente ho un monitor LG 32GK850G e siccome stavo pensando di acquistare una delle nuove RX 6000 (quando e se saranno disponibili) vorrei capire se posso sfruttare il monitor in mio possesso...

Pima di chiedere ho dato un occhiata su Google, ma non mi pare di aver trovato nulla... ho trovato articoli di un anno fa che paventavano l'ipotesi di poter utilizzare gsync con vga rosse sui futuri monitor :p

Predator_1982 03-11-2020 14:59

Quote:

Originariamente inviato da CiccoMan (Messaggio 47074105)
Sapete se è possibile far funzionare in qualche modo il gsync con una vga AMD?

Attualmente ho un monitor LG 32GK850G e siccome stavo pensando di acquistare una delle nuove RX 6000 (quando e se saranno disponibili) vorrei capire se posso sfruttare il monitor in mio possesso...

Pima di chiedere ho dato un occhiata su Google, ma non mi pare di aver trovato nulla... ho trovato articoli di un anno fa che paventavano l'ipotesi di poter utilizzare gsync con vga rosse sui futuri monitor :p

non credo...vale solo il contrario: puoi far funzionare un FreeSync compatibile con una scheda GSync

leoneazzurro 03-11-2020 15:04

Quote:

Originariamente inviato da mackillers (Messaggio 47074096)
bhe, in altre parole il buffer della cache è preciso per il 4K, mentre a a risoluzioni inferiori da il meglio di se.

ergo se il bus fosse più amplio, o la cache fosse di più avremmo prestazioni migliori in 4k.

Capisco che AMD debba bilanciare prestazioni e costi di produzione, dico solo che un BUS a 320bit non sarebbe costato poi molto.

ho una scheda amd di 5-6 anni fa con il bus a 512bit ed era costata molto meno di 500€.

probabilmente non valeva la pena ingegnerizzare quella soluzione solo per la 6900XT e questo è stato il bilanciamento migliore che hanno trovato.
probabilmente in questo modo riescono a fare le 6800XT e le 6900XT partendo dalla stessa base e globalmente risparmiano molto.

La RAM grafica di 5-6 anni fa non è quella attuale. Già oggi GDDR6 con un bus a 384 bit richiede PCB abbastanza costosi dato che il rapporto segnale/rumore del protocollo di trasmissione utilizzato è abbastanza precario (e per la GDDR6X è ancora peggio, ed infatti si dice che il PCB delle 3080/3090 sia costosissimo rispetto alla media dell'industria). Inoltre si sta verificando una situazione per cui la banda delle RAM sta crescendo meno del previsto e le soluzioni come HBM sono molto costose al momento (e richiedono anche un interposer). La cache è una soluzione che rende la GPU meno dipendente da RAM spinte e scala molto bene con il processo produttivo.

leoneazzurro 04-11-2020 17:11

https://twitter.com/CapFrameX/status...341700608?s=20

mii... speriamo la serie 6000 non vada a finire allo stesso modo

Ton90maz 04-11-2020 17:52

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47074171)
La RAM grafica di 5-6 anni fa non è quella attuale. Già oggi GDDR6 con un bus a 384 bit richiede PCB abbastanza costosi dato che il rapporto segnale/rumore del protocollo di trasmissione utilizzato è abbastanza precario (e per la GDDR6X è ancora peggio, ed infatti si dice che il PCB delle 3080/3090 sia costosissimo rispetto alla media dell'industria). Inoltre si sta verificando una situazione per cui la banda delle RAM sta crescendo meno del previsto e le soluzioni come HBM sono molto costose al momento (e richiedono anche un interposer). La cache è una soluzione che rende la GPU meno dipendente da RAM spinte e scala molto bene con il processo produttivo.

Ci sono tuttavia anche degli ovvi svantaggi, che però si ridurranno con l'approccio mcm (anzi, forse sarà pure una necessità).

Biscottoman 04-11-2020 17:52

https://videocardz.com/newz/kopite7k...-gddr6x-memory

La probabile risposta di Nvidia alla 6900xt, nel caso in cui il prezzo fosse simile sarebbe una bella sfida; anche se rimarrebbe ancora il grave problema disponibilità

Free Gordon 04-11-2020 18:14

Quote:

Originariamente inviato da leoneazzurro (Messaggio 47076533)
https://twitter.com/CapFrameX/status...341700608?s=20

mii... speriamo la serie 6000 non vada a finire allo stesso modo


Marzo?????? :eek:
Prevedo botte da orbi... :D

Antostorny 04-11-2020 18:32

Quote:

Originariamente inviato da Biscottoman (Messaggio 47076608)
https://videocardz.com/newz/kopite7k...-gddr6x-memory

La probabile risposta di Nvidia alla 6900xt, nel caso in cui il prezzo fosse simile sarebbe una bella sfida; anche se rimarrebbe ancora il grave problema disponibilità

E' facilissimo lanciare qualcosa che non esiste e non esisterà..qua si rasenta il ridicolo. Le 3070, 3080 e 3090 sono praticamente introvabili e loro cosa fanno?
Sfornano una 3080 Ti per mostrare a tutti di averlo più lungo.

E' una prova di forza che, senza disponibilità, fa pure ridere (o piangere).

thunderforce83 04-11-2020 18:33

Quote:

Originariamente inviato da Predator_1982 (Messaggio 47074039)
eh già...si invecchia velocemente. che ne sanno quelli che adesso giocano in 4k di quando io giocavo con la S3 trio 64 V+ e con la prima scheda 3d S3 Virge DX....abbinata ad un bel pentium 133 mhz e 8 mb di EDO ram. Che tempi ragazzi.

il mio primo pc fu' un 2 8 6 pentium..quello aveva una gpu?:D :sofico:
dai no la mia prima vera scheda video fu' la TNT2 con 16mb di ram...per averne 32 dovevi sborsare un patrimonio!
scusate l OT
qualcuno ha notizia su queste belle 5800xt? disponibilita' bench veritieri ecc ecc ecc?

argez 04-11-2020 18:35

Quote:

Originariamente inviato da Biscottoman (Messaggio 47076608)
https://videocardz.com/newz/kopite7k...-gddr6x-memory

La probabile risposta di Nvidia alla 6900xt, nel caso in cui il prezzo fosse simile sarebbe una bella sfida; anche se rimarrebbe ancora il grave problema disponibilità

Nvidia si preoccupa di controbattere alle "presunte" prestazioni di amd (aspettando le reviews)senza nemmeno avere la disponibilità delle attuali in commercio. Annamo bbbene!

Antostorny 04-11-2020 18:36

Quote:

Originariamente inviato da thunderforce83 (Messaggio 47076700)
il mio primo pc fu' un 2 8 6 pentium..quello aveva una gpu?:D :sofico:
dai no la mia prima vera scheda video fu' la tnt3 con 16mb di ram...per averne 32 dovevi sborsare un patrimoniooo!
scusate l OT
qualcuno ha notizia su queste belle 5800xt? disponibilita' bench veritieri ecc ecc ecc?

* 6800 XT al massimo

Comunque al momento non si sa nulla ed a parte i benchmark fatti dall'oste quelli che vedi in rete sono tutti fake...tocca aspettare il 18 novembre.

leoneazzurro 04-11-2020 18:48

Quote:

Originariamente inviato da Ton90maz (Messaggio 47076607)
Ci sono tuttavia anche degli ovvi svantaggi, che però si ridurranno con l'approccio mcm (anzi, forse sarà pure una necessità).

Gli svantaggi sono il die size maggiorato e il fatto che quando superi una certa risoluzione le performance decrescono perchè scende l'hit rate. Quindi avremo schede "mirate" ad una certa risoluzione di utilizzo es. se vuoi giocare a 4K hai le 6800-6800Xt-6900, per le 1440p avrai la serie 6700 e per il 1080p le serie inferiori. Con il vantaggio che scendendo di risoluzione "mirata" le performance salgono parecchio grazie al maggiore hit rate della cache. Questo non vuol dire che con una 6700XT a 4K non ci si giochi (con le opzioni giuste) ma sicuramente non è quello in cui daranno il meglio.

thunderforce83 04-11-2020 18:49

Quote:

Originariamente inviato da Antostorny (Messaggio 47076705)
* 6800 XT al massimo

Comunque al momento non si sa nulla ed a parte i benchmark fatti dall'oste quelli che vedi in rete sono tutti fake...tocca aspettare il 18 novembre.

si appunto 6800xt...qui tra cpu gpu non si capisce piu' nulla...ho in preorder(se non annullano)la strix 3080oc che dice amazon spedira' dal 20 in poi...mi trovero' a fare la fatidica scelta...sempre se spedira' ovviamente amazon e se ci sara' disponibilita' della 6800xt dal 18. ma in primis vorrei vedere un testa a testa fatto per bene senza l'oste di torno:p

Gyammy85 04-11-2020 20:55





Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:

Quote:

Originariamente inviato da Antostorny (Messaggio 47076697)
E' facilissimo lanciare qualcosa che non esiste e non esisterà..qua si rasenta il ridicolo. Le 3070, 3080 e 3090 sono praticamente introvabili e loro cosa fanno?
Sfornano una 3080 Ti per mostrare a tutti di averlo più lungo.

E' una prova di forza che, senza disponibilità, fa pure ridere (o piangere).

Mah, al massimo andrà un pochino meno di 3090 data la banda minore, non vedo dove sia la prova di forza, la 6900xt starà lo stesso sopra

Vash88 04-11-2020 22:00

Quote:

Originariamente inviato da Free Gordon (Messaggio 47076648)
Marzo?????? :eek:
Prevedo botte da orbi... :D

Erano anni che non si vedeva un paper launch del genere! Samsung e Nvidia si sono proprio messe nei casini da sole. Nvidia non si aspettava una AMD così competitiva.

tobyax 04-11-2020 22:24

ma ancora pensate che amd abbia difficolta ad avere schede? ripetete con me, stesso processo produttivo, stesse memorie, linea produttiva libera da iphone che usa pp 5nm.

per amd si è fatta trovare ben preparata magari anche solo presentando le schede piu di 1 mese dopo anche solo per avere scorte....

nickname88 04-11-2020 22:44

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47076920)




Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:

E dopo la storiella di Big Navi nel Q1 2019 a 259€, adesso vediamo con piacere che le tue fonti sono il meme su Twitter, per giunta con nome arabo che cita una fonte cinese ( l'accoppiata emana fiducia ed affidabilità da ogni lato :asd: ).
E se fosse vero per altro non sarebbe di buon auspicio, vuol dire far peggio della 3080 pure nel raster.

Andy1111 04-11-2020 22:54

Quote:

Originariamente inviato da nickname88 (Messaggio 47077062)
E dopo la storiella di Big Navi nel Q1 2019 a 259€, adesso vediamo con piacere che le tue fonti sono il meme su Twitter, per giunta con nome arabo che cita una fonte cinese ( l'accoppiata emana fiducia ed affidabilità da ogni lato :asd: ).
E se fosse vero per altro non sarebbe di buon auspicio, vuol dire far peggio della 3080 pure nel raster.

Guarda che Hassan Mujtaba lavora per wccftech

https://wccftech.com/author/hms/

https://wccftech.com/amd-radeon-rx-6...with-rtx-3080/

Mallardo 04-11-2020 23:13

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47076920)
Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:

Come mai parli di peggiore degli scenari? Questo bench dovrebbe in qualche modo favorire nvidia?

nickname88 04-11-2020 23:21

Quote:

Originariamente inviato da Andy1111 (Messaggio 47077073)

ancora peggio :asd:

FroZen 04-11-2020 23:38

Quote:

Originariamente inviato da nickname88 (Messaggio 47077095)
ancora peggio :asd:

A dire il vero forse anche complici le console, stavolta i rumors ci hanno preso parecchio

Non a caso io da esperienze passate ero scettico di tanta bontà, e invece...

mikael84 04-11-2020 23:45

Quote:

Originariamente inviato da Gyammy85 (Messaggio 47076920)



Nel peggiore degli scenari, siamo a +42% su 2080ti per la 80 cu :fiufiu: :fiufiu:

Mi pare il minimo, la 6900xt ha il 44% in più di transistor rispetto alla Titan RTX con un nodo di vantaggio completo (12, vs 7nmP).
Cmq la 6900xt non può fare 17% in più rispetto alla 6800xt, in quanto ha solo il 10% delle ALU, che non si traduce nel 10% reale.:)


Tutti gli orari sono GMT +1. Ora sono le: 23:14.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2022, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.