View Full Version : Radeon RX 6700 XT, il successore della RX 5700 XT è tra noi. La recensione
Redazione di Hardware Upg
17-03-2021, 13:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5969/radeon-rx-6700-xt-il-successore-della-rx-5700-xt-e-tra-noi-la-recensione_index.html
Abbiamo provato la nuova Radeon RX 6700 XT di AMD nella versione reference. La scheda punta ai videogiocatori che vogliono alte prestazioni nel gaming fino a risoluzione 1440p. A bordo di questa scheda troviamo una GPU Navi 22 con 2560 stream processor e 12GB di memoria GDDR6 coadiuvati da 96 MB di Infinity Cache. Vediamo se questa nuova proposta riesce a tenere testa alla GeForce RTX 3070 di Nvidia.
Click sul link per visualizzare l'articolo.
ninja750
17-03-2021, 13:20
prestazioni eccellenti = 3070 = 2080ti (con sola 40cu!!!)
ma questa reference scalda veramente troppo, la peggiore delle 6000 di gran lunga, bisogna vedere altre rece
sulle prestazioni in RT col parco titoli attuali non ottimizzati AMD è veramente troppo penalizzata
totalblackuot75
17-03-2021, 13:29
Mah...con un 30€ in più mi porto a casa una 3070 che in rt ha prestazioni nettamente migliori,secondo me amd per renderla davvero appetibile doveva abbassare ulteriormente il prezzo..
ninja750
17-03-2021, 13:36
Mah...con un 30€ in più mi porto a casa una 3070 che in rt ha prestazioni nettamente migliori,secondo me amd per renderla davvero appetibile doveva abbassare ulteriormente il prezzo..
hai però 4gb in meno
sui prezzi inutile scannarsi tanto non le potremo mai comprare
Mah...con un 30€ in più mi porto a casa una 3070 che in rt ha prestazioni nettamente migliori,secondo me amd per renderla davvero appetibile doveva abbassare ulteriormente il prezzo..
tranquillo, c'è chi se le compra anche a 2-300 euro in piu'
mi aspetto tra non molti giorni di vedere in vendita sui vari marketplace usato/nuovo, mining rig complete con 6-8-12 di queste in fila :read:
ronthalas
17-03-2021, 13:38
ok... lista d'attesa pure per lei.
tutto ciò che è una x60 in poi è introvabile, o a prezzi irragionevoli.
FrancoBit
17-03-2021, 13:39
Mah...con un 30€ in più mi porto a casa una 3070 che in rt ha prestazioni nettamente migliori,secondo me amd per renderla davvero appetibile doveva abbassare ulteriormente il prezzo..
Se sai qualcosa che in millemila non sappiamo su reperibilità e prezzi, facci sapere, l'MSRP non esiste
Manolo De Agostini
17-03-2021, 13:42
i soliti titoli anonimi quando si tratta di recensire amd, nessun "potenza ed eleganza", "stile e prestazioni", "mette la quinta", "perfetta per giocare" o "veloce come la top ma costa meno", "un dissipatore che stupisce" "non passa inosservata" "all'ennesima potenza" e via dicendo.....
https://www.hwupgrade.it/articoli/skvideo/index.html
Quello della Sapphire RX 6800 XT però non lo citi :D Vuoi la verità? Non l'avrei aggettivata in modo roboante anche se avessi avuto più inventiva... diciamo che è una soluzione che ci sta nel panorama di mercato, ma che non arriva per prima o stravolge uno scenario. Non ho avuto l'effetto WOW provandola, se devo dirla tutta. Tra l'altro sto anche vedendo che all'estero ci sono andati anche più pesanti...
coschizza
17-03-2021, 13:46
hai però 4gb in meno
sui prezzi inutile scannarsi tanto non le potremo mai comprare
4GB che non servono a niente a quelle risoluzioni quindi meglio avere prestazioni o memoria non usata?
cronos1990
17-03-2021, 13:47
hai però 4gb in meno
sui prezzi inutile scannarsi tanto non le potremo mai comprare8 GB bastano e avanzano per il 1440p. Anzi, a momenti bastano per più della metà dei giochi in 4K.
AMD deve dare un'accelerata sulle prestazioni in RT, c'è poco da fare.
ghiltanas
17-03-2021, 13:51
quello che mi aspettavo una signora scheda video, peccato per le temp. Purtroppo le custom sono fuori discussione, perchè non vendute sul sito amd (l'unico posto dove tento di prendere una scheda video attualmente).
Mastergiò
17-03-2021, 13:53
buona scheda, ottime prestazioni in raster, ma col prezzo non ci siamo proprio. Se quello poi è il listino, in questo periodo si può tranquillamente raddoppiare.
Free Gordon
17-03-2021, 13:53
La scheda IN RASTER fa il 98% e 99% della 3070 nelle res che contano...costando qualcosina meno.
Mi aspettavo prestazioni simili. :)
Potendola comprare e avendo un MSRP più basso, sarebbe un vero must buy.
Per la 1080p e 1440p è un'architettura fenomenale RDNA2, nulla da dire. :sofico:
Brava AMD ma abbassa i prezzi.... :read:
Free Gordon
17-03-2021, 13:56
4GB che non servono a niente a quelle risoluzioni quindi meglio avere prestazioni o memoria non usata?
mah... questo lo giudicheremo meglio tra un annetto o due.
Le console hanno 12GB disponibili per la grafica... :)
Faccio una scommessa: 8GB a metà 2023 saranno stretti! :D
Chi accetta la scommessa?
Offro una birra... sperando di poterla bere in un pub. :rotfl:
Tutto molto bello.
Il punto è che tanto non arriva sugli scaffali.
..e se ci arriva lo fa al triplo del prezzo di listino.
Buona solo per il raster e con quello che costa è poco, RT troppo deficitario. Va similmente ad una 3070 in raster, ma non può contare su rt e soprattutto su DLSS, che francamente una volta provato diventa irrinunciabile. Dovrebbe costare ben meno.
cronos1990
17-03-2021, 14:03
Certo che ci arrivano sugli scaffali. Ci rimangono il tempo che apre il negozio che sono tutte prenotate, ma ci arrivano :asd:
mah... questo lo giudicheremo meglio tra un annetto o due.
Le console hanno 12GB disponibili per la grafica... :)
Faccio una scommessa: 8GB a metà 2023 saranno stretti! :D
Chi accetta la scommessa?
Offro una birra... sperando di poterla bere in un pub. :rotfl:Fuorviante.
Le console hanno un tot di RAM che è condivisa per tutto, non necessariamente ne hanno 12GB riservati per la grafica. Dipende dal gioco, da come è programmato e da come lavora il SO.
Inoltre le console attuali sono studiate per il 4K, mentre la scheda dell'articolo (e la concorrente 3070) sono studiate per il 1440p che richiede molta meno RAM. Anche supponendo che in 4K il gioco in questione occupa i tuoi 12 GB (e ci saranno sono un numero esiguo di giochi che staranno sempre intorno a questo numero) in 1440p se arrivi a 6 GB è già tanto.
ghiltanas
17-03-2021, 14:03
prestazioni eccellenti = 3070 = 2080ti (con sola 40cu!!!)
ma questa reference scalda veramente troppo, la peggiore delle 6000 di gran lunga, bisogna vedere altre rece
sulle prestazioni in RT col parco titoli attuali non ottimizzati AMD è veramente troppo penalizzata
la red devil è ottima come temp, ma non voglio sapere i prezzi
Manolo De Agostini
17-03-2021, 14:12
o anche questo:
beh mi sembran titoli da "astenersi sognatori" confrontati a
magari mi sbaglio eh, dimmelo tu ;)
Alcuni hai ragione, altri no... ma sono anche "sensazioni" e valutazioni soggettive. Detto questo, stiamo parlando di una questione di lana caprina e ti confermo quello scritto prima, ossia che il titolo scialbo e poco sognante di questa recensione può andare bene ad AMD, se avessi dovuto "calcare la mano", non credo l'avrei fatto con termini favorevoli. Siccome non volevo polemiche né dalle aziende, né da voi, ho optato per un titolo neutro. Però, neanche così mi sono risparmiato una discussione :D :cry: :cry: :cry: Torno a lavorare, ciao! :D
Manolo De Agostini
17-03-2021, 14:14
la red devil è ottima come temp, ma non voglio sapere i prezzi
Ho una Sapphire Nitro+ da testare e in termini di temperature si comporta decisamente meglio (adesso non ho qui il dato, ma mi pare molto meglio...).
Spitfire84
17-03-2021, 14:17
Qualche test di overclocking e undervolting (pratica molto comune con le 5700XT) l'avete fatto? Potrebbe essere utile per estrarre un po' di prestazioni e al tempo stesso ridurre leggermente i consumi e conseguentemente rumore e temperatura.
ghiltanas
17-03-2021, 14:21
Ho una Sapphire Nitro+ da testare e in termini di temperature si comporta decisamente meglio (adesso non ho qui il dato, ma mi pare molto meglio...).
si anche quella ho letto sia molto valida, peccato davvero per la reference a questo giro.
nickname88
17-03-2021, 14:24
TDP e prestazioni simili alla 3070, costa un po' meno ma va un pelino meno, ha più VRAM ma le performance in RT son molto inferiori e il DLSS non c'è.
Per il resto ... fra poco in OUT OF STOCK a vita :read:
Per me il quantitativo della ram deve essere in potenza di due :O
Free Gordon
17-03-2021, 14:39
Fuorviante.
Allora scommetti? ;)
O no? :sofico:
Free Gordon
17-03-2021, 14:44
TDP e prestazioni simili alla 3070, costa un po' meno ma va un pelino meno, ha più VRAM ma le performance in RT son molto inferiori e il DLSS non c'è.
Per il resto ... fra poco in OUT OF STOCK a vita :read:
Ha gli stessi transitor della 3070 (circa 17mld) (causa 96MB di cache ovviamente) ma è più vicina alla 3060 liscia come dimensioni del die. ;)
3060 - 6700xt - 3070
300mmq - 330 - 390
Normale che abbia prestazioni simili e tpd simile, dato che è così tirata (come freq).
Direi ottima scheda con 4GB di ram in più della concorrente... se avesse il giusto prezzo di vendita.
Ma così non sarà... per nessuna scheda citata. :sofico:
Non ho capito che importanza abbiano i 4GB in più se poi alla fine va progressivamente peggio all'aumentare della risoluzione.
Free Gordon
17-03-2021, 14:50
Non ho capito che importanza abbiano i 4GB in più se poi alla fine va progressivamente peggio all'aumentare della risoluzione.
Perché l'occupazione della ram in un gioco dipende dagli sviluppatori e di quanta ram decidono di aver bisogno :) e non solamente dalla risoluzione. ;)
Una frase come la tua una ventina d'anni fa' sul forum non si sarebbe mai sentita (mentre oggi è all'ordine del giorno) dato che il sito aveva un profilo medio molto più "pro" di ora. :D
Con tutto il rispetto eh. :)
coschizza
17-03-2021, 14:55
mah... questo lo giudicheremo meglio tra un annetto o due.
Le console hanno 12GB disponibili per la grafica... :)
Faccio una scommessa: 8GB a metà 2023 saranno stretti! :D
Chi accetta la scommessa?
Offro una birra... sperando di poterla bere in un pub. :rotfl:
10GB non 12
Free Gordon
17-03-2021, 14:58
10GB non 12
13.5 in realtà... :D
bagnino89
17-03-2021, 15:05
TDP e prestazioni simili alla 3070, costa un po' meno ma va un pelino meno, ha più VRAM ma le performance in RT son molto inferiori e il DLSS non c'è.
Per il resto ... fra poco in OUT OF STOCK a vita :read:
Quoto tutto. Scheda un po' "meh".
coschizza
17-03-2021, 15:08
13.5 in realtà... :D
10 per la grafica il resto per OS e gioco
Perché l'occupazione della ram in un gioco dipende dagli sviluppatori e di quanta ram decidono di aver bisogno :) e non solamente dalla risoluzione. ;)
Una frase come la tua una ventina d'anni fa' sul forum non si sarebbe mai sentita (mentre oggi è all'ordine del giorno) dato che il sito aveva un profilo medio molto più "pro" di ora. :D
Con tutto il rispetto eh. :)
Lasciamo perdere il nonnismo, c'ero anche io 20 anni fa...
Non ho ben capito la risposta, o forse tu non hai capito la mia osservazione. Anche se l'occupazione della VRAM non dipende esclusivamente dalla risoluzione, sale comunque al salire della risoluzione - tale che un eventuale collo di bottiglia della VRAM me lo aspetto comunque prima in 4k che a 1080p, per intenderci. Ora, considerando che come prestazioni la 6700xt mi pare ben tarata per 2560x1440, e che come architettura non sembra scalare bene in 4k, ho la vaga impressione che nel suo realistico ciclo vitale i 12GB avranno zero rilevanza.
@Turin
Mettila così, ci staranno meno strette le MOD con texture ultradettagliate :D
Il calo in 4K potrebbe essere dovuto alla banda passante che pare un po' risicata nonostante l'infinity cache. Del resto la vecchia 5700XT ne ha di più e con memorie più lente (certo, senza la cache).
Ad ogni modo non mi preoccuperei troppo: prima che si trovino le schede sarà arrivata la nuova generazione e vedremo se a quel punto AMD avrà chiuso il gap su Raytracing/DLSS. ;)
Concordo con chi ritieni che visti i valori in gioco questa scheda dovrebbe costare meno, con quella differenza di prezzo è preferibile la 3070.
Manolo De Agostini
17-03-2021, 15:37
scusami non volevo fare polemica, so come funziona e ormai mi sono rassegnato che un pò tutta l'informazione avendo pressioni, diciamo così, non è propriamente chiara come vorrebbe. buon lavoro.
Figurati, nessuna pressione da parte di nessuno, ma chiaramente se faccio un titolaccio così per fare sensazionalismo (cioè senza basi su cui farlo, se penso di averle lo faccio, non ho problemi) allora chiaramente sia lettori che aziende potrebbero avere da questionare.
Questa scheda ha buone prestazioni in raster, ma chiaramente ha i suoi punti deboli sul lato RT e c'è l'assenza del DLSS. Non ho motivo di dire che è una bomba, ma nemmeno che fa schifo, per intenderci. Da qui il titolo neutro... poi oh, non sempre ho l'inventiva, ci sono giorni in cui il titolo sopra la righe viene, altri no... ;) Ciao!
ninja750
17-03-2021, 16:10
ha i suoi punti deboli sul lato RT
perchè i giochi ad oggi sono stati ottimizzati solo per la controparte
vedremo i futuri AAA
coschizza
17-03-2021, 16:22
perchè i giochi ad oggi sono stati ottimizzati solo per la controparte
vedremo i futuri AAA
manca la potenza non altro, quella non la crei
L'RT senza DLSS è una mazzata nei maroni anche per le ampere, e viene menzionato nella recensione a onor del vero....ed è ancora più una mazzata per le Navi2 per quei titoli nati e pensati per l'RT nvidia ("eh ma è DX12 quindi è standard", si ditelo a quelli che su CP2077 con una navi2 non possono proprio attivarlo! è proprio così standard? mmmmmmmmmmmm), praticamente tutti tranne Godfall e il futuro Resident Evil Village (non so se mi sono perso altri titoli recenti) hanno ottimizzazioni per l'RT ampere.....
Quindi la vera domanda è: arriverà anche per AMD un DLSS? Loro dicono di si, quando? non si sa ancora...... questa è l'unica discriminante, tutto il resto dice che navi 2 e ampere sono molto allineate quindi AMD è tornata competitiva anche nelle GPU......punto.
Il vero problema di adesso e del prossimo futuro è che non importa quale scheda tu prenda, cadrai in piedi sia con l'una che con l'altra, il vero problema è che non ci sono le schede :stordita:
supertigrotto
17-03-2021, 17:01
Caspita Manolo,ti sei dimenticato di mettere il bench di quanti hashrate fa,visto che si sa dove andranno a finire!
Hihihihi.
Scherzi a parte io mi tengo ancora ben stretta la mia 5700 liscia,salto questa generazione,sia per i prezzi sia per le prestazioni,inoltre io uso una risoluzione 1440p ,ovvero la 3440x1440 a 100hz ,quindi per avere buone prestazioni in RT dovrei acquistare una 6800 liscia ma mi dispiace, rifarò il PC nel tardo 2022 ,per ora CPU e GPU sono vendute a caro prezzo,non ne vale la pena,con la differenza di prezzo uno si compra un alimentatore migliore,più spazio di SSD,un nuovo cabinet o magari una parte di raffreddamento a liquido.
Ho fatto due conti,con i sovraprezzi che ci sono stati,dal prezzo di listino a quello reale,ci possono essere anche 400 cocuzze in più nell'assemblea un PC completo rispetto a mesi e mesi fa.
nickname88
17-03-2021, 17:40
hanno ottimizzazioni per l'RT ampere.....
Che è sempre basato comunque sulle librerie MS. :rolleyes:
i soliti titoli anonimi quando si tratta di recensire amd, nessun "potenza ed eleganza", "stile e prestazioni", "mette la quinta", "perfetta per giocare" o "veloce come la top ma costa meno", "un dissipatore che stupisce" "non passa inosservata" "all'ennesima potenza" e via dicendo.....
https://www.hwupgrade.it/articoli/skvideo/index.html
"E' tra noi" mi sembra abbastanza forte come titolo :asd:.
Legolas84
17-03-2021, 18:10
Ma gnammy non viene a commentare? :(
panameras991
17-03-2021, 18:29
Praticamente una 5700XT migliorata che scalda come un forno a microonde 🤣 e tutto questo per soli 479/1500 dollari, una vera scheda per allocchi. Adesso speriamo di vedere presto anche una bella recensione su Xe HPG, almeno per fine anno 🙂
Manolo De Agostini
17-03-2021, 18:34
Caspita Manolo,ti sei dimenticato di mettere il bench di quanti hashrate fa,visto che si sa dove andranno a finire!
Hihihihi.
:D Ragazzi, io sono ormai vecchio... non mi piace proprio quel mondo lì... ma non escludo che per "questioni di lavoro" mi tocchi prima o poi adoperarmi anche in tal senso... spero di no. Purtroppo però la situazione resterà pessima per un bel po' e.. ps. Aspettatevi qualche novità il mese prossimo in tema GPU. :D
Una scheda nel range della RTX 3060 / Ti / RTX 3070, in termini di prestazioni e consumi.
Ok va' bene, la prenderei in considerazione come le controparti Nvidia.
Ma oggi sono praticamente impossibili da giudicare sul fronte prezzi.
"Domani", si vedrà cosa ed a quanto proporrà il mercato.
una vera scheda per allocchi
Come tutte oggigiorno :D
E si che con i soldi fatti vendendo una Voodoo5 e due Voodoo3 potrei permettermi anche una 3090 :asd:
Ma che se la tengano
AceGranger
17-03-2021, 19:07
hai però 4gb in meno
sui prezzi inutile scannarsi tanto non le potremo mai comprare
si, come gli 8GB in piu della Radeon 7 :stordita: e poi è li a morire male peggio della 2080.
Free Gordon
17-03-2021, 19:24
[B]
Concordo con chi ritieni che visti i valori in gioco questa scheda dovrebbe costare meno, con quella differenza di prezzo è preferibile la 3070.
Sì.. concordo. Dovrebbe (e potrebbe) costare meno. :)
Free Gordon
17-03-2021, 19:26
si, come gli 8GB in piu della Radeon 7 :stordita: e poi è li a morire male peggio della 2080.
Ma nessuno che scommette con me? :sofico:
L'RT senza DLSS è una mazzata nei maroni anche per le ampere, e viene menzionato nella recensione a onor del vero....ed è ancora più una mazzata per le Navi2 per quei titoli nati e pensati per l'RT nvidia ("eh ma è DX12 quindi è standard", si ditelo a quelli che su CP2077 con una navi2 non possono proprio attivarlo! è proprio così standard? mmmmmmmmmmmm), praticamente tutti tranne Godfall e il futuro Resident Evil Village (non so se mi sono perso altri titoli recenti) hanno ottimizzazioni per l'RT ampere.....
Quindi la vera domanda è: arriverà anche per AMD un DLSS? Loro dicono di si, quando? non si sa ancora...... questa è l'unica discriminante, tutto il resto dice che navi 2 e ampere sono molto allineate quindi AMD è tornata competitiva anche nelle GPU......punto.
Il vero problema di adesso e del prossimo futuro è che non importa quale scheda tu prenda, cadrai in piedi sia con l'una che con l'altra, il vero problema è che non ci sono le schede :stordita:
si chiamera' FSR cioe' FidelityFX Super Resolution,la fregatura e' che ci stanno ancora lavorando, promettono vagamente "entro quest'anno" forse:rolleyes:
cioe' alla fine quando usciranno le prossime gpu:D
probabilmente non sara' basato sul machine learning, dovrebbe essere una specie di trixx bost evoluto
https://videocardz.com/newz/amd-fidelityfx-super-resolution-fsr-to-launch-this-year-for-pcs
si, come gli 8GB in piu della Radeon 7 :stordita: e poi è li a morire male peggio della 2080.
morte male? ma magari scoprono in un vecchio magazzino abbandonato, milioni di radeon VII da smaltire:asd:
https://whattomine.com/gpus
Free Gordon
18-03-2021, 00:12
morte male? ma magari scoprono in un vecchio magazzino abbandonato, milioni di radeon VII da smaltire:asd:
https://whattomine.com/gpus
:rotfl:
cronos1990
18-03-2021, 06:54
Ma nessuno che scommette con me? :sofico:Ma scusa, scommettere su cosa? Su una tua affermazione senza capo nè coda? E con queste premesse fai anche la predica da saccente:
Una frase come la tua una ventina d'anni fa' sul forum non si sarebbe mai sentita (mentre oggi è all'ordine del giorno) dato che il sito aveva un profilo medio molto più "pro" di ora.Quanto meno mi sembri solo arrogante.
La vRAM in una GPU serve quasi esclusivamente per la gestione delle texture; all'aumentare della risoluzione delle texture aumenta il loro "peso".
La RAM di una console è condivisa con tutto, e gestita dall'OS. Anche ammettendo che la tua cifra ci 12 GB sia corretta (e non lo è), tu con quel quantitativo ci devi far girare TUTTO il gioco, non solo le texture. E un gioco già adesso escludendo le texture occupa 2-4 GB di RAM. Per chi usa il PC è un problema risibile, perchè ha sia la vRAM che la RAM di sistema, per cui tutta quella della GPU la puoi dedicare alle texture, mentre quella per far "girare il gioco" sulla RAM di sistema. Ma su una Console no: nei tuoi 12 GB ci devi mettere tutto, quindi inizia a scalare quei 2-4 GB di cui sopra.
Come detto, le console sono ideate per i giochi in 4K. Per cui anche nel caso peggiore parliamo di texture in 4K che pesano 9-10 GB, e questo a stare larghi. E questo per i prossimi 6 anni circa (il tempo di vita medio di una console), e su una manciata ristretta di giochi perchè chiaramente la maggior parte ne sfrutterà di meno, per svariati motivi. E perchè d'altro canto non si sfrutta certo tutto il quantitativo tutte le volte.
D'altronde quando Nvidia piazza "solo" 12 GB di vRAM sulle sue 3080 non è esclusivamente per andare al risparmio, ma anche perchè si son fatti le loro valutazioni. Sanno benissimo che i giochi sono programmati pensando soprattutto alle Console, e che i giochi per PC sono poi tarati su quegli standard. Eccezioni escluse (ma essendo eccezioni contano zero nel discorso generale).
E di sicuro le SH programmeranno pensando prima al mondo Console, e poi a chi detiene le maggiori quote di mercato di GPU discrete in ambito videoludico (cioè Nvidia)... e questo senza entrare in argomenti "border line", tipo Nvidia che paga profumatamente i publisher per indirizzare la progettazione dei videogiochi.
Infine, e lo ripeto, tu stai implicitamente paragonando sistemi studiati per il 4K con una GPU che invece è dichiaratamente da parte del costruttore per il 1440p... e parlo sia di AMD che di Nvidia, visto che il confronto è con la 3070.
E in linea di massima, le texture in 1440p possono pesare fino a 4 volte in meno rispetto a quelle in 4K, per cui il linea teorica i tuoi 12 GB diventano 3 GB. Poi nella pratica rimangono un poco di più, perchè la vRAM ha anche altre funzioni, e perchè è probabile che le texture in 4K saranno più compresse (e non dimentichiamoci l'upscaling sulle console), ma anche in questo tipo di scenario parlare di 5-6 GB è già tanto. Arrivare agli 8 GB è quanto meno improbabile, e anche se ci arrivi comunque sei dentro i limiti della GPU in questione.
Questo senza poi considerare i giochi attualmente presenti. Vero che ancora giochi realmente Next-gen devono uscire, ma ad oggi un gioco in 4K arriva ad occupare normalmente 6-8 GB di vRAM; ci sono casi in cui si sforano tali valori arrivando a 10-11 GB, ma parliamo di un numero così ristretto di giochi che si contano sulle dita di una mano, e generalmente fanno uso di pacchetti di texture aggiuntivi ad alta risoluzione. E questo per il 4K, quindi per schede come dovrebbero essere la 3080 o l'equivalente AMD (schede che quel quantitativo di vRAM ce l'hanno), non per schede come la 6700 XT o la 3070.
Se poi qualcuno decide di comprare una scheda dichiaratamente studiata per il 1440p e la sfrutta per giocare in 4K è liberissimo di farlo, ma poi non si può lamentare se nel caso si ritrova con poca vRAM. Non è colpa di AMD, Nvidia o delle SH se si spera di sfidare una Ferrari a Monza usando una Fiat 500.
In tutto questo discorso ci sarebbe poi da parlare della velocità di accesso all'SSD di sistema, perchè le tecnologie attuali fanno si che i ritardi dovuti ad un quantitativo ristretto di vRAM si riducano notevolmente, tali per cui se sfori di poco neanche te ne accorgi. Questo però è già più un discorso ipotetico, quindi da verificare.
Poi "magari" la tua scommessa la vinci. Ma parliamoci chiaro: se spari 6 numeri al superenalotto e poi escono, non vedo quali meriti dovrei riconoscerti se non quello di avere una fortuna sfacciata.
LORDSpaccHEr
18-03-2021, 07:51
cronos1990 amen
https://i.ibb.co/gMNsRF7/6000.jpg (https://ibb.co/6Rz6WJZ)
Se guardiamo i prezzi di vendita REALI presi dal sito AMD, ipoteticamente la 6700XT dovrebbe costare sui 450€ prezzo piu' che onesto secondo me per una scheda del genere.
Purtroppo invece sono gia' state proposte ai negozi di informatica alla "modica" cifra di 1.000 euro l'uno a loro.
Detto questo scordiamoci per il 2021 di acquistare le GPU a prezzi reali.
Cmq per me che gioco in FHD se dovesse veramente costare intorno a quella cifra sarebbe un ottimo acquisto e comunque magari quando tutto sara' piu' umano il costo scendera' sotto i 400€.
Gyammy85
18-03-2021, 08:37
Scalda tantissimo sembra un rave, e vabbè si sa
Non ha il dlss, al massimo quello farlocco fra cinque anni, sappiamo anche questo
big navi da 100 cu da 450 watt se la giocherà al massimo con la 3070, poco ma sicuro
questa andrà al massimo come una 2080, e per forza ha 40 cu
Doveva andare come la 3090 oc, per forza è uscita dopo
Ecc... ecc... ecc... ecc.........
Ma su una Console no: nei tuoi 12 GB ci devi mettere tutto, quindi inizia a scalare quei 2-4 GB di cui sopra.
Un piccolo appunto: il quantitativo di memoria complessivo delle consolle è di 16 GB, non di 12 GB. Quindi alla fine i 12 GB per la GPU ci potrebbero anche stare.
Sappiamo però che la Series X ha la memoria partizionata, e quella con accesso veloce per la GPU è di 10 GB. Bisogna poi vedere se in qualche modo anche parte dell'altra sia utilizzabile, ma per il momento prendiamo per buono il dato tecnico.
La PS5 invece non fa distinzione, quindi per quel che ne sappiamo potrebbe assegnarne alle risorse tipicamente calcolate dalla GPU un quantitativo maggiore, anche se immagino che nella maggior parte dei casi (per lo meno per i titoli multipiattaforma) si allineerà con la XboX.
D'altronde quando Nvidia piazza "solo" 12 GB di vRAM sulle sue 3080 non è esclusivamente per andare al risparmio, ma anche perchè si son fatti le loro valutazioni.
Nella speranza che il calcolo non sia basato sulla disponibilità di memorie (che sappiamo essere scarsa) o sull'idea di commercializzare più avanti una versione con più RAM che renderà obsolete le vecchie e farà vendere loro di più. Certo, per il momento quegli 8 GB sono più che sufficienti, e i benchmark lo dimostrano, il discorso riguarda i giochi futuri.
E, a proposito di giochi futuri e consolle, non è del tutto sbagliato pensare che AMD stia puntando sulla maggiore quantità di RAM proprio perchè, avendo fabbricato il chip delle consolle, sappia qualcosa in più su questo argomento (del resto quando aveva fatto uscire le 6800 e 6900 con 16 GB di RAM aveva argomentato proprio in questo senso).
In tutto questo discorso ci sarebbe poi da parlare della velocità di accesso all'SSD di sistema, ...
A tal proposito bisogna dire che la tecnologia di streaming dal disco verrà sicuramente usata sulle consolle (dato che entrambe hanno unità di archiviazione ad altissima velocità e chip di compressione/decompressione dedicati proprio a questo scopo) mentre solo una parte dei PC potrà usufruirne e bisogna pure vedere se con la stessa efficacia.
Questo dovrebbe significare che proprio sulle consolle si potrebbe risparmiare memoria grazie a questa tecnologia, mentre le versioni PC potrebbero richiedere di caricare più dati in RAM.
Non escluderei quindi che in futuro giochi pensati per sfruttare a fondo le peculiarità delle consolle possano girare con più difficoltà (o con qualche compromesso) su schede video per PC con limitata quantità di RAM.
Dark_Lord
18-03-2021, 09:28
Ma il DLSS non è solo un algoritmo di upscale su rete neurale?
Stringi stringi il concetto è che giochi a 1080p con un framerate da 1080p però upscalati 4k con i dettagli "fittizi" generati dall'algoritmo per ingannare l'occhio e farlo sembrare un 4k nativo.
Se è così non mi sembra particolarmente invitiante per chi predilige la qualità grafica.
Tant'è che per ora la 6900 mi sta dando enormi soddisfazioni, e me la terrò ben stretta per molto tempo.
nickname88
18-03-2021, 09:29
Ma qualcuno l'ha acquistata ?
Io non l'ho proprio mai vista ordinabile oggi.
Idem le 6800 e 6900
si, come gli 8GB in piu della Radeon 7 :stordita: e poi è li a morire male peggio della 2080.
le VII vanno a ruba per chi le usa in ambito semi-pro, strano che dall'alto della tua professionalità non cogli la cosa :stordita:
ho ancora ricordo di tutti quelli che si sono sparati nei maroni con le 680 2Gb quando a un mese dall'uscita spergiuravano che fossero più che sufficienti ..... e poi invece............
più vram c'è meglio è punto........è l'unico parametro da guardare? certo che no!
ma si sa, bisogna sempre giustificare certe scelte puramente commerciali di nvidia anche tecnicamente (i 10gb della 3080 sono di migliore qualità dei 12gb di una 3060!) con voli pindarici e arrampicate di specchi che manco spiderman
eddai su
Ma il DLSS non è solo un algoritmo di upscale su rete neurale?
Stringi stringi il concetto è che giochi a 1080p con un framerate da 1080p però upscalati 4k con i dettagli "fittizi" generati dall'algoritmo per ingannare l'occhio e farlo sembrare un 4k nativo.
Se è così non mi sembra particolarmente invitiante per chi predilige la qualità grafica.
Tant'è che per ora la 6900 mi sta dando enormi soddisfazioni, e me la terrò ben stretta per molto tempo.
un po' come le tv samsung alla media world
uauuuuuuuuuuuuuu che qualità!!!!!!!! e poi te ne vai con la retina bruciata......
Dark_Lord
18-03-2021, 09:59
un po' come le tv samsung alla media world
uauuuuuuuuuuuuuu che qualità!!!!!!!! e poi te ne vai con la retina bruciata......
Boh non lo so, tutti a dire che il DLSS è la panacea per ogni male..
A me sembra un discutibile workaround da cui stare alla larga.
Ma d'altronde c'è gente che gioca in streaming con immagini compresse peggio di youtube, e sono pure contenti...
Boh non lo so, tutti a dire che il DLSS è la panacea per ogni male..
A me sembra un discutibile workaround da cui stare alla larga.
Ma d'altronde c'è gente che gioca in streaming con immagini compresse peggio di youtube, e sono pure contenti...
Il punto è che non tutti hanno le stesse esigenze
Il dlss ha il suo perché in una console
Ed ha il suo perché anche per raggiungere risoluzioni elevate mantenendo una certa soglia di frame per secondo
Oltretutto nelle implementazioni più recenti gli artefatti sono di molto ridotti e la "ricostruzione" della scena viene effettuata risolvendo anche una serie di altri difetti che si presentano solitamente
E' perfetto? No, ma imho è assolutamente interessante
Poi è chiaro che se punti alla fascia alta magari ti interessa relativamente poco ma appunto dipende dalle esigenze di ognuno
Gyammy85
18-03-2021, 10:15
Boh non lo so, tutti a dire che il DLSS è la panacea per ogni male..
A me sembra un discutibile workaround da cui stare alla larga.
Ma d'altronde c'è gente che gioca in streaming con immagini compresse peggio di youtube, e sono pure contenti...
Tutto marketing, prima di ampere rtx c'era ed il dlss pure, eppure il focus era su fortnite competitivo o sui giochi a 4k "che solo nvidia ti dà la possibilità di usare dato che amd non ha niente in fascia top", ma siccome ora amd ha la top e la mid top (diciamo la verità, nessuno si sarebbe mai aspettato 40 cu come la 3070) allora il dlss è la coperta di linus, perché si rtx ma col dlss è meglio perché fai più fps, e così sarà fino a rdna3/lovelace, o quantomeno fino all'uscita della soluzione di amd, che a quanto sembra è qualcosa a cui stanno lavorando molto intensamente
Prendi il radeon boost aggiornato col vrs, e pensa come sarebbe stato spinto se lo avesse fatto nvidia, "la soluzione definitiva per il gaming competitivo", "le dx12 ultimate al servizio dei veri gamers", ecc...
Qui: https://www.youtube.com/watch?v=6WUy5pZG2JA
c'è una recensione comparativa tra RX 6700 XT ed RTX 3070, con alcuni titoli differenti rispetto a quelli usati in questa recensione, oltre che altri test non correlati al gaming. Ne esce fuori chiaramente che negli scenari (risoluzioni elevate) in cui quella vram in più della RX 6700 XT potrebbe fare in teoria la differenza semplicemente non la fa e la RTX 3070 rimane comunque avanti (quindi a mio modesto parere ad oggi quella vram in più è solo fuffa).
Da quel che ho capito la RTX 3070 ha si meno VRam ma ha memorie più veloci rispetto a quelle delle RX 6700 XT e magari il vantaggio attuale è dovuto anche a questo.
Non so se fra 2-3 anni le richieste di Vram dei videogiochi si alzeranno, ma di certo non fregherà niente a nessuno in quel momento se la RX 6700 XT farà 27 fps in 4K al posto di 23 fps di una RTX 3070. Di sicuro se già oggi arrancano a quelle risoluzioni di sicuro non diventerà superperformante quando le richieste dei videogiochi potrebbero alzarsi. Tutto questo senza considerare che fra 2-3 anni queste schede saranno già vecchie e probabilmente soppiantate dalle nuove generazioni.
Discorso DLSS. Dopo tutto questo tempo ancora non è chiaro che il DLSS è una alternativa, con pro e contro, ad altre tecniche di antialiasing che in alcuni casi offre prestazioni qualitative migliori, sopratutto con l'ultima implementazione del DLSS, in altre no. Tutti gli algoritmi di AA hanno pro e contro ed a meno che non giochiate a nativo ne dovrete scegliere uno, ed ad oggi il DLSS è una buona alternativa quando disponibile.
cronos1990
18-03-2021, 11:14
Ma il DLSS non è solo un algoritmo di upscale su rete neurale?
Stringi stringi il concetto è che giochi a 1080p con un framerate da 1080p però upscalati 4k con i dettagli "fittizi" generati dall'algoritmo per ingannare l'occhio e farlo sembrare un 4k nativo.
Se è così non mi sembra particolarmente invitiante per chi predilige la qualità grafica.
Tant'è che per ora la 6900 mi sta dando enormi soddisfazioni, e me la terrò ben stretta per molto tempo.Il realtà il DLSS è un insieme di algoritmi, è decisamente più complesso. Che poi venga fatto passare come un semplice filtro di upscaling è un altro paio di maniche. Se ne è discusso più volte su questo forum, anche con dovizia di dettagli, è una tecnologia valida. Motivo per cui ritengo deprimenti alcuni degli ultimi commenti...
Senza entrare nel merito della qualità rispetto ad un'immagine nativa, va comunque detto che fa un lavoro egregio e le differenze sono tali che neanche si notano rispetto ad un'immagine senza DLSS... facendo una marea di FPS in più.
Che poi sia un escamotage per gestire il RT sono d'accordo. Ma è un escamotage che funzione decisamente bene.
Gyammy85
18-03-2021, 11:30
Qui: https://www.youtube.com/watch?v=6WUy5pZG2JA
c'è una recensione comparativa tra RX 6700 XT ed RTX 3070, con alcuni titoli differenti rispetto a quelli usati in questa recensione, oltre che altri test non correlati al gaming. Ne esce fuori chiaramente che negli scenari (risoluzioni elevate) in cui quella vram in più della RX 6700 XT potrebbe fare in teoria la differenza semplicemente non la fa e la RTX 3070 rimane comunque avanti (quindi a mio modesto parere ad oggi quella vram in più è solo fuffa).
Da quel che ho capito la RTX 3070 ha si meno VRam ma ha memorie più veloci rispetto a quelle delle RX 6700 XT e magari il vantaggio attuale è dovuto anche a questo.
Non so se fra 2-3 anni le richieste di Vram dei videogiochi si alzeranno, ma di certo non fregherà niente a nessuno in quel momento se la RX 6700 XT farà 27 fps in 4K al posto di 23 fps di una RTX 3070. Di sicuro se già oggi arrancano a quelle risoluzioni di sicuro non diventerà superperformante quando le richieste dei videogiochi potrebbero alzarsi. Tutto questo senza considerare che fra 2-3 anni queste schede saranno già vecchie e probabilmente soppiantate dalle nuove generazioni.
Discorso DLSS. Dopo tutto questo tempo ancora non è chiaro che il DLSS è una alternativa, con pro e contro, ad altre tecniche di antialiasing che in alcuni casi offre prestazioni qualitative migliori, sopratutto con l'ultima implementazione del DLSS, in altre no. Tutti gli algoritmi di AA hanno pro e contro ed a meno che non giochiate a nativo ne dovrete scegliere uno, ed ad oggi il DLSS è una buona alternativa quando disponibile.
Comparative random se ne trovano a iosa, e questa mi pare abbastanza meh, tralasciando il fatto che ora deve diventare a tutti i costi il competitor della 3070 quando in realtà il competitor è la 6800
Comparative random se ne trovano a iosa, e questa mi pare abbastanza meh, tralasciando il fatto che ora deve diventare a tutti i costi il competitor della 3070 quando in realtà il competitor è la 6800
Hanno 20$ di differenza che diavolo stai a dire?
Detto questo ti rimetto subito nella lista degli utenti ignorati dove meriti di stare.
Il DLSS è inattaccabile non scherziamo, scegli tu a che livello fruire, da qualità a ultra performance. Non perdi nessuna qualità e guadagni badilate di fps.
@Maury
Più che di nessuna perdita di qualità parlerei di enorme miglioramento di qualità e dettaglio rispetto ad una risoluzione base che permette di avere prestazioni molto più elevate, miglioramenti che si fa fatica a distinguere rispetto alle immagini renderizzate alla risoluzione di riferimento.
Inattaccabile comunque non direi, gli artefatti ci sono seppure in misura molto minore rispetto alla prima iterazione di questa tecnologia. Questo non toglie però che i risultati siano per molti versi stupefacenti.
Mi ha stupito però l'affermazione nell'intervista linkata poco sopra da un utente in cui si dice che quella del machine learning non sia l'unica strada e che AMD sta ancora valutando se utilizzare o meno quell'approccio: ho sempre pensato che il "miracolo" fosse dovuto proprio il fatto di basarsi sulle tecnologie di intelligenza artificiale, tanto che era già emersa l'informazione che la tecnologia AMD fosse basata su DirectML di Microsoft.
Mi chiedo come senza queste tecnologie possano ottenere risultati di questo genere.
Una scheda nel range della RTX 3060 / Ti / RTX 3070, in termini di prestazioni e consumi.
Ok va' bene, la prenderei in considerazione come le controparti Nvidia.
Ma oggi sono praticamente impossibili da giudicare sul fronte prezzi.
"Domani", si vedrà cosa ed a quanto proporrà il mercato.
Sottoscrivo pienamente.
E ci ho provato a prenderla, un po' come tutti qui.
Il DLSS è inattaccabile non scherziamo, scegli tu a che livello fruire, da qualità a ultra performance. Non perdi nessuna qualità e guadagni badilate di fps.
orbene quindi quale sarebbe la differenza fra il preset performance e quello qualità allora? :fagiano:
Ale55andr0
18-03-2021, 20:16
mah... questo lo giudicheremo meglio tra un annetto o due.
Le console hanno 12GB disponibili per la grafica... :)
Faccio una scommessa: 8GB a metà 2023 saranno stretti! :D
Chi accetta la scommessa?
Offro una birra... sperando di poterla bere in un pub. :rotfl:
series x ha 10gb di video ram, dichiarato direttamente da microsoft :read: , ed è la più potente fra le due console next gen
Ale55andr0
18-03-2021, 20:18
13.5 in realtà... :D
no, perchè tolto il SO che prende circa 2.5gb, esistono cose come ia, audio, fisica, i/o e tutto il codice "base" del gioco in generale, ma evidentemente quelle vengono caricate nella 4 dimensione, perchè ti pare che il gioco è solo video ram :asd: Poi come detto microsoft ha idchiarato nello specificico la cosa, non so come sia su PS5, ma in quel caso la console è meno potente di base con 10tflop pure finti (up to..), a prescindere da come userà la ram
L'RT senza DLSS è una mazzata nei maroni anche per le ampere:
a 1440p lo reggo benissimo su "folle" in CP2077 l'rt, incluse le ombre in rt... E no, senza dlss coso la :read:
Se poi è una "mazzata" per ampere allora amd è a livello "vai e sotterrati" applicando il tuo bilancino...
perchè i giochi ad oggi sono stati ottimizzati solo per la controparte
vedremo i futuri AAA
il nuovo 3dmark è del tutto agnostico e misura la bruta perforamnce in rt. Non c'è storia. Ovvio poi che nei titoli amd verra "scalato" di conseguenza in fase di programmazione, ma quello è altro discorso
Ale55andr0
18-03-2021, 20:31
Che in RT nei titoli attuali AMD sia indietro e fuori dubbio. Ma che siate convinti che i giochi non vadano proprio mi spiace ma state sbagliando:
https://www.youtube.com/watch?v=xWRZZZ01t34&list=PLiAlJ4TIatnskeYQOlaZJoAMvANxJsdM9&ab_channel=DottoBenchmark
In RT ci giochi tranquillamente e in alcuni casi anche in condizioni ottime. Vedremo poi nel prossimo futuro visto che per il momento i pochi giochi che ci sono sono tutti con il marchio RTX nvidia (giustamente sono partiti per primi).
ne riparliamo quando lo porteranno su CP2077 che lo applica pure sui riflessi degli occhiali (si, ci ho fatto caso e sono rimasto :eek: non scherzo) degli npc...
Poi mica ho detto che amd sono cessi, le mie papabili erano proprio la 6800xt e la 3080 e come cascavo cascavo ero contento, ma me lo sono preso li' :rolleyes:
E ripeto, il 3dmark è un misuratore agnostico, non c'è storia (6800xt vs 3080 circa 26 vs 45fps o qualcosa del genere, quant'è 80% a spanne?), sono nettamente dietro a livello di potenza in RT, non è questione di giochi, ovvio poi che se uno sponsorizza se lo fa cucire su misura in base alla propria forza/debolezza....
Ale55andr0
18-03-2021, 20:34
ho editato, leggi il resto ;)
Ale55andr0
18-03-2021, 20:48
non la avrai mai? veramente già ci sono come il citato CP2077 che messo su folle è allucinante lato illuminazione RT, lo applica letteralmente ovunque...ma ovviamente sono casi sponsorizzati, per quello è un macigno (aldilà del discorso ottimizzazione intendo). Se spengo l'rt fila lissio in 4k nativo pure sulla mia 3070... A ogni modo ormai la strada è segnata, amd si rifarà con rdna 3 lato rt laddove avrà maturato esperienza pure lei visto che nvidia ha avuto una gen di vantaggio
Mi chiedevo: Come si può ancora usare AC Odyssey come bench, quando l'ultimo scala anche a 1080p col top, senza essere accusati di partigianeria?
Cioè, nel parametro di riferimento (1440p) una 6700XT va meglio di una 6900XT, la cosa non suggerisce di aggiornare...?
Certo, siccome nell'ultimo AMD va molto meglio la 6700XT in generale sarebbe stata sopra alla 3070, ma male che andava mettavate un'altro bench favorevole Nvidia, almeno non si assisteva ad un bench che suona di assurdo da un chilometro...
Comunque, considerando le strozzature trovo il prezzo troppo alto in confronto alla 6800. Tra DCU, BUS, cache e VRAM si è mozzato dappertutto.
Sempre parlando di prezzo teorico, eh, però che vale lo stesso per la 3070, un prezzo più aggressivo la farebbe rivaleggiare molto meglio.
La VRAM resta un surplus. Citare la R-VII come esempio solido ha ben poco senso, si sa perché ha quella quantità di memoria (in pratica è un riciclo da un altro settore).
Non capisco perché togliersi la possibilità di tenere alto almeno il parametro della qualità delle texture, che in pratica sul calcolo puro non cambia una cippa se il buffer basta. La qualità delle texture e/o normal map è uno dei parametri più visibili. Vedere l'impressione che danno i retexturing, amatoriali o meno, e l'aumento di VRAM che chiedono...
Il discorso degli 8GB sufficienti per il 1440p può essere buono per chi cambia scheda una volta all'anno, io non avrei il coraggio di consigliare un periodo più lungo. Come ricordava qualcuno, il periodo di transizione dai 2GB ai 4 ha ingannato parecchi sostenitori del "tanto se serve la VRAM la scheda non basta"... Ancora, giocare con dettagli medi tranne le opzioni che occupano solo più VRAM, che come dicevo serve per un parametro ben visibile da chiunque, dovrebbe far schifo pr partito preso?
Per il riferimento con le console, come dicevo... Prima delle ultime bastavano 4GB? Non m'era sembrato... :fagiano:
Ale55andr0
18-03-2021, 21:01
Perdonami ma se CP2077 fosse pesante in rt come il test del 3dmark tu con la 3070 dovresti fare tipo 30 fps (che è quello che fa la 3070 in quel test). Fai 30 fps tu?
Nel test del 3dmark tutta la scena è in ray tracing e questo non verrà implementato in nessun gioco esistente da qui a penso mai :sofico:
era riferito in funzione da quanto è implementato in una applicazione, ovvio che poi la cosa poi si trasla sui giochi: Che ha fatto vedere amd in rt? le ombre in dirt 5 e in godfall? essù, non regge lontanamente l'intesità di uso dell'effetto che su un CP2077, e in AMD se ne sono stati zitti e muti anche settimane dopo la presentazione sulle performance in rt dopo aver detto che ne avrebbero parlato...e si è capito bene perchè col senno dle poi. Poi se vogliamo raccontarcela raccontiamocela, che ti devo dire?
Ale55andr0
18-03-2021, 21:07
Per il riferimento con le console, come dicevo... Prima delle ultime bastavano 4GB? Non m'era sembrato... :fagiano:
dipende con 8gb va tutto attualmente, per dirti io ho skyrim e tw3 moddati abbestia lato texture. Ci si scorda poi della tecnologia i/o (ed equivalente amd) che riduce ulteriormente il problema laddove implementata. E infine, bisogna anche vedere se impatta di più visivamente una texture più dettagliata o un sistema di illuminazione più avanzato al colpo d'occhio, ma di solito è più il secondo che fa il salto "next gen". Se un titolo ti CHIEDERA' 12gb di ram per maxarlo stai tranquillo che lato performance della gpu la 6700xt/3070 ormai la userai come fermacarte (a volte ritornato :O)
dipende con 8gb va tutto attualmente, per dirti io ho skyrim e tw3 moddati abbestia lato texture. Ci si scorda poi della tecnologia i/o (ed equivalente amd) che riduce ulteriormente il problema laddove implementata. E infine, bisogna anche vedere se impatta di più visivamente una texture più dettagliata o un sistema di illuminazione più avanzato al colpo d'occhio, ma di solito è più il secondo che fa il salto "next gen". Se un titolo ti CHIEDERA' 12gb di ram per maxarlo stai tranquillo che lato performance della gpu la 6700xt/3070 ormai la userai come fermacarte (a volte ritornato :O)La qualità degli asset rimane sempre tra le cose che si notano prima. Se l'illuminazione maxata sarà troppo pesante ti accontenterai causa forza maggiore, ma sempre che potrai permetterti asset migliori. Non vedo perché una cosa dovrebbe escludere l'altra, e perché dover estremizzare a mò di o maxi tutto o ti accontenti in tutto. Per altro, se appena non puoi maxare cambi fermacarte non rientri nella categoria di chi tiene le schede più a lungo, la stessa categoria che avevo escluso a priori.
Sul RT (già che ci sono...), invece, sono d'accordo con te. Si capisce che Nvidia ha più cavalli e AMD si difende degnamente solo quando la maggior parte restano nella stalla...
Bisogna essere obiettivi, nel bene e nel male, e quando ci si fa l'abitudine il bene e male comincia a sfumare... :)
Bi7hazard
19-03-2021, 07:00
perdonate l'ignoranza ma che si intende per "hotspot" dove tocca i 110°??
Gyammy85
19-03-2021, 07:21
Insomma la dovevano fare da 6 giga così la 3070 era meglio perché ne aveva 8
perdonate l'ignoranza ma che si intende per "hotspot" dove tocca i 110°??
Sono i punti più caldi del die
Ale55andr0
19-03-2021, 08:50
La qualità degli asset rimane sempre tra le cose che si notano prima. Se l'illuminazione maxata sarà troppo pesante ti accontenterai causa forza maggiore, ma sempre che potrai permetterti asset migliori. Non vedo perché una cosa dovrebbe escludere l'altra, e perché dover estremizzare a mò di o maxi tutto o ti accontenti in tutto. Per altro, se appena non puoi maxare cambi fermacarte non rientri nella categoria di chi tiene le schede più a lungo, la stessa categoria che avevo escluso a priori.
Sul RT (già che ci sono...), invece, sono d'accordo con te. Si capisce che Nvidia ha più cavalli e AMD si difende degnamente solo quando la maggior parte restano nella stalla...
Bisogna essere obiettivi, nel bene e nel male, e quando ci si fa l'abitudine il bene e male comincia a sfumare... :)
perchè oggi fra la 6700xt e la 3070 o scegli le capre o scegli i cavoli....:fagiano:
AceGranger
19-03-2021, 09:48
le VII vanno a ruba per chi le usa in ambito semi-pro, strano che dall'alto della tua professionalità non cogli la cosa :stordita:
ahhh bè AMD mi ha fregato una volta, quel genere di bidoni li lascio volentieri ad altri; altro che guardare la Vram on-board.; L'iperbole del "va a ruba", è perchè ne hanno vendute 3 e se la litigano in 4 gatti, no perchè è stata la GPU piu ignorata della storia e andata EOL dopo 6 mesi :asd:.
comunque la mia frase era riferito all'ambito gaming non all'ambito Pro.
ahhh bè AMD mi ha fregato una volta, quel genere di bidoni li lascio volentieri ad altri; altro che guardare la Vram on-board.
Dici la GTX 970? :asd:
Gyammy85
19-03-2021, 10:23
ahhh bè AMD mi ha fregato una volta, quel genere di bidoni li lascio volentieri ad altri; altro che guardare la Vram on-board.; L'iperbole del "va a ruba", è perchè ne hanno vendute 3 e se la litigano in 4 gatti, no perchè è stata la GPU piu ignorata della storia e andata EOL dopo 6 mesi :asd:.
comunque la mia frase era riferito all'ambito gaming non all'ambito Pro.
Ma io sempre mi chiedo: avete dati numerici oggettivi per ripetere sempre questa manfrina del ne hanno vendute tre? non ci sono dati reali, tranne mindfactory dove c'è un sostanziale equilibrio fra amd e nvidia, poi la radeon 7 resta ancora oggi una gpu estremamente valida in ambito produttività con tanta potenza di calcolo e banda a volontà, che ti piaccia o no, poi il flag "enable CUDA" non c'è e si sa
Gyammy85
19-03-2021, 10:24
Dici la GTX 970? :asd:
La più venduta di sempre, a proposito, dove sono tutti gli utenti di steam che ce l'hanno? quelli che da mesi si lamentano che devono stare con l'integrata?
"ne hanno vendute tre" mi sa
La più venduta di sempre, a proposito, dove sono tutti gli utenti di steam che ce l'hanno? quelli che da mesi si lamentano che devono stare con l'integrata?
"ne hanno vendute tre" mi sa
Io la ritengo una ottima scheda in realtà ma bisogna essere obiettivi
Dare dei bidono alle schede AMD non lo è granché :D
Pure nvidia ha fatto i suoi passi falsi: nv1, serie fx, serie 400..
La più venduta di sempre, a proposito, dove sono tutti gli utenti di steam che ce l'hanno? quelli che da mesi si lamentano che devono stare con l'integrata?
"ne hanno vendute tre" mi sa
Intendi chi é bloccato da anni con una 970, in attesa di una degna sostituta?
Eccomi!
Avrei voluto venderla a poco, per prendermi una 3060Ti, a quanto pare 3.5+0.5GB di RAM dovranno bastarmi ancora a lungo.
Gyammy85
19-03-2021, 11:13
Intendi chi é bloccato da anni con una 970, in attesa di una degna sostituta?
Eccomi!
Avrei voluto venderla a poco, per prendermi una 3060Ti, a quanto pare 3.5+0.5GB di RAM dovranno bastarmi ancora a lungo.
No perché l'impressione che si ha è che le vecchie schede siano sparite dai case, non era rivolto a qualcuno in particolare il mio post
Gyammy85
19-03-2021, 11:20
Si ma siamo sempre la. Cyberpunk è un gioco sponsorizzato nvidia. Poi quando lo metteranno vedremo come va. Al momento su quel gioco non è disponibile su AMD per accordi commerciali visto che a detta degli stessi developer è full standard DXR.
Sti giochi rtx sono full standard proprio per niente, è palese ormai
AceGranger
19-03-2021, 11:25
Io la ritengo una ottima scheda in realtà ma bisogna essere obiettivi
Dare dei bidono alle schede AMD non lo è granché :D
Pure nvidia ha fatto i suoi passi falsi: nv1, serie fx, serie 400..
ed erano bidoni anche quelli :asd:.
io non ho problem a scriverlo è, sono altri che non ammettono mai che un cesso è un cesso.
Ma io sempre mi chiedo: avete dati numerici oggettivi per ripetere sempre questa manfrina del ne hanno vendute tre? non ci sono dati reali, tranne mindfactory dove c'è un sostanziale equilibrio fra amd e nvidia, poi la radeon 7 resta ancora oggi una gpu estremamente valida in ambito produttività con tanta potenza di calcolo e banda a volontà, che ti piaccia o no, poi il flag "enable CUDA" non c'è e si sa
da uno dei report di Minfactory
GeForce RTX 2080 Ti 1365 2,8%
GeForce RTX 2080 Super 2295 4,8%
Radeon VII 390 0,8%
diciamo che tu, un po come le %, i dati non li sai leggere e non li sai nemmeno trovare; e sottolineamo anche che sei uno di quelli che ha sempre detto che di 2080Ti ne vendevano poche.
"sostanziale equilibrio" NUMERICO ( che è comunque una media di 55/60 nVidia - 45/40 AMD ) dove pero non riesci a leggere i dati e capire che AMD vende solo roba medio bassa mentre nVidia medio alta e altissima e questo nel mercato retail, fra gli OEM AMD manco esiste come opzione di GPU fra la magigor parte degli assemblatori di workstation.
ma va bè, come nulla di diverso dal solito; visto che tanto siamo OT la chiudo qui che tanto finira che "capirai" quello che vorrai.
EDIT: visto che poi parli sempre di produttivita delle GPU AMD e che le vende un botto ( chissa poi dove finiscono quei soldi, perchè nei fatturati no nsi vedono mai ), che lavoro fai ?
Ragazzi una domanda, qualcuno di voi ha mai provato l' mGPU ?
Non parlo di cross o sli chiarmanete, ma di 2 gpu diverse AMD/Nvidia
scusate l' OT.
:D
ed erano bidoni anche quelli :asd:.
io non ho problem a scriverlo è, sono altri che non ammettono mai che un cesso è un cesso.
Bidoni imho sono quelli che si trovano tramite certi canali che si rivelano non essere le gpu dichiarate ma immagino siano punti di vista
nickname88
19-03-2021, 11:42
GeForce RTX 2080 Ti 1365 2,8%
GeForce RTX 2080 Super 2295 4,8%
Radeon VII 390 0,8%
diciamo che tu, un po come le %, i dati non li sai leggere e non li sai nemmeno trovare.
"sostanziale equilibrio" NUMERICO ( che è comunque una media di 55/60 nVidia - 45/40 AMD ) dove pero non riesci a leggere i dati e capire che AMD vende solo roba medio bassa mentre nVidia medio alta e altissima e questo nel mercato retail, fra gli OEM AMD manco esiste come opzione di GPU fra la magigor parte degli assemblatori di workstation.
ma va bè, come nulla di diverso dal solito; visto che tanto siamo OT la chiudo qui che tanto finira che "capirai" quello che vorrai.Alle fanboyate di Gyammy siamo abituati. :asd:
Alle fanboyate di Gyammy siamo abituati. :asd:
E non solo :)
va un filo meno della 3070 costando uno spunto in meno, va un botto in meno in ray tracing, scalda parecchio e non ha DLSS...
Non credo che nessuno in buona fede possa raccomandare l'acquisto di questa scheda quando esiste la 3070.
Ma il DLSS non è solo un algoritmo di upscale su rete neurale?
Stringi stringi il concetto è che giochi a 1080p con un framerate da 1080p però upscalati 4k con i dettagli "fittizi" generati dall'algoritmo per ingannare l'occhio e farlo sembrare un 4k nativo.
Se è così non mi sembra particolarmente invitiante per chi predilige la qualità grafica.
Tant'è che per ora la 6900 mi sta dando enormi soddisfazioni, e me la terrò ben stretta per molto tempo.
DLSS ha una resa superiore alla risoluzione che emula quando si tratta di certi dettagli, è decisamente indicato per chi cerca performance senza rinunciare alla qualità grafica.
https://www.youtube.com/watch?v=YWIKzRhYZm4&t=609s
ninja750
19-03-2021, 15:54
va un filo meno della 3070 costando uno spunto in meno, va un botto in meno in ray tracing, scalda parecchio e non ha DLSS...
Non credo che nessuno in buona fede possa raccomandare l'acquisto di questa scheda quando esiste la 3070.
a scaldare parecchio è questa reference, le custom sono a 20c in meno
per il DLSS vedremo di quest'anno cosa tirerà fuori AMD, sia in impatto visivo che performance, poi tireremo le somme
allo stato attuale il RT è mille volte meglio sulla 3070
perchè oggi fra la 6700xt e la 3070 o scegli le capre o scegli i cavoli....:fagiano:E quindi...? Con l'illuminazione ti riferivi strettamente al RT? Gli asset non contano più una cippa? Siamo sicuri che non tocchi lesinare tra meno di un anno?
Di schede da 8GB ce ne sono da un pezzo, prima della moda del 4K, sono diventatI utili con l'uscita della 3070...
Comunque non mi vuoi capire, quindi è inutile star a ribadire quello di prima.
no, "Radeon RX 6700 XT, [...] è tra noi" non e' TRA NOI, e' TRA VOI.
Giangilpredo
20-03-2021, 11:43
Curioso, in tutto il resto del mondo viene paragonata a una 3060ti sovraprezzata... su questo sito è una valida alternativa della 3070...
bagnino89
20-03-2021, 11:48
Leggendo altre recensioni, il mio "meh" è confermato:
- la reference sembra abbastanza scadente in termini di dissipazione e qualità costruttiva, al contrario delle sue sorelle maggiori (6800 e così via), tuttavia è l'unica che pochi fortunati riusciranno a prendere al prezzo consigliato;
- alcune custom saranno probabilmente realizzate meglio, ma saranno introvabili e dal costo folle.
Scheda "meh", pertanto. Tra l'altro, considerando l'assenza di DLSS e l'RT estremamente limitato, nonché che il chip è più piccolo di quello della 3070, a mio avviso il prezzo consigliato avrebbe dovuto essere sensibilmente inferiore rispetto a quello della 3070 FE. I 4 GB di VRAM in più non sono così determinanti, secondo me.
Io direi che questa scheda video, così come tutte le altre, è ESCLUSIVAMENTE "TRA VOI" non "TRA NOI".
OrazioOC
20-03-2021, 16:01
Curioso, in tutto il resto del mondo viene paragonata a una 3060ti sovraprezzata... su questo sito è una valida alternativa della 3070...
Poi però quando le nvidia vanno forte si lamentano dicendo che testano le loro techdemo.:rolleyes:
Max Power
21-03-2021, 01:50
Lasciate perdere certi youtuber che continuano a sostenere che l'occupazione della ram è determinata dalla risoluzione.
Sono ragazzini non sanno quello che dicono. O meglio sono dei "venditori".
Sono le texture ad occupare largamente la Vram.
Dal FHD al 4K, come occupazione di memoria c'è mediamente 1GB: quisquilie.
Le nuove console, è stato dichiarato, potranno assegnare fino 13GB come memoria video. Striamo pure stretti facciamo 12 o 11. Poco importa sono sempre più di 8.
La vera realtà è che i prossimi titoli AAA, anche entro quest'anno, potrebbero farne uso.
Se i prezzi non fossero folli (compresi i listini...è aumentato tutto) sarebbe la scelta più oculata a lungo termine, per tenere i dettagli maxati.
cdimauro
22-03-2021, 05:59
Figurati, nessuna pressione da parte di nessuno, ma chiaramente se faccio un titolaccio così per fare sensazionalismo (cioè senza basi su cui farlo, se penso di averle lo faccio, non ho problemi) allora chiaramente sia lettori che aziende potrebbero avere da questionare.
Questa scheda ha buone prestazioni in raster, ma chiaramente ha i suoi punti deboli sul lato RT e c'è l'assenza del DLSS. Non ho motivo di dire che è una bomba, ma nemmeno che fa schifo, per intenderci. Da qui il titolo neutro... poi oh, non sempre ho l'inventiva, ci sono giorni in cui il titolo sopra la righe viene, altri no... ;) Ciao!
Ma infatti: cos'avrebbe questa scheda di meraviglioso per meritarsi un titolo "WoW"? Niente. Per cui il titolo è corretto.
L'RT senza DLSS è una mazzata nei maroni anche per le ampere, e viene menzionato nella recensione a onor del vero....ed è ancora più una mazzata per le Navi2 per quei titoli nati e pensati per l'RT nvidia ("eh ma è DX12 quindi è standard", si ditelo a quelli che su CP2077 con una navi2 non possono proprio attivarlo! è proprio così standard?
Ci sono soltanto delle differenze minimali: la stragrande maggioranza è standard.
Si vede che CP77 sia uno dei pochissimi titoli in cui hanno lavorato sfruttando tutto ciò che offre nVidia. D'altra parte fino a un po' di mesi fa non esistevano nemmeno schede RT di AMD.
Oppure, come ha detto qualcun altro, si tratta di accordi di esclusiva (temporanea).
mmmmmmmmmmmm), praticamente tutti tranne Godfall e il futuro Resident Evil Village (non so se mi sono perso altri titoli recenti) hanno ottimizzazioni per l'RT ampere.....
Fonte?
Quindi la vera domanda è: arriverà anche per AMD un DLSS? Loro dicono di si, quando? non si sa ancora...... questa è l'unica discriminante,
C'è stata una notizia di recente: sono ancora in alto mare, visto che non hanno nemmeno scelto quale algoritmo implementare.
Inoltre, da quel che è emerso, non dovrebbe essere qualcosa di simile al DLSS a livello di funzionamento.
Dunque, vista la situazione, è perfettamente inutile pensare di comprare ADESSO una scheda pensando che arriverà una "tecnologia di upscaling" (perché quello sarà) di cui non si vede nemmeno l'inizio...
tutto il resto dice che navi 2 e ampere sono molto allineate quindi AMD è tornata competitiva anche nelle GPU......punto.
E' competitiva soltanto nella grafica raster. Per il resto è meglio lasciar perdere.
Infatti è talmente bene messa che le vendite di nVidia sono persino aumentate, com'è emerso anch'esso in una recente notizia che è stata pubblicata pure qui di recente.
Il vero problema di adesso e del prossimo futuro è che non importa quale scheda tu prenda, cadrai in piedi sia con l'una che con l'altra,
Invece importa, eccome. Altrimenti ci si potrebbe risparmiare non soltanto le recensioni, ma anche discussioni come questa: per comprare una scheda basterebbe tirare una monetina...
il vero problema è che non ci sono le schede :stordita:
Ovvio.
Poi magari amd farà cagare anche con i giochi futuri RT "neutri" questo io non posso saperlo non avendo la sfera di cristallo. Trovo tuttavia che celebrare un rosario sulle prestazioni RT di AMD su giochi dove campeggia il logo nvidia RTX ovunque sia piuttosto stucchevole al momento.
Si chiama constatazione della realtà.
E lo rende ancora più stucchevole quando si levano giochi RT dove va meglio AMD perché "si sballa la media".
Questo, invece, fa parte del normale modus operandi quando si fa statistica: si eliminano i valori peggiori o migliori che farebbero sballare le medie.
Statistica non è collezionare dati, infilarli in una tabella, e tirare fuori i grafici: è prima di tutto analisi dei dati per vedere se hanno senso con quello che si sta misurando, prendendo provvedimenti quando i dati risultassero affetti da problematiche che non consentirebbero di studiare correttamente il fenomeno.
A tal proposito bisogna dire che la tecnologia di streaming dal disco verrà sicuramente usata sulle consolle (dato che entrambe hanno unità di archiviazione ad altissima velocità e chip di compressione/decompressione dedicati proprio a questo scopo) mentre solo una parte dei PC potrà usufruirne e bisogna pure vedere se con la stessa efficacia.
Questo dovrebbe significare che proprio sulle consolle si potrebbe risparmiare memoria grazie a questa tecnologia, mentre le versioni PC potrebbero richiedere di caricare più dati in RAM.
Il PC necessita di un po' di memoria di sistema in più perché c'è più codice caricato rispetto a una console, ma per il resto la tecnologia di streaming funzionerà bene, anzi anche meglio considerato che le memorie di massa NVME/M.2 PCI-Expresse 4 consentono di ottenere una banda superiore anche alla PS5.
Non escluderei quindi che in futuro giochi pensati per sfruttare a fondo le peculiarità delle consolle possano girare con più difficoltà (o con qualche compromesso) su schede video per PC con limitata quantità di RAM.
Dipenderà da quanta VRAM avranno a disposizione i PC, ma le console non sono messe meglio, visto che anche loro hanno una parte allocata al s.o., e la rimanente dev'essere divisa fra texture, code, e tutti gli altri asset.
8GB di VRAM fino agli 4K dovrebbero essere sufficienti in generale, visto che i giochi prediligeranno le console che hanno dei limiti anche loro sull'uso della memoria per le texture. Poi ci potrà sempre essere qualche titolo che ne richiederà di più.
Tutto marketing, prima di ampere rtx c'era ed il dlss pure, eppure il focus era su fortnite competitivo o sui giochi a 4k "che solo nvidia ti dà la possibilità di usare dato che amd non ha niente in fascia top", ma siccome ora amd ha la top e la mid top (diciamo la verità, nessuno si sarebbe mai aspettato 40 cu come la 3070) allora il dlss è la coperta di linus, perché si rtx ma col dlss è meglio perché fai più fps,
Si chiama "la volpe e l'uva"...
e così sarà fino a rdna3/lovelace, o quantomeno fino all'uscita della soluzione di amd, che a quanto sembra è qualcosa a cui stanno lavorando molto intensamente
Sempre a guardare al futuro, al futuro, al futuro.
Peccato che nVidia non rimarrà con le mani in mano...
Prendi il radeon boost aggiornato col vrs, e pensa come sarebbe stato spinto se lo avesse fatto nvidia, "la soluzione definitiva per il gaming competitivo", "le dx12 ultimate al servizio dei veri gamers", ecc...
Di nuovo in crisi uterina? :D
Il realtà il DLSS è un insieme di algoritmi, è decisamente più complesso. Che poi venga fatto passare come un semplice filtro di upscaling è un altro paio di maniche. Se ne è discusso più volte su questo forum, anche con dovizia di dettagli, è una tecnologia valida. Motivo per cui ritengo deprimenti alcuni degli ultimi commenti...
Senza entrare nel merito della qualità rispetto ad un'immagine nativa, va comunque detto che fa un lavoro egregio e le differenze sono tali che neanche si notano rispetto ad un'immagine senza DLSS... facendo una marea di FPS in più.
Che poi sia un escamotage per gestire il RT sono d'accordo. Ma è un escamotage che funzione decisamente bene.
I commenti non sono deprimenti, ma finalizzati allo scopo: è il classico caso della volpe e l'uva, come ho già detto sopra al leader maximo dei fanboy AMD.
@Maury
Più che di nessuna perdita di qualità parlerei di enorme miglioramento di qualità e dettaglio rispetto ad una risoluzione base che permette di avere prestazioni molto più elevate, miglioramenti che si fa fatica a distinguere rispetto alle immagini renderizzate alla risoluzione di riferimento.
Inattaccabile comunque non direi, gli artefatti ci sono seppure in misura molto minore rispetto alla prima iterazione di questa tecnologia. Questo non toglie però che i risultati siano per molti versi stupefacenti.
Mi ha stupito però l'affermazione nell'intervista linkata poco sopra da un utente in cui si dice che quella del machine learning non sia l'unica strada e che AMD sta ancora valutando se utilizzare o meno quell'approccio: ho sempre pensato che il "miracolo" fosse dovuto proprio il fatto di basarsi sulle tecnologie di intelligenza artificiale, tanto che era già emersa l'informazione che la tecnologia AMD fosse basata su DirectML di Microsoft.
Mi chiedo come senza queste tecnologie possano ottenere risultati di questo genere.
Ma infatti sono curiosissimo di vedere come faranno a ottenere risultati comparabili al DLSS, e per giunta senza unità di calcolo dedicate.
Ho già preparato i pop-corn...
Che in RT nei titoli attuali AMD sia indietro e fuori dubbio. Ma che siate convinti che i giochi non vadano proprio mi spiace ma state sbagliando:
https://www.youtube.com/watch?v=xWRZZZ01t34&list=PLiAlJ4TIatnskeYQOlaZJoAMvANxJsdM9&ab_channel=DottoBenchmark
In RT ci giochi tranquillamente e in alcuni casi anche in condizioni ottime. Vedremo poi nel prossimo futuro visto che per il momento i pochi giochi che ci sono sono tutti con il marchio RTX nvidia (giustamente sono partiti per primi).
Se manca la potenza di calcolo non mi aspetto stravolgimenti per il futuro.
Si ho letto ma comunque quello scenario (3dmark intendo) non è un caso tipico. Un gioco non avrà mai quell'implementazione, anche perché nel caso del 3dmark hanno scelto, essendo un benchmark, di caricare gli effetti RT all'inverosimile.
Il futuro è RT, e al solito 3DMark anticipa i tempi.
Per me con un'implementazione intelligente AMD in rt potrà dire la sua tranquillamente come già fa adesso in alcuni giochi anche sponsorizzati RTX (metro exodus è giocabilissimo e godibile con RT).
Non esiste alcuna implementazione "intelligente" di RT da parte di AMD: l'hardware è quello, e non lo puoi cambiare.
Ma io sempre mi chiedo: avete dati numerici oggettivi per ripetere sempre questa manfrina del ne hanno vendute tre?
Proprio TU che chiedi "dati numerici oggettivi"?!? :rotfl:
Condoglianze, dev'essere stata dura ingoiare merda per 12 anni. :confused: :confused:
All' 8° messaggio e gia' si rende antipatico x quello che ha scritto.
E' un forum dove si discute, nel bene e nel male di informatica tra gente obiettiva e fanboysti o semplicemente simpatizzanti, ma sinceramente si cerca sempre di rimanere nell'educazione anche quando si discute.
Nel suo caso sinceramente vedo un messaggio solo provocatorio.
Ieri comunque ho visto sui youtube alcuni video di confronto tra la 6700xt, la 3070 e 3060, chiaramente a 1440p
Sostanzialmente gli FPS sui giochi sono alla pari con la 3070, a volte con fps in + a volte - ma sostanzialmente sono li entrambe, al contrario con la 3060ti le differenze sono piu' marcate.
https://www.youtube.com/watch?v=mySUnDFu1lY
La cosa che pero' mi ha stupito molto e' la 3060Ti che pur rimanendo dietro e' comunque una scheda che da filo da torcere anche alla sorella maggiore restituendo sempre FPS degni di nota.
La 6700Xt spinge molto a parer mio e se sara' buono l'FSR di AMD ne vedremo delle belle anche in RT.
devo dire che questa 6700xt non mi convince, perlomeno la reference; e lo dico da simpatizzante AMD.
Se la gioca con la 3070 scaldando di più, andando meno in RT e costando uguale.
Costasse 50 euro in meno ci penserei, ma a parità di prezzo prendo la 3070. Questo sempre guardando i prezzi di listino e non la situazione reale. Guardassi la realtà non dovrei neanche leggerle le recensioni e aspetterei una 3060 o equivalente a 350 euro max, speriamo l'anno prossimo :read:
StylezZz`
23-03-2021, 09:50
Mah...sarà anche il successore della 5700 XT, ma la reputo meno interessante.
La serie 5000 è uscita in un periodo in cui nvidia sbandierava il suo raytracing con la serie 2000, ti faceva pagare cara una feauture che potevi sfruttare su 4 giochi in croce, e le migliorie visive non erano così evidenti da giusticare la cifra da sborsare....la 5700 XT era un ottima alternativa al giusto prezzo, prestazioni paragonabili a una 2070 Super a 100 euro in meno...ma ora che il raytracing sta sempre prendendo più campo e il DLSS ha dimostrato la sua utilità, non vedo proprio alcun motivo di prendere in considerazione questa 6700.
A chi si lamenta sempre dei titoli degli articoli pro nvidia: fatevi meno seghe mentali.
Mah...sarà anche il successore della 5700 XT, ma la reputo meno interessante.
La serie 5000 è uscita in un periodo in cui nvidia sbandierava il suo raytracing con la serie 2000, ti faceva pagare cara una feauture che potevi sfruttare su 4 giochi in croce, e le migliorie visive non erano così evidenti da giusticare la cifra da sborsare....la 5700 XT era un ottima alternativa al giusto prezzo, prestazioni paragonabili a una 2070 Super a 100 euro in meno...ma ora che il raytracing sta sempre prendendo più campo e il DLSS ha dimostrato la sua utilità, non vedo proprio alcun motivo di prendere in considerazione questa 6700.
A chi si lamenta sempre dei titoli degli articoli pro nvidia: fatevi meno seghe mentali.
Guarda io sono uno di quelli che spera di trovare una 5700XT a prezzi stracciati non appena saranno immesse sul mercato e acquistabili dalla massa le schede AMD/NVIDIA.
A quel punto il panorama di 1080TI, 2080, VEGA64, 5700XT saranno acquistabili a prezzi irrisori e per chi gioca in FHD come me saranno piu' che sufficieti a livello di prestazioni. L' RT al momento non lo prendo neanche in consdierazione.
Free Gordon
23-03-2021, 10:19
Hanno 20$ di differenza che diavolo stai a dire?
Detto questo ti rimetto subito nella lista degli utenti ignorati dove meriti di stare.
Come prestazioni/prezzo (MSRP teorico dico :sofico: ) mi pare siano ben piazzate tutte e tre: 6700 - 3070 - 6800. ;)
Ormai è passata l'era dei regali AMD... purtroppo... :help:
Free Gordon
23-03-2021, 10:22
series x ha 10gb di video ram, dichiarato direttamente da microsoft :read: , ed è la più potente fra le due console next gen
E' chiamata graphic memory perché è il "pool" più veloce, ma poi il sistema può vedere la memoria come unica. :)
E' solo una definizione commerciale..
La SeriesX ha realisticamente più di 10GB solo per la grafica, 11..12.. chi lo sa..
Certo ben più degli 8 della tua 3070. :D
Comunque ho già lanciato la scommessa, a Giugno 2023 i tuoi 8GB non basteranno più anche a 1440p.
Chi accetta la scommessa? :sofico: :sofico: :sofico:
E' chiamata graphic memory perché è il "pool" più veloce, ma poi il sistema può vedere la memoria come unica. :)
E' solo una definizione commerciale..
La SeriesX ha realisticamente più di 10GB solo per la grafica, 11..12.. chi lo sa..
Certo ben più degli 8 della tua 3070. :D
Comunque ho già lanciato la scommessa, a Giugno 2023 i tuoi 8GB non basteranno più anche a 1440p.
Chi accetta la scommessa? :sofico: :sofico: :sofico:
La penso come te, se penso che con una RX580 8GB oggi a The Division2 su ultra un po' rivisto e effetti maxati la memoria si attesta intorno ai 7Gb in FHD, ci puo' stare che a 1440 tra qualche anno non basteranno.
Free Gordon
23-03-2021, 10:36
devo dire che questa 6700xt non mi convince, perlomeno la reference; e lo dico da simpatizzante AMD.
Se la gioca con la 3070 scaldando di più, andando meno in RT e costando uguale.
Costasse 50 euro in meno ci penserei, ma a parità di prezzo prendo la 3070. Questo sempre guardando i prezzi di listino e non la situazione reale. Guardassi la realtà non dovrei neanche leggerle le recensioni e aspetterei una 3060 o equivalente a 350 euro max, speriamo l'anno prossimo :read:
Ne costa 20 in meno, costasse 50€ in meno sarebbe nella fascia 3060 Ti come prezzo (400-420) ma dato che come prestazioni si trova esattamente in mezzo alla 60ti - 70, hanno scelto 480. :)
Secondo me il prezzo più giusto era 450 e non 480 per le follie attuali di mercato. :)
Mentre il suo "ok il prezzo è giusto" :D per la sua fascia naturale di mercato SECONDO ME non dovrebbe mai superare i 400. :)
Ale55andr0
23-03-2021, 10:41
Lasciate perdere certi youtuber che continuano a sostenere che l'occupazione della ram è determinata dalla risoluzione.
Sono ragazzini non sanno quello che dicono. O meglio sono dei "venditori".
Sono le texture ad occupare largamente la Vram.
Dal FHD al 4K, come occupazione di memoria c'è mediamente 1GB: quisquilie.
Le nuove console, è stato dichiarato, potranno assegnare fino 13GB come memoria video. Striamo pure stretti facciamo 12 o 11. Poco importa sono sempre più di 8.
La vera realtà è che i prossimi titoli AAA, anche entro quest'anno, potrebbero farne uso.
Se i prezzi non fossero folli (compresi i listini...è aumentato tutto) sarebbe la scelta più oculata a lungo termine, per tenere i dettagli maxati.
bella barzelletta, hanno dichiarato cosa? chi? dove? :rotfl:: SOLO microsoft ha dichiarato ufficialmente qualcosa in merito, ed ha detto che ha 10gb di ram per la gpu ed è la più potente delle due macchine, peraltro...
Inoltre, sottrarre la memoria occupata che il sistema operativo della console (e dalle app in background) si ritaglia per se dai 16gb totali, NON rende il resto memoria video, perchè il gioco non è fatto solo di texture ma vi è anche tutto il codice sorgente base che lo fa funzionare nel suo complesso (fisica, audio, interfacce i/o, IA, calcolo danni ecc.) e non occupa 10mb e via :doh:
E' chiamata graphic memory perché è il "pool" più veloce, ma poi il sistema può vedere la memoria come unica. :)
E' solo una definizione commerciale..
La SeriesX ha realisticamente più di 10GB solo per la grafica, 11..12.. chi lo sa..
E' una definizione TECNICA, non commerciale.. e peccato che col resto devi farci anche altro poll unico o meno (vedi sopra ma come anche detto prima) e che abbiano una banda ridotta rispetto la memoria destinata al frame buffer e pure condivisa con la CPU...utilissimo come frame buffer col freno a mano tirato 2 volte (lower bandwitdh + condivisione della stessacon la cpu) e sottraendo risorse al resto del codice di gioco, nevvero? :D "realisticamente" non significa nulla, anzi se vogliamo usarlo quel termine è più realistico (o meglio, reale) quanto da me espresso visto che un gioco ha un complesso sistema di dati che funziona, e che va caricato in memoria, non solo la componente grafica del gioco.
Certo ben più degli 8 della tua 3070. :D
Comunque ho già lanciato la scommessa, a Giugno 2023 i tuoi 8GB non basteranno più anche a 1440p.
Chi accetta la scommessa? :sofico: :sofico: :sofico:
Peccato che la mia lato potenza la metta a pecora, sia in raster che in rt la series x, e che le tue sono considerazioni basate sull'aria fritta appunto (scommessa/divinazione) e che...i miei 8gb basteranno a lungo ad asfaltare la tua 570 dalla quale mi perculi :O :read: :Prrr: :ciapet: :asd:
Ale55andr0
23-03-2021, 10:51
La penso come te, se penso che con una RX580 8GB oggi a The Division2 su ultra un po' rivisto e effetti maxati la memoria si attesta intorno ai 7Gb in FHD, ci puo' stare che a 1440 tra qualche anno non basteranno.
1) si fa ancora confusione fra memoria allocata e memoria realmente richiesta
2) tra "qualche anno" si cambia scheda se non l'intero pc, mica si è sposati con la gpu :asd: di solito a me durano 2, massimo 2.5 anni e con una gpu media di oggi, se vuoi giocare "no compromise" domani (ma pure ora, e con schede migliori...) ci farai/faremo nulla anche se ne avesse 64 di gb :asd:
Free Gordon
23-03-2021, 12:36
Peccato che la mia lato potenza la metta a pecora, sia in raster che in rt la series x, e che le tue sono considerazioni basate sull'aria fritta appunto (scommessa/divinazione) e che...i miei 8gb basteranno a lungo ad asfaltare la tua 570 dalla quale mi perculi :O :read: :Prrr: :ciapet: :asd:
Ho capito... :O non vuoi scommettere, tieni paura che c'ho ragggione. :oink: :sofico:
PS: 570 che mi terrò stretto ancora per molto dato che a quanto pare nei minimi per "RE: Village" c'è la 560. :rotfl:
Ale55andr0
23-03-2021, 14:12
Ho capito... :O non vuoi scommettere, tieni paura che c'ho ragggione. :oink: :sofico:
PS: 570 che mi terrò stretto ancora per molto dato che a quanto pare nei minimi per "RE: Village" c'è la 560. :rotfl:
Non ci azzecca nulla la ram, da qui a 2 anni tutte le schede di quella potenza li saranno "fermacarte" coi titoli più pesanti (e la 6700xt più della 3070 visto che in rt, che ormai viene implementato ovunque, va' uno schifo) ma NON per la ram, ma perchè non produrranno un frame rate sufficiente per limiti di potenza computazionale...
Con la 570 dovresti poter riuscire a giocare coi titoli nex gen a 720p cmq, anche se gli 8gb sono per il 1440p eh... :O
cronos1990
24-03-2021, 13:00
E' chiamata graphic memory perché è il "pool" più veloce, ma poi il sistema può vedere la memoria come unica. :)
E' solo una definizione commerciale..
La SeriesX ha realisticamente più di 10GB solo per la grafica, 11..12.. chi lo sa..
Certo ben più degli 8 della tua 3070. :D
Comunque ho già lanciato la scommessa, a Giugno 2023 i tuoi 8GB non basteranno più anche a 1440p.
Chi accetta la scommessa? :sofico: :sofico: :sofico:Certo, poi immagino che il Sistema Operativo e tutto il resto del gioco che non sono texture, oltre ai vari servizi e programmini che girano di continuo, usano come memoria direttamente il cervello del giocatore tramite collegamento con cavo USB :asd: E ancora a parlare di scommesse basate su fantasie che al massimo vanno bene su un sito di Giochi di Ruolo.
Capito che il forum sia libero a chiunque, ma ci si aspetterebbe un minimo di "competenza tecnica" su uno come questo.
Però si, scommettiamo che 8 GB di RAM non bastano per il 1440p... lo sai poi che per il 4K a quel punto non te ne bastano 20? :asd: Poi lo spieghi tu a Microsoft e Sony come far girare i giochi sulle loro console :asd:
Gyammy85
24-03-2021, 14:30
Certo, poi immagino che il Sistema Operativo e tutto il resto del gioco che non sono texture, oltre ai vari servizi e programmini che girano di continuo, usano come memoria direttamente il cervello del giocatore tramite collegamento con cavo USB :asd: E ancora a parlare di scommesse basate su fantasie che al massimo vanno bene su un sito di Giochi di Ruolo.
Capito che il forum sia libero a chiunque, ma ci si aspetterebbe un minimo di "competenza tecnica" su uno come questo.
Però si, scommettiamo che 8 GB di RAM non bastano per il 1440p... lo sai poi che per il 4K a quel punto non te ne bastano 20? :asd: Poi lo spieghi tu a Microsoft e Sony come far girare i giochi sulle loro console :asd:
Si ma non mettetevi mani e piedi a difendere a tutti i costi nVidia perché da quattro anni fa VGA nell'intorno degli 8 giga
StylezZz`
24-03-2021, 20:30
Si ma non mettetevi mani e piedi a difendere a tutti i costi nVidia perché da quattro anni fa VGA nell'intorno degli 8 giga
https://i.imgflip.com/530ee2.jpg
Free Gordon
25-03-2021, 01:26
Non ci azzecca nulla la ram, da qui a 2 anni tutte le schede di quella potenza li saranno "fermacarte" coi titoli più pesanti (e la 6700xt più della 3070 visto che in rt, che ormai viene implementato ovunque, va' uno schifo) ma NON per la ram, ma perchè non produrranno un frame rate sufficiente per limiti di potenza computazionale...
Con la 570 dovresti poter riuscire a giocare coi titoli nex gen a 720p cmq, anche se gli 8gb sono per il 1440p eh... :O
Certo, poi immagino che il Sistema Operativo e tutto il resto del gioco che non sono texture, oltre ai vari servizi e programmini che girano di continuo, usano come memoria direttamente il cervello del giocatore tramite collegamento con cavo USB :asd: E ancora a parlare di scommesse basate su fantasie che al massimo vanno bene su un sito di Giochi di Ruolo.
Capito che il forum sia libero a chiunque, ma ci si aspetterebbe un minimo di "competenza tecnica" su uno come questo.
Però si, scommettiamo che 8 GB di RAM non bastano per il 1440p... lo sai poi che per il 4K a quel punto non te ne bastano 20? :asd: Poi lo spieghi tu a Microsoft e Sony come far girare i giochi sulle loro console :asd:
niente.. :( tutti e due non volete scommettere ma siete strasicuri delle vostre idee. :sofico:
Certo, poi immagino che il Sistema Operativo e tutto il resto del gioco che non sono texture, oltre ai vari servizi e programmini che girano di continuo, usano come memoria direttamente il cervello del giocatore tramite collegamento con cavo USB :asd: E ancora a parlare di scommesse basate su fantasie che al massimo vanno bene su un sito di Giochi di Ruolo.
Capito che il forum sia libero a chiunque, ma ci si aspetterebbe un minimo di "competenza tecnica" su uno come questo.
Però si, scommettiamo che 8 GB di RAM non bastano per il 1440p... lo sai poi che per il 4K a quel punto non te ne bastano 20? :asd: Poi lo spieghi tu a Microsoft e Sony come far girare i giochi sulle loro console :asd:Beh, ipotizzare anche solo per scherzo un salto da 8GB a 20 solo per lo scattino da 1440p a 4K è sicuramente sinonimo di competenza, eh.
Dimmi, fenomeno metereologico, quanda ne serviva prima dell'uscita delle ultima econsole? Bastavano 4GB? Ma manco per il...
Ma poi, non è ma anche fosse: Come razzo fai a sapere gli asset che andranno in gira tra un anno? Il PC non pè sempre stato abituato al meglio sopra le console? (devo citare la listona di titoli che su PC vantano texture e/o normal map di altro livello mod esclusi? Spero di no, se non per perdere tempo)
Se tra un anno 8 GB non basteranno ci penserai tu a iniettare altri 4GB, o la butterai come i classici che parlano solo finché conviene? Perché la RX-580 da 8GB oggi si può permettere di maxare gli asset come la 3070, qualora qualche fenomenone pensi ancora che te la sbatteresti, e non è manco uscita l'altro ieri, pensa un po', o meglio, comincia a pensare... :rolleyes:
Il discorso è stato affrontato xx volte, ma tanto conviane partire daccapo a chi non vuol capire, nevvero?
Ripeto all'enn... : Finalmente con la 3070 gli 8GB hanno un senso, eh, prima era sprecata, nevvero-2?
Veramente non capisco come qualunque sicuramente ignaro possa cercare di garantire quello che non si può, ma si fa per dire, la partigianeria a chiacchiere garantisce da un millennio, nevvero-3?
Un minimo di competenza tecnica non ti dà ragione a prescindere, qualora quello di sopra necessiti del 4! :fagiano:
Gyammy85
25-03-2021, 08:00
https://i.imgflip.com/530ee2.jpg
Contenti voi
niente.. :( tutti e due non volete scommettere ma siete strasicuri delle vostre idee. :sofico:
Tanto fra un anno svendita sul mercatino e via di f5 per la 4080 a seiquattronove (max 10 giga se no scaffaleh)
StylezZz`
25-03-2021, 08:31
Contenti voi
Ma io aspetto la 3070 Super da 10Gb, se mai la faranno (e se sarà disponibile :asd:).
Gyammy85
25-03-2021, 08:36
Ma io aspetto la 3070 Super da 10Gb, se mai la faranno (e se sarà disponibile :asd:).
Tranquillo la 3070ti sembra avrà 8 giga :asd:
StylezZz`
25-03-2021, 08:40
Tranquillo la 3070ti sembra avrà 8 giga :asd:
No infatti non mi interessa.
Ale55andr0
25-03-2021, 08:41
niente.. :( tutti e due non volete scommettere ma siete strasicuri delle vostre idee. :sofico:
veramente l'ho bello che scritto che non sarà così, cosa vuoi che conti dirla con "scommetto che" con un tizio a caso su internet come se in caso pagherei qualcosa davvero o viceversa ti chiederei io i soldi se avessi ragione io :asd:
Allora ok, "scommetto che" la 3070 continuerà a star davanti alla 6700xt a prescindere dagli 8gb per i prossimi 24 mesi (cioè più o meno la durata di una gpu nel mio PC da anni a questa parte), contento? :friend:
Ah ora che l'ho detto così sono strasicuro, prima no invece :sbonk:
Ale55andr0
25-03-2021, 08:47
Ma io aspetto la 3070 Super da 10Gb, se mai la faranno (e se sarà disponibile :asd:).
gli ultimi rumors la danno sempre per 8 (comunque "ti" non super), posto che teoricamente se mantengono il chip così com'è solo abilittando tutti i cc non possono cmq montarne 10, devono passare a 16 ma la vedo improbabile con la 3080Ti da 12 (sempre da ultimi rumors) che ha più senso lato costi e prestazioni rispetto una 20gb (bus a 384bit invece che da 320bit, quindi più banda)
StylezZz`
25-03-2021, 08:53
gli ultimi rumors la danno sempre per 8 (comunque "ti" non super), posto che teoricamente se mantengono il chip così com'è solo abilittando tutti i cc non possono cmq montarne 10, devono passare a 16 mal a vedo improbabile con la 3080Ti da 12 (sempre da ultimi rumors)
Una 3080 castrata non mi dispiacerebbe, l'hanno già fatto con la 2080 ed è venuta fuori la 2070S.
veramente l'ho bello che scritto che non sarà così, cosa vuoi che conti dirla con "scommetto che" con un tizio a caso su internet come se in caso pagherei qualcosa davvero o viceversa ti chiederei io i soldi se avessi ragione io :asd:
Allora ok, "scommetto che" la 3070 continuerà a star davanti alla 6700xt a prescindere dagli 8gb per i prossimi 24 mesi (cioè più o meno la durata di una gpu nel mio PC da anni a questa parte), contento? :friend:
Ah ora che l'ho detto così sono strasicuro, prima no invece :sbonk:
Ti esponi parecchio.... Dai test la RX6700XT e' uguale alla 3070 in alcuni casi va di piu' in altri un po' meno ma siamo li' a 1440.
Per l'RT non mi espongo so che le NVIDIA vanno di piu' ma per tirare le somme si dovra' aspettare l'FSR di AMD e poi il confronto avra' un senso.
coschizza
25-03-2021, 10:31
Ti esponi parecchio.... Dai test la RX6700XT e' uguale alla 3070 in alcuni casi va di piu' in altri un po' meno ma siamo li' a 1440.
Per l'RT non mi espongo so che le NVIDIA vanno di piu' ma per tirare le somme si dovra' aspettare l'FSR di AMD e poi il confronto avra' un senso.
non serve aspettare l'FSR comunque l'rt è una spanna inferiore
Ale55andr0
25-03-2021, 10:45
Ti esponi parecchio.... Dai test la RX6700XT e' uguale alla 3070 in alcuni casi va di piu' in altri un po' meno ma siamo li' a 1440.
Per l'RT non mi espongo so che le NVIDIA vanno di piu' ma per tirare le somme si dovra' aspettare l'FSR di AMD e poi il confronto avra' un senso.
nella maggior parte degli scenari è dietro, e in rt viene appecorata. L'andamento sarà quello per il resto della loro "carriera". L'FSR non lo considero per sbaglio come manco il DLSS, non mi piacciono le fake resolution, sono un compromesso più o meno valido quando proprio hai a che fare con un mattone ma sempre compromesso resta, non un indice prestazionale che fa testo (se "bari" renderizzando a una risoluzione inferiore grazie al piffero che vai più forte...), e lo dico "contro il mio interesse" avendo su il DLSS con una 3070 e che per giunta si appoggia a unità specifiche del chip a differenza di AMD
Ale55andr0
25-03-2021, 10:48
Una 3080 castrata non mi dispiacerebbe, l'hanno già fatto con la 2080 ed è venuta fuori la 2070S.
non è una 3080 castrata, ma un full 3070, cioè da 5888CC passa a 6144CC (che sono già presenti ma disattivi nella 3070)
nella maggior parte degli scenari è dietro, e in rt viene appecorata. L'andamento sarà quello per il resto della loro "carriera". L'FSR non lo considero per sbaglio come manco il DLSS, non mi piacciono le fake resolution, sono un compromesso quando proprio hai a che fare con un mattone, non un indice prestazionale che fa testo, e lo dico "contro il mio interesse" (avendo su il DLSS con una 3070 e che per giunta si appoggia a unità specifiche del chip a differenza di AMD)
Non so dove tu abbia visto i TEST, io li ho visti su youtube e non mi sembra proprio che sia cosi'.
Per l' RT non lo saprai finche' non uscira' l'FSR, poi avrai ragione magari ma ad oggi solo chiacchiere da BAR perche' i test vanno fatti a parita' di condizione e non basandosi su quello che puo' fare una scheda attuale e quello che puotr' fare una scheda tra qualche mese.
Sicuramente da quello che ho letto le due tecnologie DLSS e FSR si basano su due differenti "modi" di porsi nei giochi con RT, ma personalmente tirero' le somme solo quando vedro' ralmente la differenza anche a livello visivo/fps.
StylezZz`
25-03-2021, 11:28
non è una 3080 castrata, ma un full 3070, cioè da 5888CC passa a 6144CC (che sono già presenti ma disattivi nella 3070)
Forse non mi sono spiegato bene, intendevo dire che non mi dispiacerebbe se nvidia lanciasse una 3080 castrata (GA102) e la chiamasse ''3070 Super'' come ha già fatto con la 2080.
Ale55andr0
25-03-2021, 11:52
Non so dove tu abbia visto i TEST, io li ho visti su youtube e non mi sembra proprio che sia cosi'.
Per l' RT non lo saprai finche' non uscira' l'FSR, poi avrai ragione magari ma ad oggi solo chiacchiere da BAR perche' i test vanno fatti a parita' di condizione e non basandosi su quello che puo' fare una scheda attuale e quello che puotr' fare una scheda tra qualche mese.
Sicuramente da quello che ho letto le due tecnologie DLSS e FSR si basano su due differenti "modi" di porsi nei giochi con RT, ma personalmente tirero' le somme solo quando vedro' ralmente la differenza anche a livello visivo/fps.
la scheda ha la stessa archiettura delle 6800 che sono uscite da qualche tempo, cosa ti aspetti che cambi? Che in rt siano nettamente inferiori non lo dico io, lo dice il 3dmark senza alcun logo verde a cui aggrapparsi...
Ale55andr0
25-03-2021, 11:54
Forse non mi sono spiegato bene, intendevo dire che non mi dispiacerebbe se nvidia lanciasse una 3080 castrata (GA102) e la chiamasse ''3070 Super'' come ha già fatto con la 2080.
Ah, boh, si vedrà, di certo è nel loro interesse vendere quanto più possibile, scarti (degli scarti) inclusi, ma... ora il contesto non lo permette, voglio dire, non ci sono nemmeno le schede lisce, proporre nuovi modelli presenti solo sulla carta e agli influencer/youtuber appare come inutile vaporware
cdimauro
26-03-2021, 05:25
la scheda ha la stessa archiettura delle 6800 che sono uscite da qualche tempo, cosa ti aspetti che cambi? Che in rt siano nettamente inferiori non lo dico io, lo dice il 3dmark senza alcun logo verde a cui aggrapparsi...
Esatto. Ma poi che logica sarebbe quella di aspettare il futuro (indeterminato, visto che non hanno nemmeno iniziato a lavorarci, come da ultima notizia circolata in merito qualche giorno fa) FSR quando si parla esclusivamente di RT, quando nVidia ormai da anni propone ANCHE il DLSS, che peraltro è accelerato in hardware da unità dedicate?
Un completo non-sense.
Il RT si confronta ORA, con le attuali unità di calcolo dedicate, e quello di AMD è oggettivamente nonché nettamente inferiore alla controparte di nVidia. Punto.
Gyammy85
26-03-2021, 09:47
Sta storia delle unità dedicate dlss mi ricorda tanto quando nvidia faceva le gpu con 6-8 geo che massacravano amd perché erano tanti tanti di più, poi è bastato fare un passetto avanti nella programmazione (vedi wolfenstein 2 e simili, l'engine prima preso a pernacchie poi diventato wow perché nvidia ci bencha turing e ampere "guardate, la nostra architettura del 2019 va meglio dell'architettura del 2009 del 2016") per rendere del tutto inutili questi geo in più...vedete che fine fa adesso una 980ti vs una polaris qualunque...vedete la 1080ti vs una rdna/turing pari grado...
nickname88
26-03-2021, 10:22
Sta storia delle unità dedicate dlss mi ricorda tanto quando nvidia faceva le gpu con 6-8 geo che massacravano amd perché erano tanti tanti di più, poi è bastato fare un passetto avanti nella programmazione (vedi wolfenstein 2 e simili, l'engine prima preso a pernacchie poi diventato wow perché nvidia ci bencha turing e ampere "guardate, la nostra architettura del 2019 va meglio dell'architettura del 2009 del 2016") per rendere del tutto inutili questi geo in più...vedete che fine fa adesso una 980ti vs una polaris qualunque...vedete la 1080ti vs una rdna/turing pari grado...Quindi se è stato così in passato, deve esserlo sempre e per tutto ? Buono a sapersi :rolleyes:
cronos1990
26-03-2021, 10:31
Sta storia delle unità dedicate dlss mi ricorda tanto quando nvidia faceva le gpu con 6-8 geo che massacravano amd perché erano tanti tanti di più, poi è bastato fare un passetto avanti nella programmazione (vedi wolfenstein 2 e simili, l'engine prima preso a pernacchie poi diventato wow perché nvidia ci bencha turing e ampere "guardate, la nostra architettura del 2019 va meglio dell'architettura del 2009 del 2016") per rendere del tutto inutili questi geo in più...vedete che fine fa adesso una 980ti vs una polaris qualunque...vedete la 1080ti vs una rdna/turing pari grado...Con la differenza sostanziale che il DLSS è essenzialmente un'applicazione software, per cui puoi lavorare sotto quel punto di vista per ottenere qualcosa di prestazionalmente analogo (e beninteso: a distanza di anni dall'uscita del DLSS, AMD ancora NON ha nulla da mostrare).
Ma l'RT è un sistema che è estremamente esoso lato richieste hardware, se pensi che basti ritoccare i driver o fornire un firmware aggiornato mi sa che non hai capito nulla. Anche non considerando che Nvidia si è mossa palesemente in anticipo rispetto ad AMD (per tutta una serie di motivi, alcuni giustificabili e altri no), comunque la scelta di hardware dedicato per l'RT non è solo, o principalmente, una trovata per imporre le loro schede, costringendo ad una programmazione "ad hoc" per farla lavorare al meglio.
L'hardware dedicato in questo caso è necessario, e anche contando quello comunque senza il DLSS qualunque scheda fatica, e dato che siamo nel pieno della transizione delle console si può presumere che le difficoltà aumenteranno in maniera rapida ed evidente.
D'altronde basta vedere tutte le recensioni e i benchmark; anche senza il DLSS le schede AMD in RT sono nettamente dietro.
Non giriamo lo sguardo solo perchè ci fa comodo o abbiamo paura di ammettere certe cose. Finchè si tratta di raster le nuove soluzioni AMD e Nvidia sono in linea, le differenze sono minime e la scelta non determina sostanziali differenze lato utilizzo dell'acquirente.
Ma se si guarda l'RT, che più andremo avanti e più sarà presente nei videogiochi (e infatti oramai molti Tripla A lo inseriscono e in maniera sempre più ampia, e col tempo si allargherà anche a produzioni minori) Nvidia è nettamente avanti. E se ci metti pure il DLSS c'è una voragine.
C'è un motivo per cui l'RT esiste da 50 anni, eppure finora ha trovato applicazione nel campo videoludico da un paio d'anni e in maniera piuttosto blanda.
cdimauro
27-03-2021, 05:44
Sta storia delle unità dedicate dlss mi ricorda tanto quando nvidia faceva le gpu con 6-8 geo che massacravano amd perché erano tanti tanti di più, poi è bastato fare un passetto avanti nella programmazione (vedi wolfenstein 2 e simili, l'engine prima preso a pernacchie poi diventato wow perché nvidia ci bencha turing e ampere "guardate, la nostra architettura del 2019 va meglio dell'architettura del 2009 del 2016") per rendere del tutto inutili questi geo in più...vedete che fine fa adesso una 980ti vs una polaris qualunque...vedete la 1080ti vs una rdna/turing pari grado...
Ti hanno già risposto e concordo con loro, ma aggiungo che i possessori di schede nVidia si godono i giochi del e nel presente col meglio che la tecnologia offre, mentre gli altri passano il tempo ad aspettare il futuro...
Max Power
11-04-2021, 01:31
E' chiamata graphic memory perché è il "pool" più veloce, ma poi il sistema può vedere la memoria come unica. :)
E' solo una definizione commerciale..
La SeriesX ha realisticamente più di 10GB solo per la grafica, 11..12.. chi lo sa..
Certo ben più degli 8 della tua 3070. :D
Comunque ho già lanciato la scommessa, a Giugno 2023 i tuoi 8GB non basteranno più anche a 1440p.
Chi accetta la scommessa? :sofico: :sofico: :sofico:
Hai già vinto ;)
Max Power
11-04-2021, 01:35
bella barzelletta, hanno dichiarato cosa? chi? dove? :rotfl:: SOLO microsoft ha dichiarato ufficialmente qualcosa in merito, ed ha detto che ha 10gb di ram per la gpu ed è la più potente delle due macchine, peraltro...
Inoltre, sottrarre la memoria occupata che il sistema operativo della console (e dalle app in background) si ritaglia per se dai 16gb totali, NON rende il resto memoria video, perchè il gioco non è fatto solo di texture ma vi è anche tutto il codice sorgente base che lo fa funzionare nel suo complesso (fisica, audio, interfacce i/o, IA, calcolo danni ecc.) e non occupa 10mb e via :doh:
Il Sistema operativo di una console è ovviamente "semplificato", occupa poco.
L'esempio banale è qualcosa di completamente non ottimizzato per consolle:
Cyberpunk ultima patch su PS4 pro; confronta con un PC di fascia media di 5 anni fa. Per avere la stessa resa ti servono come minimo 8GB di sistema + 4 di VRAM.
Ma il PS4 Pro ha solo 8 GB totali. Questo è il caso peggiore.
E' comunque meglio prendere in considerazione Horizon ZD o Death strandings, un po più ottimizzati. Il discorso non cambia. A muovere l'occupazione in larga parte sono le texture. Ma le consolle per ovvi motivi che non conosci, data la tua risposta, hanno vantaggi sull'occupazione e gestione memoria RAM.
Max Power
11-04-2021, 01:51
Con la differenza sostanziale che il DLSS è essenzialmente un'applicazione software, per cui puoi lavorare sotto quel punto di vista per ottenere qualcosa di prestazionalmente analogo (e beninteso: a distanza di anni dall'uscita del DLSS, AMD ancora NON ha nulla da mostrare).
Ma l'RT è un sistema che è estremamente esoso lato richieste hardware, se pensi che basti ritoccare i driver o fornire un firmware aggiornato mi sa che non hai capito nulla. Anche non considerando che Nvidia si è mossa palesemente in anticipo rispetto ad AMD (per tutta una serie di motivi, alcuni giustificabili e altri no), comunque la scelta di hardware dedicato per l'RT non è solo, o principalmente, una trovata per imporre le loro schede, costringendo ad una programmazione "ad hoc" per farla lavorare al meglio.
L'hardware dedicato in questo caso è necessario, e anche contando quello comunque senza il DLSS qualunque scheda fatica, e dato che siamo nel pieno della transizione delle console si può presumere che le difficoltà aumenteranno in maniera rapida ed evidente.
D'altronde basta vedere tutte le recensioni e i benchmark; anche senza il DLSS le schede AMD in RT sono nettamente dietro.
Non giriamo lo sguardo solo perchè ci fa comodo o abbiamo paura di ammettere certe cose. Finchè si tratta di raster le nuove soluzioni AMD e Nvidia sono in linea, le differenze sono minime e la scelta non determina sostanziali differenze lato utilizzo dell'acquirente.
Ma se si guarda l'RT, che più andremo avanti e più sarà presente nei videogiochi (e infatti oramai molti Tripla A lo inseriscono e in maniera sempre più ampia, e col tempo si allargherà anche a produzioni minori) Nvidia è nettamente avanti. E se ci metti pure il DLSS c'è una voragine.
C'è un motivo per cui l'RT esiste da 50 anni, eppure finora ha trovato applicazione nel campo videoludico da un paio d'anni e in maniera piuttosto blanda.
Non è esattamente cosi.
AMD, anticipando di 6 mesi il DLSS2, ha pubblicato e reso funzionale il FIDELITY FY CAS che combinato col DRS, dà ottimi risultati senza HW dedicato.
Prendi un titolo "non AMD" come Cyberpunk, trovi decine di video su youtube...
Per quanto riguarda il ray tracing: quasi la totalità dei titoli fanno parte del programma Nvidia: sono stati creati per le schedere RTX.
Quando ci saranno i titoli AMD la situazione sarà più "equa".
Forse ad ora c'è solo DIRT 5 https://www.youtube.com/watch?v=5X8epi7Phrw o poco altro.
bagnino89
11-04-2021, 09:51
Ma ancora si paragona il Fidelity CAS al DLSS?
Sono tecnologie completamente diverse.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.