Recensione GeForce RTX 3060 Ti, veloce come una RTX 2080 Super

Vediamo come si comporta la nuova GeForce RTX 3060 Ti di Nvidia, nella versione Founders Edition. Molto simile alla RTX 3070, si presenta come un'ottima scheda per giocare con un frame rate elevato e dettagli alti a 1440p. La nuova scheda offre prestazioni simili alla RTX 2080 Super di precedente generazione, spesso è leggermente più veloce e ha un prezzo di listino quasi dimezzato.
di Manolo De Agostini pubblicato il 01 Dicembre 2020 nel canale Schede VideoGeForceAmpereNVIDIA
118 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoInfatti mi ero fatto un giro sul sito DE, ed effettivamente lì lo store c'è...ma era già finita
Nelle redazioni? Nell'immaginario collettivo? Sulla carta?
Continuano ad uscire una valanga di schede video che non si trovano e non è possibile acquistare da nessuna parte se non a prezzi folli da speculatori vari che si sono accaparrati l'esemplare rarissimo ed unico che è stato immesso sul mercato insieme ad altri 50/100 pezzi.
A me continua a sembrare una pagliacciata!
Tutti a dire che 10-12GB di vRAM sono pochi in 4K, ma molti dimenticano (non sanno, omettono) che praticamente i giochi che arrivano a saturare questi valori anche in 4K si contano sulle dita di una mano, e soprattutto che i giochi sono tarati per le console che hanno 16GB di RAM.
16 GB che però sono condivisi, per cui una buona parte vengono mangiati tra OS, Videogioco, Driver e altre applicazioni varie che girano sulla console. Ed ecco che quei 10-12 GB di Nvidia diventano una scelta logica.
Certo, questo non vuol dire che tutti i giochi da qui ai prossimi 6 anni avranno richieste inferiori di vRAM rispetto a queste schede, ma realisticamente parlando dubito che anche in 4K vedremo giochi che ne richiederanno di più, se non per uno sparuto numero limitato.
Non so quante volte devo ripetere che il paragone/riferimento con le console non dimostra quello che può sembrare superficialmente (come la vedi tu): La PS4-Pro su 8G ci fa stare l'OS più il necessario dedicato al processore (dove su PC si spreca di più per le ridondanze, ma sulla VRAM non si risparmia comunque); Ora, di quello che ne rimane per la classica VRAM da GPU a mò di PC, quanta ne salvi? Più o meno la metà? Con schede da 4GB si è sguazzato parecchio a 4K? La PS4-Pro ci andava solo tramite CB? Bene, ma non basta a colmare...
Intanto, ometti un piccolo dettaglio, ossia che con le console si parte da asset di livello PC poi si scala finché serve. Prendi SF-5, gioco che non ha asset da capogiro, eppure su PS4-Pro ha la metà delle texture meno risolute, fino ad arrivare a livelli pietosi in alcuni dettagli (un quarto; Cercali tu i dettagli del confronto), e quello è un gioco che è multipiatta col PC, perché su XBox manco è uscito...
Perndiamo un esempio multi tipo Dishonored-2:Guardati il paragone con la versione PS4-Pro per capire quando si possono scemare le texture se non si arriva... Si arriva fino ad un quarto della risoluzione PC, mica stoca... e quelle differenze si vedono pure a 5 metri dallo schermo, no sono razzatelle, alltro che ombrine lucidate... non a caso su PC maxato con 4GB comnpri un biglietto per la fiera dello stuttering in salmì... https://www.overclock3d.net/reviews...rmance_review/9
6GB a 1080p e solo un GB in più a 4K, tanto per far capire a chi non lo capisce che la qualità delle texture pista in testa alla risoluzione.
Il frainteso nasce dal fatto che a 4K texture di basso livello sono più biasimabili, però sono quelle che pesano molto più della risoluzione, che tra l'altro si può anche calcolare in rapporto senza dover vedere gli asset.
Ora-2: Considerando che con 4GB non reggevi a 1080p asset migliori delle console quando avevano 8GB in tutto, cosa ti fa pensare di poter continuare un paragone che nei fatti non è tale? Anzi, l'OS delle nuove console più o meno pesa sempre quello, quindi su 16GB la percentuale da considerare crescerà prevedibilmete, infatti nelle console da 8G la regola erano 5/5.5GB dedicati ai giochi, ora sono 13.5, come un minimo il doppio più un buon 20%, e tu con di meno pensi di poter andare avanti con asset migliori come lo erano quelli di prima su PC? Figurarsi quando parlimamo di pacchi di texture dedicati, sognateli per i primi periodi, e delle mod neanche conviene parlarne...
Questo è quello che razionalmente si può intuire. Non è legge, ma se qualcuno ha da apparecchiare qualcosa di meglio non ci faccia i complimenti... Ma deve piazzarlo bene, non facendo paragoni impropri che dimostrano il contrario della tesi che si vuole dimostrare.
Il resto sono chiacchiere per chiacchieroni romantici, trasportati da quello che vorrebbero convenisse non solo a loro...
ma tra 4k 60hz o 1080p 144hz io preferisco la seconda
Gioca ad un titolo pensato per x360 a 1440p per vedere quadno si stirano quegli asset si e no pari pari, già a 1080p ci perdi, ma se sei su PC e la distanza è quella, si può dire che è il male minore, ma mai che è meglio a prescindere.
Andando più a ritroso si può capire ancora meglio: Gioca a 1080p un titolo PS2, poi torna sul vecchio CRT in interlaciato per capire quando ci perdi pur vedendo annebbiato e sfarfallante. In Full HD, più che la qualità avrai amplificati i difetti e stirate le texture 512x512 quando andava bene (su XBox mediamente). Avrà meno aliasing, ma ancora sarà solo una parte di vantaggio sul carro delle perdite, senza considerare quanto aliasing si mangia un CRT interlacciato.
Ho un Philips CRT HD-Ready, che supporta i 720p/1080i tramite component e HDMI, ma effettivamente fa fatica ad arrivare ai 720p puri pesati. Beh, ci tengo sotto ancora l'x360, perché semplicemente la visione d'insieme non a eguali, e con giochi che hanno un 2x di AA diventa un 4x grasso grazie alla morbidezza tipica dei CRT. Non sarà nitidissimo, se ti avvicini si notano gli sfarfallamenti, ma l'insieme continua ad essere meglio, e non di poco. Tralascio la questione della resa cromatica e la profondità per me ancora ineguagliati, ma ammetto che quì c'è più margine.
Sono abituato anche a tarare monitor professionali da 3 cifre, quindi non parlo solo per nostalgia...
Oramai per coprire l'aliasing dovevi usare alti valori di MSAA che blurravano tutto e nonostante ciò gli oggetti in lontananza erano riprodotti da schifo per via dello scarso numero di pixels.
Ho avuto anche un 2K su 25" ( ho detto 25, non 27 ) e lì si che si poteva parlare di "godibilità" .... almeno per il parco titoli attuali.
4K in uno spazio ridicolo ? Con un 27" 4K l'aliasing a casa mia si nota ancora, infatti si continua ad utilizzare l'AA.
Sai cosa sono le texture (ma anche le normal map)? pensi di migliorarle stirandole? Prendi una foto a 800x600, piazzala su un CRT in maniera coerente, ossia che non deve interpolare fuori dal range come è costretto a fare un qualsiasi LCD (non si passa), guardala bene, poi attacca uno schermo a 4K è fai lo zoom fino a riempire, non serve averle di fiacno per capire l'immane differenza... Ecco, adesso considera che gli asset odierni è già tanto se soddisfano un quad HD, così forse capirai quanto tanto meno conta la densità quasi fine a se stessa.
In breve: La risoluzione è più fumo che arrosto. Specchietti per le allodole preparate a farli riflettere bene.
Oh, intendiamoci, tu puoi pure continuare a preferire la densità che ti inquadra tutto, come gli altri possono continuare a gradire quello che devia la visione d'insieme ottimale, più fortunati se non vedono le grate...
Non immagino la sofferenza se sei dovuto partire dall'SD. Non ti invidiavo...
See, vabbè, mò vedevi le noci a 1080p con un 23... Prima del full-hd giocavi dentro gli scacchi? Ma poi perché ti atteggi ad esperto quando dimostri implicitamente di non sapere di cosa parli? L'MSAA che blurra l'immagine? Ma de che? Lo sai che pizzica solo i contorni? Poi parli dell'AA in post processing odierno che peggiora pure l'8K? e parlo di nitidezza, perché dell'altro ne ho già parlato.
Sai cosa sono le texture (ma anche le normal map)? pensi di migliorarle stirandole? Prendi una foto a 800x600, piazzala su un CRT in maniera coerente, ossia che non deve interpolare fuori dal range come è costretto a fare un qualsiasi LCD (non si passa), guardala bene, poi attacca uno schermo a 4K è fai lo zoom fino a riempire, non serve averle di fiacno per capire l'immane differenza... Ecco, adesso considera che gli asset odierni è già tanto se soddisfano un quad HD, così forse capirai quanto tanto meno conta la densità quasi fine a se stessa.
In breve: La risoluzione è più fumo che arrosto. Specchietti per le allodole preparate a farli riflettere bene.
Oh, intendiamoci, tu puoi pure continuare a preferire la densità che ti inquadra tutto, come gli altri possono continuare a gradire quello che devia la visione d'insieme ottimale, più fortunati se non vedono le grate...
Non immagino la sofferenza se sei dovuto partire dall'SD. Non ti invidiavo...
Parli di textures e assets, peccato che i titoli anche di qualche anno fa prevedevano il supporto alla risoluzione 4K con textures adeguate.
Se non riesci a vedere gli oggetti in lontananza in un FPS o OpenWorld non è colpa mia.
L'MSAA non blurra l'immagine ? NOOOO di fatto è il principio sul quale agiscono questo tipo di filtri, e il bello è che su alcuni titoli nemmeno erano sufficienti a coprire l'aliasing. Figuriamoci poi sui titoli in cui i filtri previsti erano insufficienti come TW3 che su 1080 fungeva da cura per la stitichezza.
In breve: La risoluzione è più fumo che arrosto. Specchietti per le allodole preparate a farli riflettere bene.
Fatti un po' di esperienza anzichè parlare per sentito dire o per aver guardato di sfuggita, se non riesci a cogliere le differenze fra 4K e 1440p o ancora peggio 1080p vai da un oculista. Si guarda ho sofferto tantissimo dal passaggio 5 anni fa da 1080p a 1440p, come no credici.
Parli di textures e assets, peccato che i titoli anche di qualche anno fa prevedevano il supporto alla risoluzione 4K con textures adeguate.
Se non riesci a vedere gli oggetti in lontananza in un FPS o OpenWorld non è colpa mia.
L'MSAA non blurra l'immagine ? NOOOO di fatto è il principio sul quale agiscono questo tipo di filtri, e il bello è che su alcuni titoli nemmeno erano sufficienti a coprire l'aliasing. Figuriamoci poi sui titoli in cui i filtri previsti erano insufficienti come TW3 che su 1080 fungeva da cura per la stitichezza.
Quante stupidaggini, ora come ora il 4K è una delle risoluzione di riferimento, anzi è proprio quella di riferimento dei titoli odierni e soprattutto dei prossimi.
Fatti un po' di esperienza anzichè parlare per sentito dire o per aver guardato di sfuggita, se non riesci a cogliere le differenze fra 4K e 1440p o ancora peggio 1080p vai da un oculista. Si guarda ho sofferto tantissimo dal passaggio 5 anni fa da 1080p a 1440p, come no credici.
Ah, per inciso, 800x600 era un esempio pratico per cercare di farti capire quello che ancora non capisci. Le console SD era tanto se arrivavano a 640x480, e l'MSAA interviene sui bordi, non sull'insieme.
All'oculista vacci tu che non vedi cosa succede sullo schermo per te mai abbastanza risoluto, e gli asset da 4K da un pezzo è un pezzo che sono solo sulla tua testa. Te li mostro a 1440p poi te li stiro a 4K per farti vedere le differenze in peggioramento... Mica stai rispondendoti allo specchio.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".