![]() |
|
Quote:
|
Quote:
|
Quote:
|
Comunque secondo me le le Navi2 sono state sottovalutate un pò da tutti me compreso, ma soprattutto dalla stampa di settore.
Esempio la 6500xt e la 6400 vengono derise da tutti ma Nvidia nella stessa fascia cosa offre? La 1050ti e la 1650... Le 6600 liscia ed xt sono state etichettate come flop ma in realtà la 6600xt è una scheda davvero solida, molto più veloce della 3060 ad un prezzo simile. La 6700 forse quella meno a fuoco, eclissata dalla 6800 gran scheda, e poi c'è la nuova 6950xt, una accoglienza molto tiepida dalla stampa ma va quanto una 3090ti e costa 1300 euro meno, cioè costa un pc completo in meno e bene o male va uguale assurdo. Mentre la 3090ti nelle review WOW la nuova bestia!!! Maledetto Marketing anche io mi sono lasciato infinocchiare dalla 3060 una scheda davvero mediocre in 2k, colpa della pubblicità sull'RT che in quei 4 giochi manco la differenza fa...tipo dying light 2 dove con rt diventa ingiocabile e la grafica pare la stessa. |
Quote:
Quando uno ha 3060ti 3070 e 3070ti tutte da 8 giga la 6700xt è l'unica alternativa che consente di poter maxare tutto a 1440p senza crollare, fermo restando che overall offre il miglior rapporto perf/watt fra quelle tre Il resto sconta sempre il bias AMD che fa sempre schede inutili, difatti nvidia fa le 1630, con youtuber che stanno ancora a dire "rendetevi conto che amd mette i ray accelerators sulla 6400 :doh: :doh:" e cose così |
Quote:
|
Quote:
|
Quote:
|
Quote:
5700XT -> 6700XT + 30% di performance (spannometro) -> 449$ vs 479$ -> aumento di VRAM (8 vs 12GB) 5600XT -> 6600XT + 30% di performance (spannometro) -> 279$ vs 379$ -> aumento di VRAM (6 vs 8GB) 5500XT -> 6500XT - 15% di performance (computerbase) -> 199$ vs 259$ -> dimezzamento della VRAM (8 vs 4GB) Se andiamo a vedere più nel dettaglio la 6600XT vedremo che bisognerebbe confrontarla con la 5700 visto il prezzo. A quel punto hai: +18% di performance - 349$ vs 379$ -> stessa VRAM Un aumento misero dopo 2 anni secondo me. Tralasciando la 6500XT che è in realtà il chip dedicato per la 6400 |
Quote:
Per il resto, le unità nvidia e amd sono simili (entrambe dichiarano prestazioni circa 13 volte superiori per ray e triangle intersection rispetto alle unità generiche) La 6600xt è bloccata dai soli 32 mega di cache, dove risiedono praticamente tutti i dati per le bvh |
Quote:
Sempre che non vai a confrontare (stando ai prezzi) la 6500 con la 5600, perchè allora li sono dolori. |
AMD FineWine: https://youtu.be/rdBCB4Fm0RY?t=162
|
Quote:
Il progresso e lo sviluppo portano ad un aumento del realismo grafico. In questa generazione ci si è trovati ad un bivio in cui le possibilità erano due: miglioro gli asset di gioco per cui le risorse in più delle moderne GPU le sfrutto per aumentare il dettaglio; questo approccio necessita di una enorme mole di lavoro da parte degli sviluppatori per produrre asset migliori. Il secondo approccio è quello di introdurre il ray tracing per superare i limiti di screen space shadow maps, SSR e GI basata su voxel o blocchi; questo approccio porta ad un aggiunta di lavoro non eccessiva. A mio avviso il primo approccio porta a risultati visivi nettamente superiori: vedasi Horizon Forbidden West anche se siamo nel mondo console, oppure un MFS o un Forza Horizon 5. Il secondo approccio invece porta ad avere requisiti hw molto maggiori a fronte di miglioramenti si tangibili ma A MIO AVVISO, inferiori a quelli che si avrebbero andando a lavorare sugli asset. Questo approccio va tutto a vantaggio di Nvidia che così può promuovere schede come la 3090TI che in raster sarebbe del tutto inutile. Non parliamo poi della serie 4000 che non avrebbe senso di essere in sviluppo. AMD dalla sua promuove un approccio all'RT più conservativo di modo che l'impatto nei frames sia proporizionato al miglioramento dell'aspetto visivo. In poche parole che aspetto avrebbe un Cyberpunk se ci fossero asset di livello migliore al posto di avere l'RT? Stesso discorso potrei farlo per Dyingh Ligth 2... |
E in tutto ciò, oggi niente drop o me lo sono perso? :confused:
Per il resto, mi sembra che, soprattutto Nvidia, da anni oramai abbiano adottato un marketing stile Apple: ogni anno un prodotto nuovo, con un minimo in più, ma te lo vendo come "praticamente necessario" se vuoi continuare a giocare con una "bella grafica", ovviamente alzando i prezzi perché tanto tu, alla fine, comprerai. Dall'altra parte, AMD con le ultime generazioni ha, effettivamente, lavorato bene a livello di sviluppo, innovando rispetto alle precedenti (è pur vero che di margine da recuperare ce n'era). Ora a livello marketing si sta adattando. C'è da vedere Intel cosa farà, avendo anch'essa solo da migliorare considerando la velocità e la strada fatta dai competitor. Parlo da fruitore di Nvidia da sempre che sta pensando di provare AMD... |
Drop? Ci sono perennemente in stock le 6750 e le 6950, le altre sparite.:stordita:
|
Quote:
sulla 6950 ci va il bios della 6900 per farla minare come si deve, e a volte manco quello funziona 6750 perchè uno se la dovrebbe prendere, se trova a buon prezzo una 6700 e ci mette i preview di maggio ha perf gratis... |
Io avrò fatto una cazzata ma ieri ho preso la 6750...
|
Quote:
pensare che con 100 euro ci prendevi una mi8 :stordita: perchè al tempo non ho comprato una fury nano :muro: |
Quote:
|
Io faccio 30 fps a 4k rtx ultra, utilizzando il virtual super resolution sul monitor 1440p
|
Tutti gli orari sono GMT +1. Ora sono le: 12:31. |
|
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.