Quote:
|
Quote:
sotto la gpu ad esempio io ho 2 ventole, quindi se avesse il problema del sag la mia unica soluzione sarebbe quella dei bracket nel caso mettere 1-2 bracket pci segati potrebbe essere una soluzione, al momento però non ho sag quindi lascio stare così |
Quote:
Cmq ho tolto via quel dildo erreggibbi e seppur neanche servirebbe più di tanto alla mia Gaming Z Trio, ho shoppato a poco un cosetto cosi' Quel poco di rosso ci sta con le nostre rosse inoltre era l'unico che mi e' piaciuto tra la baia ed amazzonia. |
mi piace, è erotico :O
|
Quote:
Quote:
Ok allora siamo lì dai, tra l'altro vedo che abbiamo un pc molto simile (almeno come accoppiata cpu+gpu :D ), giochi per caso a new world? |
Quote:
ma su warzozzo e mw2019 non ho mai visto quelle temp, anzi praticamente non le ho mai cacate, ma su hwinfo e gpu-z i gradi son sempre andati in coppia, non in trenino vero che su sto mw ci sono molti effetti volumetrici e palle varie, oltre al fatto che è bello buggato, magari con qualche patch e driver andrà meglio, intanto faccio un salto su battlefield a vedere com'è |
Rag' cosa ne pensate dei Raiser Cable tipo questi sotto ?
https://www.coolermaster.com/catalog...-40-x16-300mm/ https://www.amazon.it/EZDIY-FAB-Vert...95558017&psc=1 Avevo pensato a questo: https://www.coolermaster.com/catalog...holder-kit-v3/ Secondo voi c'e' un calo di prestazioni lato GPU ? |
Quote:
|
Quote:
Ero orientato a questo https://www.coolermaster.com/catalog...it-v2-pcie-40/ o questo https://www.coolermaster.com/catalog...holder-kit-v3/ |
Quote:
Funzionano tutti bene ugualmente....l'unica differenza puo essere la lunghezza dei cavi e la relativa rigidita che a seconda di come/dove devi montare la scheda video potrebbe dare fastidio. Detto questo, prendi quello "certificato" pciex 4 che ti piace di piu. :D |
La RX 6600, soprattutto quella della Asus, mi sembra sia in rotta di prezzo descrescente da giorni, ora si trova a meno di 270 euro. E' molto simile al prezzo che pagai all'epoca (si parla di preistoria, oh) per la mia RX 480.
Mi chiedo se per caso la Asus abbia smesso di farle, e i negozi vogliono sbolognare le scorte rimaste. Vorrei almeno aspettare il Black Friday per vedere se arriva a 240 euro... per quel prezzo, forse la prenderei davvero. Non è che sarebbe un miglioramento così notevole, ma il problema è che le schede superiori (tipo la 6600 XT e 6700) non stanno calando nemmeno lontanamente. |
Quote:
Oppure ti tappi il naso e ne acquisiti una a prezzo decente. Io ho fatto cosi' e cioe' il mese scorso ho messo mano a 580€ e mi sono portato a casa una bella RED DEVIL 6700XT che per me e' piu' che sufficiente per giocare in FHD per i prossimi anni con l'HW che ho attualmente. Poi magari l'anno prossimo escono le 7700 e le 7600 a prezzi buoni forse, pero' a forza di aspettare rischi sempre di rimanere al palo. ;) |
Quote:
|
Quote:
L'ultimo The Witcher tutto su ultra sono inteorno ai 170/205 FPS (dipende dalle scene) The division 2 tutto su ultra 130/160 FPS Cyberpunk 2077 su ultra sono tra i 75/90 FPS God of WAr che secondo me e' ottimizzato male (perche' tutto su ultra non rende visivamente come gli altri giochi) intorno ai 100FPS WWII Tutto su ultra intorno ai 120FPS Altri Test come 3dmark, unreal etc. mi hanno fatto fare un balzo in avanti di almeno il triplo se non iul quadruplo rispetto alla RX580. Insomma il 1700X a 3.8 ancora regge poi va be le ultime CPU sicuramente danno un boost maggiore ma al momento diciamo che "mi accontento" cosi. ;) Sono contento della scelta fatta e la rifarei, al momento aspetto poi montero' il max che posso sulla mia mobo per giocare il 5800X3D e via:D |
Quote:
Fra l'altro, la vedo dura che le 7600 e 7700 saranno lanciate in tempi brevi... o ad un buon prezzo. E considerando che i leak dicevano che il design chiplet sarebbe stato usato solo nelle RDNA3 di fascia alta, mi sa che non ci sarebbe lo stesso miglioramento. Magari finisce che la 7600 si comporta come una 6600 XT, allo stesso prezzo e con solo consumi un po' inferiori :fagiano: Per mia fortuna sto ancora con un 1080p (ultrawide, ma comunque ben sotto a 1440p) a 60hz. Potrei farmi bastare perfino una 6600, in fondo? Sono abituato a non giocare a dettagli massimi, e presumo che anche una scheda come quella farebbe girare abbastanza bene i giochi che usciranno esclusivamente sulle nuove console. In fondo è quello che conta: reggere fino alla fine della generazione. Dopo si vedrà. Ma quasi quasi aspetto a Dicembre lo stesso, che mi arriva il rimborso delle tasse :p |
Quote:
|
Quote:
|
Quote:
La 6600 è appena giusta per fullhd 16:9 Adesso la xt la trovi a poco più di 300 nuova |
mi date un consiglio su come impostare mass effect ?
attualmente in VSR a 1440p ho il freesync attivo, monitor 144hz ed ho messo il limite degli fps a 144 in game...non so a me pare di vedere un leggero tearing (ma non ne sono sicuro)...il fatto è che non mi sembra del tutto fluido se muovo il mouse velocemente se imposto a 240 gli fps salgono ma sale anche la gpu che mi consuma inutilmente watt non so devo attivare il vsync oppure limitare fps da adrenalin ?? (che poi dovrebbero essere gia limitati a 141) |
Quote:
|
Quote:
E sì, probabilmente scenderanno di prezzo le 6000, magari non di tanto ma un calo è naturale |
Quote:
La 6600 cala perchè sta addirittura un po' sotto la fascia media (e ha una pessima reputazione), la 6700 XT cala perchè comunque sta abbastanza in alto, mentre la 6600 XT e la 6700 (per non parlare della 3060 Ti) secondo me resteranno dove sono per un bel po'. Fra un po' non varrà nemmeno la pena prendere la 6600 XT o 6700 liscia, visto che il loro prezzo è diventato vicinissimo alla 6700 XT. Ti aspetteresti di vederle calare di prezzo per compensare, e invece no. |
una rx6600/xt o una 6700 su pcie3 16x viene castrata?
|
Quote:
https://www.youtube.com/watch?v=zOnD_wzS1kQ |
Quote:
|
Ho una msi 6600xt gaming x. Anche a voi quando aprite un software Adobe le ventole vanno al massimo anche se l'uso della GPU è ridicolo (anche solo per visionare i PDF)?
|
La 6900 Red Devil è buona?
|
Quote:
|
Quote:
controlla nel pannello adrenaline se l'applicazione viene riconosciuta come una scheda gioco, se sì imposta le ventole in modo da andare piu' piano se non viene riconosciuta, usa le impostazioni globali della scheda Quote:
|
Quote:
|
Quote:
ma adrenaline è un po' mestruoso, a volte fa quello che gli pare :stordita: |
https://www.igorslab.de/grafikkarten...zu-unmoeglich/
Interessantissimo articolo di igor su consumi veri e presunti su entrambe le serie nvidia e amd |
Quote:
lo sai che la mia soglia di attenzione è del 5% :asd: |
Quote:
|
Quote:
|
Che una cosa è parlare di consumi rilevati via software e un'altra del consumo reale solo che per i secondi servono attrezzature e conoscenze di un certo livello.
Non ho finito di leggere bene il tutto ma Igor segnalava anche che nei test da lui fatti la 4090 avendo qua e la dei cpu limit inficiava la rilevazione consumi essendo non pienamente utilizzata a differenza delle altre. Poi finisco l'articolo..... |
Quote:
c'è chi dice che la 4090 non sia cpu limited con un 13900k forse tra 1-2 gen di cpu sarà sfruttata a dovere e lì avremo già alimentatori sfx da 2000w |
Dovrebbe essere chiaro che non esistono regole sempre valide più che altro :stordita: la realtà è complessa e gli scenari da verificare sempre di più.....poi magari si scopre che non è la "potenza bruta" della 4090 il problema ma banalmente per limiti architetturali non riesce a esprimere il suo potenziale teorico
La risposta empirica l'avremo con il 7800X3D ma già un indizio lo daranno le recensioni delle 7900 a parità di piattaforma 13k o 7950x che sia....amd punta anche ad un ecosistema hw e software con AM5 e questo aggiunge un ulteriore complessità di analisi in queste comparazioni.... |
Quote:
|
Ma intendi adobe reader?!
|
Tutti gli orari sono GMT +1. Ora sono le: 10:18. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.