View Full Version : [Thread Ufficiale] - nVidia Ampere RTX 3000 series
Con Amazon puoi provare la sostituzione, se vedi che ne ha, indipendentemente dal prezzo, altrimenti ti prendi i soldi e compri altro se ti servisse subito.
Gia' provato ma mi hanno detto che non sostituiscono.
Ho provato anche a contattare l'assistenza Asus e mi hanno risposto che loro procedono alla sotituzione/riparazione dal terzo anno e devo contattare il venditore per i primi due anni,
Una risposta dissimile da quella che mi fu fornita qualche anno fa da un altro collega quando acquistai un 2080 Strix usata,dicendomi che potevo chiedere direttamente loro Rma in caso di guasto avendo acquistato da privato.
Cose da far accapponare la pelle :rolleyes:
Hw info mi indica 1,064V,435 W di assorbimento,Gpu a 82 gradi con ventole al 95% (86 gradi con profilo delle ventole attivato e 86% di rotazione) 84-88 gradi le ram e hotspot 104 gradi.
Hai la prova. 22 gradi di Delta tra hotspot e GPU sono pazzeschi, dovrebbe essere intorno ai 10-12 C se l'installazione del dissipatore fosse corretta.
Le temperature delle ram mi sembrano comunque alte.
Cambiala.
E avevo quei dubbi anche io con Amazon,sono riuscito a bloccare una tua 3080 a 1033 ma infatti era l ultima....per fortuna è andata bene
Si ma amazon oggi dice l'ultimo pezzo e dopo tre giorni ne spunta un altra.
Hai la prova. 22 gradi di Delta tra hotspot e GPU sono pazzeschi, dovrebbe essere intorno ai 10-12 C se l'installazione del dissipatore fosse corretta.
Le temperature delle ram mi sembrano comunque alte.
Cambiala.
Si infatti,Martedi e' previsto il corriere che me la ritira.
Avrei voluto dire al Super Tecnico dell'Asus che mi ha garantito che le temperature sono ottimali :" ma tu te la terresti una scheda grafica che per mantenere gli 82 gradi ti porta la ventola al 95% e profilo a default ???".
razor820
30-04-2022, 14:01
Se il dissi fosse posizionato male dovrebbe portare anche le temperature delle Ram elevate e invece siamo quasi come quella della Gpu....
Cio' mi fa propendere per la pasta messa male.
Mikael,la sistemo io ok....ma come faccio con quel sigillo sotto la staffa della Gpu?
Tu cosa faresti al posto mio?
E se pure,da temerario,rischiassi di violare il sigillo e non risolvo?
Mado....:muro:
L hai presa su amazon venduta e spedita da loro? Fidati quelli non controllano nemmeno se ha le ventole installate, figurati del bollino in quella vite. Che poi se fai attenzione riesci a non rovinarlo come ai tempi feci io con la 2080.
Hai un mese per fare il reso. Cambia la pasta, mettine qualcuna decente che non sia un arctic, testi per una settimana al limite fai il reso..
Tu giochi in 4k giusto? Calcola che a pari wattaggio in 4k mediamente è 4-5 gradi più calda
terranux
30-04-2022, 16:52
L hai presa su amazon venduta e spedita da loro? Fidati quelli non controllano nemmeno se ha le ventole installate, figurati del bollino in quella vite. Che poi se fai attenzione riesci a non rovinarlo come ai tempi feci io con la 2080.
Hai un mese per fare il reso. Cambia la pasta, mettine qualcuna decente che non sia un arctic, testi per una settimana al limite fai il reso..
Tu giochi in 4k giusto? Calcola che a pari wattaggio in 4k mediamente è 4-5 gradi più calda
e cosa avrebbe la arctic?
L hai presa su amazon venduta e spedita da loro? Fidati quelli non controllano nemmeno se ha le ventole installate, figurati del bollino in quella vite. Che poi se fai attenzione riesci a non rovinarlo come ai tempi feci io con la 2080.
Hai un mese per fare il reso. Cambia la pasta, mettine qualcuna decente che non sia un arctic, testi per una settimana al limite fai il reso..
Tu giochi in 4k giusto? Calcola che a pari wattaggio in 4k mediamente è 4-5 gradi più calda
Si.gioco in 4k.
Ma quei bollini si trovano in circolazione nel caso dovessi romperlo accidentalmente?
Se fosse un problema di pasta termica risolverei anche le temp e;levate delle Ram (88 gradi circa e hot spot di 104 gradi).
Grazie
razor820
30-04-2022, 18:17
e cosa avrebbe la arctic?
il conmtrolo qualità pessimo.
2/3 ordinate su amazon. o mx4 o altro modello sembrava fosse stata prodotta 10 anni fa, un mix di solido e liquido, per non parlare che quando trovi quella mediamente densa, rapportata con la nano cooler master gel che è quella che sto usando o con la classica thermal grizzly, la differenza di conduttività non è cosa da poco
Thunder-74
30-04-2022, 20:05
Si.gioco in 4k.
Ma quei bollini si trovano in circolazione nel caso dovessi romperlo accidentalmente?
Se fosse un problema di pasta termica risolverei anche le temp e;levate delle Ram (88 gradi circa e hot spot di 104 gradi).
Grazie
Io l ho comprato su eBay , ma il bollino presente sulla scheda è differente . Sono di quel tipo che si rompono subito come li tocchi, mentre quello comprato è in carta. Diciamo che per mandarla indietro ad Amazon va più che bene :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Io l ho comprato su eBay , ma il bollino presente sulla scheda è differente . Sono di quel tipo che si rompono subito come li tocchi, mentre quello comprato è in carta. Diciamo che per mandarla indietro ad Amazon va più che bene :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
A questo punto Amazon manco se ne accorge,se vogliamo.
Valutero',perche' non ho la sicurezza massima di risolvere smontando la scheda e ripastandola.
Mi sa che la rendo ad Amazon e ne riacquisto un'altra e che Dio me la mandi buona. :mc:
Si.gioco in 4k.
Ma quei bollini si trovano in circolazione nel caso dovessi romperlo accidentalmente?
Se fosse un problema di pasta termica risolverei anche le temp e;levate delle Ram (88 gradi circa e hot spot di 104 gradi).
Grazie
L'hotspot è sulla GPU, non sulle RAM. Giusto per puntualizzare.
Secondo me non hanno stretto abbastanza le viti del dissipatore, hai entrambe le temperature (sia ram che del core) troppo alte come se il dissipatore non facesse bene contatto.
Se vuoi fare una roba strana gira il case sottosopra, in modo da avere il dissipatore che preme sul die. Se è un problema di tensione delle viti le temperature dovrebbero migliorare perchè la gravità preme sul dissipatore e lo schiaccia in posizione. Sembra una cavolata ma funziona.
amon.akira
30-04-2022, 22:32
L'hotspot è sulla GPU, non sulle RAM. Giusto per puntualizzare.
Secondo me non hanno stretto abbastanza le viti del dissipatore, hai entrambe le temperature (sia ram che del core) troppo alte come se il dissipatore non facesse bene contatto.
Se vuoi fare una roba strana gira il case sottosopra, in modo da avere il dissipatore che preme sul die. Se è un problema di tensione delle viti le temperature dovrebbero migliorare perchè la gravità preme sul dissipatore e lo schiaccia in posizione. Sembra una cavolata ma funziona.
io gli ho consigliato di provare a stringere le viti senza sigillo...dopo la testimonianza dell altro utente a cui si è proprio staccato il dissi dalla strix, controllerei a maggior ragione ^^'
io gli ho consigliato di provare a stringere le viti senza sigillo...dopo la testimonianza dell altro utente a cui si è proprio staccato il dissi dalla strix, controllerei a maggior ragione ^^'
Me l'ero perso!
Da quanto ho capito fanno sempre più fatica a trovare personale che voglia lavorare in catena di montaggio e serrare le viti del dissipatore viene fatto a mano perché è troppo delicata per un robot come operazione. Qualcuno aveva dimenticato di prendere il caffè quel giorno.:muro:
Me l'ero perso!
Da quanto ho capito fanno sempre più fatica a trovare personale che voglia lavorare in catena di montaggio e serrare le viti del dissipatore viene fatto a mano perché è troppo delicata per un robot come operazione. Qualcuno aveva dimenticato di prendere il caffè quel giorno.:muro:
Lol 😂
Fa strano che ci siano viti poco strette, non sarebbe la prima volta sia chiaro, ma non so quanto il problema possa esser questo.
Parliamo di una scheda da 1000euro, che diamine.
Se poi è questa la causa ottimo per l'utente
StrixyRoG
01-05-2022, 09:04
io gli ho consigliato di provare a stringere le viti senza sigillo...dopo la testimonianza dell altro utente a cui si è proprio staccato il dissi dalla strix, controllerei a maggior ragione ^^'
Le viti del dissipatore non si vedono perché sono all'interno, e potrebbe accorgersene se avesse un po' di gioco. In ogni caso le mie temperature erano nella norma, quindi vai a capire le cose strane che succedono. Ecco il fattaccio.
https://i.postimg.cc/VLTg7ys9/EB894-A2-B-8-B5-A-4932-93-FE-368-F875-ED351.jpg
amon.akira
01-05-2022, 10:56
a ok a te è successo che si è staccata la parte delle ventole dal dissi, che però era messo bene.
invece le viti principali che tengono il dissi alla scheda sono 6 (4+2) di cui una con sigillo.
Thunder-74
01-05-2022, 11:24
Ma aveva un crollo vertiginoso degli fps in Farcry 6,tipo 5-6 fps,per poi riprendersi?
Mi farebbe piacere che qualcuno potesse testare quel gioco con una 3080 da 10 gb e vedere le zone incriminate.
Io credo sia stato un caso che sia andato tutto lisco con la 3090…
Mio pensiero,eh :D
visto che Ubisoft fa provare il suo catalogo gratis per una settimana , ne ho approfittato... :fagiano:
https://i.ibb.co/6X4qr4c/1.png
visto che Ubisoft fa provare il suo catalogo gratis per una settimana , ne ho approfittato... :fagiano:
Bene bene :D
amon.akira
01-05-2022, 12:53
visto che Ubisoft fa provare il suo catalogo gratis per una settimana , ne ho approfittato... :fagiano:
vedi se c'è qualche modo di alzare la res ed arrivare a 8milioni di pixel
Thunder-74
01-05-2022, 12:56
Bene bene :D
prime impressioni.
Ho metto tutto su ultra, texture HD, con RT attivo alla mia res di 3840x1600.
Facendo partire il bench la Vram si satura tutta e verso la fine del bench, quando fa una panoramica con pozze d'acqua dove ci sono dei riflessi in RT, un lieve sturttering, si avverte. Attivando il FSR (il DLSS di AMD), lo stuttering non c'è, ma siamo ai limiti dei 10gb comunque.
Giocando un po', passando da citta al verde, il gioco mediamente gira bene. Ho notato solamente alcune volte che , pur non avendo la Vram satura, il frame rate crollava tipo a 8/ 10 fps inspiegabilmente. Tipo arrivo all'accampamento con 80 fps, ti metti al bancone per la modifica delle armi, quindi praticamente in un menu, esci dal bancone e li 8/10 fps, quando nulla era cambiato come complessità della scena rispetto a prima. In tale situazione ho provato a disattivare e riattivare il RT e per magia tutto è tornato come prima e stavo sui 9500mb di VRam.
Sicuramente in 4k 10gb non sono sufficienti per le texture HD se si vuole maxare tutto. A 1440p non ci dovrebbero essere problemi.
Credo che il titolo sia ottimizzato volutamente "male" per poter dar modo di giustificare i 16gb delle AMD. Se il gioco non fosse stato sponsorizzato da loro e avesse avuto il DLSS, il gioco girava anche su una 3070 con 8gb.
Sicuramente in 4k 10gb non sono sufficienti per le texture HD se si vuole maxare tutto. A 1440p non ci dovrebbero essere problemi.
Credo che il titolo sia ottimizzato volutamente "male" per poter dar modo di giustificare i 16gb delle AMD. Se il gioco non fosse stato sponsorizzato da loro e avesse avuto il DLSS, il gioco girava anche su una 3070 con 8gb.
Infatti le Texture Hd sono create appositamente per le Amd da 16Gb,io nemmeno le ho messe,le differenze come al solito saranno visibili con il microscopio
In generale non grida al miracolo lato grafica,ma nel complesso il colpo d'occhio è molto buono
A me il 5 non mi è piaciuto,mollato dopo 2-3 ore,ma questo riesce ad intrattenermi,certo son sempre le solite cose,ma il contesto insulare è il top per FC,infatti l'ho preso tanto oramai si trova a poco
Comunque ti fa provare il catalogo per una settimana,solo se non hai mai attivato Uplay+,se no nulla
razor820
01-05-2022, 13:55
prime impressioni.
Ho metto tutto su ultra, texture HD, con RT attivo alla mia res di 3840x1600.
Facendo partire il bench la Vram si satura tutta e verso la fine del bench, quando fa una panoramica con pozze d'acqua dove ci sono dei riflessi in RT, un lieve sturttering, si avverte. Attivando il FSR (il DLSS di AMD), lo stuttering non c'è, ma siamo ai limiti dei 10gb comunque.
Giocando un po', passando da citta al verde, il gioco mediamente gira bene. Ho notato solamente alcune volte che , pur non avendo la Vram satura, il frame rate crollava tipo a 8/ 10 fps inspiegabilmente. Tipo arrivo all'accampamento con 80 fps, ti metti al bancone per la modifica delle armi, quindi praticamente in un menu, esci dal bancone e li 8/10 fps, quando nulla era cambiato come complessità della scena rispetto a prima. In tale situazione ho provato a disattivare e riattivare il RT e per magia tutto è tornato come prima e stavo sui 9500mb di VRam.
Sicuramente in 4k 10gb non sono sufficienti per le texture HD se si vuole maxare tutto. A 1440p non ci dovrebbero essere problemi.
Credo che il titolo sia ottimizzato volutamente "male" per poter dar modo di giustificare i 16gb delle AMD. Se il gioco non fosse stato sponsorizzato da loro e avesse avuto il DLSS, il gioco girava anche su una 3070 con 8gb.
Ormai queste ottimizzazioni del cavolo ubisoft se li porta dietro da qualche anno. In quasi tutti i giochi AAA. Basta prendere per esempio anno 1800...
Che poi oltre a questo, 130gb.. Ma utilizzare la decompressione/compressione in real time delle texture? Lo fa pure una scatoletta da 500euro. Ormai la stragrande maggioranza degli utenti che prende questo genere di titoli esosi, nel pc ha come minino un ssd
prime impressioni.
Ho metto tutto su ultra, texture HD, con RT attivo alla mia res di 3840x1600.
Facendo partire il bench la Vram si satura tutta e verso la fine del bench, quando fa una panoramica con pozze d'acqua dove ci sono dei riflessi in RT, un lieve sturttering, si avverte. Attivando il FSR (il DLSS di AMD), lo stuttering non c'è, ma siamo ai limiti dei 10gb comunque.
Giocando un po', passando da citta al verde, il gioco mediamente gira bene. Ho notato solamente alcune volte che , pur non avendo la Vram satura, il frame rate crollava tipo a 8/ 10 fps inspiegabilmente. Tipo arrivo all'accampamento con 80 fps, ti metti al bancone per la modifica delle armi, quindi praticamente in un menu, esci dal bancone e li 8/10 fps, quando nulla era cambiato come complessità della scena rispetto a prima. In tale situazione ho provato a disattivare e riattivare il RT e per magia tutto è tornato come prima e stavo sui 9500mb di VRam.
Sicuramente in 4k 10gb non sono sufficienti per le texture HD se si vuole maxare tutto. A 1440p non ci dovrebbero essere problemi.
Credo che il titolo sia ottimizzato volutamente "male" per poter dar modo di giustificare i 16gb delle AMD. Se il gioco non fosse stato sponsorizzato da loro e avesse avuto il DLSS, il gioco girava anche su una 3070 con 8gb.
Il titolo è graficamente scandaloso secondo me. Tolto il RT è molto meglio FC 5.
mikael84
01-05-2022, 15:22
prime impressioni.
Ho metto tutto su ultra, texture HD, con RT attivo alla mia res di 3840x1600.
Facendo partire il bench la Vram si satura tutta e verso la fine del bench, quando fa una panoramica con pozze d'acqua dove ci sono dei riflessi in RT, un lieve sturttering, si avverte. Attivando il FSR (il DLSS di AMD), lo stuttering non c'è, ma siamo ai limiti dei 10gb comunque.
Giocando un po', passando da citta al verde, il gioco mediamente gira bene. Ho notato solamente alcune volte che , pur non avendo la Vram satura, il frame rate crollava tipo a 8/ 10 fps inspiegabilmente. Tipo arrivo all'accampamento con 80 fps, ti metti al bancone per la modifica delle armi, quindi praticamente in un menu, esci dal bancone e li 8/10 fps, quando nulla era cambiato come complessità della scena rispetto a prima. In tale situazione ho provato a disattivare e riattivare il RT e per magia tutto è tornato come prima e stavo sui 9500mb di VRam.
Sicuramente in 4k 10gb non sono sufficienti per le texture HD se si vuole maxare tutto. A 1440p non ci dovrebbero essere problemi.
Credo che il titolo sia ottimizzato volutamente "male" per poter dar modo di giustificare i 16gb delle AMD. Se il gioco non fosse stato sponsorizzato da loro e avesse avuto il DLSS, il gioco girava anche su una 3070 con 8gb.
Sono metodi per far aumentare l'allocazione di ram, creando una sorta di "mini" memory leak.
Quando si parlò di vram, lo dissi sempre, che questi mezzucci potevano impattare, ma che bastava solo levarle, tanto i giochi sono pensati per HD, max full hd.
Oltre tutto è paradossale, crei una base HD, o full HD per le vecchie console, poi ci spari texture a membro, giocando sul leak, quando pubblicizzi un gioco per 4k.
Io ricordo che con FC5, stavi sui 5gb ed 8gb di ram, mettevi le texture HD, tempo 0, mangiata sia la vram che la ram (memory leak).
Thunder-74
01-05-2022, 16:29
Sono metodi per far aumentare l'allocazione di ram, creando una sorta di "mini" memory leak.
Quando si parlò di vram, lo dissi sempre, che questi mezzucci potevano impattare, ma che bastava solo levarle, tanto i giochi sono pensati per HD, max full hd.
Oltre tutto è paradossale, crei una base HD, o full HD per le vecchie console, poi ci spari texture a membro, giocando sul leak, quando pubblicizzi un gioco per 4k.
Io ricordo che con FC5, stavi sui 5gb ed 8gb di ram, mettevi le texture HD, tempo 0, mangiata sia la vram che la ram (memory leak).
indubbiamente la sensazione di questi titoli è quella che si ha quando si prende un vecchio titolo e ci carichi sopra la classica mod con texture in hd.
E poi si, basterebbe implementare un sistema che va a liberare Vram periodicamente, invece la sensazione è che venga deliberatamente deciso di caricare roba in memoria con un limite superiore ai 10/12 gb per mettere in difficoltà nvidia.
Una risposta del supporto Ubisoft in merito...
Please note that if you are using a GPU with anything under 12GB VRAM, you will not be able to use the pack correctly. This is part of our minimum requirements. If you have less that 12GB of VRAM available, we would recommend uninstalling the HD texture pack.
If you have over 12GB VRAM but under 16GB VRAM, please lower your graphics settings to "High."
mikael84
01-05-2022, 17:14
indubbiamente la sensazione di questi titoli è quella che si ha quando si prende un vecchio titolo e ci carichi sopra la classica mod con texture in hd.
E poi si, basterebbe implementare un sistema che va a liberare Vram periodicamente, invece la sensazione è che venga deliberatamente deciso di caricare roba in memoria con un limite superiore ai 10/12 gb per mettere in difficoltà nvidia.
Una risposta del supporto Ubisoft in merito...
Please note that if you are using a GPU with anything under 12GB VRAM, you will not be able to use the pack correctly. This is part of our minimum requirements. If you have less that 12GB of VRAM available, we would recommend uninstalling the HD texture pack.
If you have over 12GB VRAM but under 16GB VRAM, please lower your graphics settings to "High."
Ed è quello.:) Per texture HD, si intendono texture 4k, tu non hai il pannello 4k, neppure te le potresti godere al massimo, ma il tutto però non ha senso, perchè non è un 4k nativo, ma solo una mod messa a cavolo. Quindi parliamo del nulla, se non un piccolo effetto estetico, per dare un contentino ai possessori di schede con ampie ram.
Riguardo la ram, guarda questo video vecchio:
https://www.youtube.com/watch?v=aLwVEu5ksGE&t=114s&ab_channel=DudeRandom84
Era la Fury di AMD con solo 4gb, per via della scarsa ram, la ram fu gestita in modo da allocare solo quello più utile in vram e l'inutile o di scarso accesso in ram. Era un buon metodo. Certo stuttera in vari punti in quanto la vram è troppo poca, però era un buon metodo. L'altra ovviamente alloca tutto in vram e va di potenza bruta.:)
Thunder-74
01-05-2022, 17:22
Ed è quello.:) Per texture HD, si intendono texture 4k, tu non hai il pannello 4k, neppure te le potresti godere al massimo, ma il tutto però non ha senso, perchè non è un 4k nativo, ma solo una mod messa a cavolo. Quindi parliamo del nulla, se non un piccolo effetto estetico, per dare un contentino ai possessori di schede con ampie ram.
Riguardo la ram, guarda questo video vecchio:
https://www.youtube.com/watch?v=aLwVEu5ksGE&t=114s&ab_channel=DudeRandom84
Era la Fury di AMD con solo 4gb, per via della scarsa ram, la ram fu gestita in modo da allocare solo quello più utile in vram e l'inutile o di scarso accesso in ram. Era un buon metodo. Certo stuttera in vari punti in quanto la vram è troppo poca, però era un buon metodo. L'altra ovviamente alloca tutto in vram e va di potenza bruta.:)
Comunque andando ad editare il profilo del gioco dove ci sono i vari settaggi, si può disattivare il MIP-Mapping non accessibile in game. Forse con una piccola perdita nella qualità, guarda come cambia la storia (ho sottolineato la Vram usata):
Con Mip-Mapping
https://i.imgur.com/0e4gIvD.png
senza
https://i.imgur.com/loQuk1o.png
nello stesso punto del bench
EDIT:
togliendo il mip-mapping, non usa le texture HD.
Alla fine le texture in HD vanno lasciate, altrimenti il titolo è veramente da PS4.
Togliendo il Raytracing, va perfettamente con Vram fino a 8700mb.
amon.akira
01-05-2022, 22:37
Una risposta del supporto Ubisoft in merito...
Please note that if you are using a GPU with anything under 12GB VRAM, you will not be able to use the pack correctly. This is part of our minimum requirements. If you have less that 12GB of VRAM available, we would recommend uninstalling the HD texture pack.
If you have over 12GB VRAM but under 16GB VRAM, please lower your graphics settings to "High."
che poi anche con la 3080ti capitava uguale e l ho visto con i miei occhi, è tarato per 12+ infatti con la 3090 si assesta sui 13.5 piu o meno.
Quindi parliamo del nulla, se non un piccolo effetto estetico, per dare un contentino ai possessori di schede con ampie ram.
che poi basta ricordare che ne so un crysis3 che con max 3gb sfoggia texture migliori :D
mikael84
02-05-2022, 01:03
Comunque andando ad editare il profilo del gioco dove ci sono i vari settaggi, si può disattivare il MIP-Mapping non accessibile in game. Forse con una piccola perdita nella qualità, guarda come cambia la storia (ho sottolineato la Vram usata):
nello stesso punto del bench
EDIT:
togliendo il mip-mapping, non usa le texture HD.
Alla fine le texture in HD vanno lasciate, altrimenti il titolo è veramente da PS4.
Togliendo il Raytracing, va perfettamente con Vram fino a 8700mb.
Vai a peggiorare soprattutto il LOD così (magari neppure te ne accorgi).
Il problema di quel gioco, è che non puoi neppure mettere il DLSS, ma massimizzare il FSR.
Io lo giocherei nativo, texture OFF (hd ) reshade, no TAA,
che poi anche con la 3080ti capitava uguale e l ho visto con i miei occhi, è tarato per 12+ infatti con la 3090 si assesta sui 13.5 piu o meno.
La tara AMD esclude anche il DLSS purtroppo. Ormai ubisoft si è venduta ad AMD, come ha fatto prima con nvidia, dove attivando un pò di tassellazione, le amazzavi.:fagiano:
che poi basta ricordare che ne so un crysis3 che con max 3gb sfoggia texture migliori :D
Davvero... infatti la remastered vuole 10gb.:p
Quel gioco amava i six core come i 3930k nel 2011, che costavano per l'epoca 4/500 euro. Era già avanti.:)
fraussantin
02-05-2022, 06:59
Cmq già farcry 5 con le texture HD mi metteva in crisi la 2070 in certi punti .
Credo che sia proprio un problema di engine . Poi si che il fatto che amd abbia 16 giga non è di certo un caso.
Cmq già farcry 5 con le texture HD mi metteva in crisi la 2070 in certi punti .
Credo che sia proprio un problema di engine . Poi si che il fatto che amd abbia 16 giga non è di certo un caso.Anche fosse, non vuol dire che le texture HD siano una moddina, che ci siano trucchetti volontari per sprecare VRAM, né che se non sei a 4K sono quasi sprecate.
Ognuno la interpreta come crede, però sarebbe meglio sottolineare la tendenza delle proprie interpretazioni.
Ad esempio, io la differenza la vedo bene a 1080p, che poi se ti avvicini la vedi in ogni texture migliorata, e la maggior parte del pacco HD è tanto se è adeguato al 1440p a distanza media, altroché...
Come dici, paragonare l'occupazione di VRAM di motori grafici diversi non è corretto, e la spinta di AMD non esclude la reale necessità di quel quantitativo.
Direi che la differenza che passa dal con e senza... più o meno quadra con quella visibile, Uby sprecherà VRAM a prescindere? Può darsi, e in quel caso l'occupazione cresce di conseguenza.
Dopodiché, si può anche essere d'accordo sul fatto che texture nate per quella occupazione sarebbero state sfruttate meglio, e che ad AMD il discorso interessasse poco...
Per il resto, apprezzo la possibilità di escludere quel pacco da parte di chi non ci arriva. Dovrebbero prevedere un setting prima di scaricare il gioco, così da poter dividere anche le altre, magari con la possibilità di selezionare solo la lingua che si andrà ad usare. Sarebbe anche ora di poter scegliere cosa si scarica e cosa serve...
Thunder-74
04-05-2022, 08:12
Anche fosse, non vuol dire che le texture HD siano una moddina, che ci siano trucchetti volontari per sprecare VRAM, né che se non sei a 4K sono quasi sprecate.
Ognuno la interpreta come crede, però sarebbe meglio sottolineare la tendenza delle proprie interpretazioni.
Ad esempio, io la differenza la vedo bene a 1080p, che poi se ti avvicini la vedi in ogni texture migliorata, e la maggior parte del pacco HD è tanto se è adeguato al 1440p a distanza media, altroché...
Come dici, paragonare l'occupazione di VRAM di motori grafici diversi non è corretto, e la spinta di AMD non esclude la reale necessità di quel quantitativo.
Direi che la differenza che passa dal con e senza... più o meno quadra con quella visibile, Uby sprecherà VRAM a prescindere? Può darsi, e in quel caso l'occupazione cresce di conseguenza.
Dopodiché, si può anche essere d'accordo sul fatto che texture nate per quella occupazione sarebbero state sfruttate meglio, e che ad AMD il discorso interessasse poco...
Per il resto, apprezzo la possibilità di escludere quel pacco da parte di chi non ci arriva. Dovrebbero prevedere un setting prima di scaricare il gioco, così da poter dividere anche le altre, magari con la possibilità di selezionare solo la lingua che si andrà ad usare. Sarebbe anche ora di poter scegliere cosa si scarica e cosa serve...
come dicevo, le texture HD fanno la differenza su FC6. Senza il gioco degrada in modo spaventoso. Lo si nota da vicino, ma anche da lontano.
Si rinuncia tranquillamente al Raytrancing, ma alle texture no.
Sniper88
05-05-2022, 19:39
Buonasera! Volevo sapere una cosa. Ho un profilo Undervolt che sto ancora testando per bene; stavo giocando e ho fatto ALT+TAB per andare un secondo sul browser a leggere una cosa: si era freezzato il gioco per qualche secondo, poi ho avuto una sorta di flicker e mi sono apparsi questi quadratini (il gioco però continuava a funzionare senza problemi e senza artefatti, quei quadratini che vedete sotto li avevo solo sul desktop):
https://i.ibb.co/BfzdTGq/quadratini.jpg (https://ibb.co/BfzdTGq)
In visualizzatore eventi ho tre errori che dicono:
Il driver video nvlddmkm ha smesso di rispondere ed è stato correttamente ripristinato.
Il primo alle 20:27:01
Il secondo alle 20:28:21
Il terzo alle 20:30:21
Potrebbe essere stato l'undervolt a generare quei quadratini? Dopo il riavvio, mentre vi scrivo, tutto è nella norma, come se non fosse successo nulla.
Grazie mille! Mi affido alla vostra esperienza.
EDIT: mi ero dimenticavo di divervi che possiedo gli ultimi driver 512.59
Buonasera! Volevo sapere una cosa. Ho un profilo Undervolt che sto ancora testando per bene; stavo giocando e ho fatto ALT+TAB per andare un secondo sul browser a leggere una cosa: si era freezzato il gioco per qualche secondo, poi ho avuto una sorta di flicker e mi sono apparsi questi quadratini (il gioco però continuava a funzionare senza problemi e senza artefatti, quei quadratini che vedete sotto li avevo solo sul desktop):
https://i.ibb.co/BfzdTGq/quadratini.jpg (https://ibb.co/BfzdTGq)
In visualizzatore eventi ho tre errori che dicono:
Il driver video nvlddmkm ha smesso di rispondere ed è stato correttamente ripristinato.
Il primo alle 20:27:01
Il secondo alle 20:28:21
Il terzo alle 20:30:21
Potrebbe essere stato l'undervolt a generare quei quadratini? Dopo il riavvio, mentre vi scrivo, tutto è nella norma, come se non fosse successo nulla.
Grazie mille! Mi affido alla vostra esperienza.
EDIT: mi ero dimenticavo di divervi che possiedo gli ultimi driver 512.59
Si, è l'undervolt. Alza di due tacche.
Sniper88
05-05-2022, 19:51
Si, è l'undervolt. Alza di due tacche.
Grazie mille, Vash88. Pensavo che era la memoria video e mi ero già spaventato!
Semplice rasoio di Occam. Un crash del driver video è da imputarsi in prima battuta ai nostri smanettamenti. La prova del nove è mettere il sistema a default e vedere se succede di nuovo. Per risparmiare tempo, visto che il sistema sembra generalmente stabile, alzerei di 13mv (due tacche in afterburner) e non ci penserei di nuovo a meno che non succeda ancora. Inoltre spaccare qualcosa in undervolt praticamente impossibile, non ho mai sentito che a qualcuno sia morta la GPU per colpa dell'undervolt.
Se fossero le memorie (difetto HW) lo vedresti sempre. Sono parecchi anni che non vedo più i classici quadratini, sfarfallii causati da ram fallate, non so nemmeno se al giorno d'oggi i sintomi siano gli stessi di dieci anni fa.
Thunder-74
06-05-2022, 07:52
Buonasera! Volevo sapere una cosa. Ho un profilo Undervolt che sto ancora testando per bene; stavo giocando e ho fatto ALT+TAB per andare un secondo sul browser a leggere una cosa: si era freezzato il gioco per qualche secondo, poi ho avuto una sorta di flicker e mi sono apparsi questi quadratini (il gioco però continuava a funzionare senza problemi e senza artefatti, quei quadratini che vedete sotto li avevo solo sul desktop):
https://i.ibb.co/BfzdTGq/quadratini.jpg (https://ibb.co/BfzdTGq)
In visualizzatore eventi ho tre errori che dicono:
Il driver video nvlddmkm ha smesso di rispondere ed è stato correttamente ripristinato.
Il primo alle 20:27:01
Il secondo alle 20:28:21
Il terzo alle 20:30:21
Potrebbe essere stato l'undervolt a generare quei quadratini? Dopo il riavvio, mentre vi scrivo, tutto è nella norma, come se non fosse successo nulla.
Grazie mille! Mi affido alla vostra esperienza.
EDIT: mi ero dimenticavo di divervi che possiedo gli ultimi driver 512.59
Non sei il solo e non c entra l undervolt. Per caso ti è successo dopo aver avviato il pc da spento ed è avvenuto come la gpu è stata impegnata in qualche cosa?
Mi è successo anche a me qualche volta da quando ho la 3080 sempre al primo avvio da spento. Ho concluso essere un problema con il boot in modalità uefi/ resizable bar . Come se all avvio qualche processo di inizializzazione vada storto. Visto casi precedenti e visto che sei anche tu su z390, temo sia un problema legato a questo chipset. Del resto il resizable bar è stato attivato su queste mobo in corsa.
ti confermo che basta il riavvio per ripristinare tutto senza problemi.
Inviato dal mio iPhone X utilizzando Tapatalk
Sniper88
06-05-2022, 09:10
Non sei il solo e non c entra l undervolt. Per caso ti è successo dopo aver avviato il pc da spento ed è avvenuto come la gpu è stata impegnata in qualche cosa?
Mi è successo anche a me qualche volta da quando ho la 3080 sempre al primo avvio da spento. Ho concluso essere un problema con il boot in modalità uefi/ resizable bar . Come se all avvio qualche processo di inizializzazione vada storto. Visto casi precedenti e visto che sei anche tu su z390, temo sia un problema legato a questo chipset. Del resto il resizable bar è stato attivato su queste mobo in corsa.
ti confermo che basta il riavvio per ripristinare tutto senza problemi.
Inviato dal mio iPhone X utilizzando Tapatalk
Sì, Thunder. Mi era successo anche qualche volta al primo avvio, ma c'erano sempre due rettangolini in basso, poco sopra la barra delle applicazioni di Windows 11. Infatti credevo fosse Windows 11 non ancora al pieno delle sue forze.
Avevo fatto qualche foto con lo smartphone, però, per paura di intaccare il Thread per una paranoia, lasciai perdere. Infatti vedevo che, dopo il riavvio, tornava tutto nella normalità.
Il Resizable Bar non l'ho attivato, perché da quello che avevo capito dava il meglio di sè dalla Z490 e da quel giorno lasciai perdere. Dici che lo devo attivare?
https://www.techpowerup.com/forums/threads/random-black-square-artifacts-flickering-right-side-top-screen.289884/
https://www.reddit.com/r/overclocking/comments/mn4tx0/nvidia_rtx_3080_fe_dead_black_flickering_squares/
https://www.reddit.com/r/gigabyte/comments/p8rxd8/today_these_black_squares_started_appearing_from/
https://linustechtips.com/topic/1426541-artifacts-and-black-squares-on-rtx-3080/
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/478186/random-black-squaresdotsartifacts-on-top-right-scr/
https://www.reddit.com/r/pcmasterrace/comments/mgxm3o/black_squares_all_over_screen_help_this_usually/
https://forums.tomshardware.com/threads/terrible-performance-on-rtx-3080-after-crash.3724426/
L'ultimo contiene una possibile soluzione:
Hi! Tried many things but at my wits end here, was editing photos on Adobe Lightroom the other day when suddenly many of the photos had black squares all over them. I closed out and restarted the app and this times the squares were white. The app froze up and the video driver crashed and restarted. Everything went back to normal and I put it down to a blip.. until I started gaming a few days later and performance was terrible in all games, including low demanding indy ones where GPU usage barely scratches 10%. I'm getting constant stuttering, frame skips, and freezes, scaling up with the intensity of the graphical effects and 'busyness' of the scene. I game in 4k 120hz, the problem is still there, although somewhat lessened in 60hz. I should also point out that gaming has been smooth and wonderful for the past 12 months with this build until recently, so no bottlenecks or anything like that.
It may be unrelated to the crash but the only other recent changes are mobo and GPU bios update for resizeable bar and normal video driver updates.
I've tried the following-
DDU'ing and rolling back to older video drivers.
Uninstalling any bad rep Windows updates.
Checking the physical installation of the GPU and RAM are firm and tight.
Turning off Rebar in bios.
Multiple different Nvidia Control Panel configurations.
I can't take it anymore.. is the card dead? Please help!
After weeks of trying different things it turned out to be my RAM profile. I changed it to XMP 2 and nearly all the issues went away. It seems the XMP 1/auto profile made my system really unstable. Something must have changed in the mobo bios update for this to happen, but it seems to have solved now by changing to the default timings. Cheers.
Hai le ram in overclock?
Sniper88
06-05-2022, 10:30
Sì, Vash. Ho le RAM con il priflo XMP 2 spinto (quello della Corsair). Dovrei provare quello meno spinto, oppure impostare solmanete il timing e la frequenza a 3600MHz. Tanto, gli altri "numerini", servono solamente per qualche punticino nei benchmark, ma nei giochi non cambia una mazza, giusto?
Fossi in te lascerei così com'è e proverei a far girare qualche programma tipo Memtest86 da USB. Il vantaggio è che se trovi errori in questo modo, è un indizio in più per correlare i due problemi. Se passi a settaggi di RAM meno spinti senza aver testato le ram allo stato attuale non riuscirai mai a isolare il problema e capire se sono effettivamente le ram.
Giusto per dirne una, avevo crash randomici sul mio sistema e ci ho messo due mesi a capire che era il Ryzen 3600 a default, mai overclockato, ad essere fallato (non reggeva le frequenze default su un core, scoperto tramite Prime95 small fft)
Sniper88
06-05-2022, 11:13
Fossi in te lascerei così com'è e proverei a far girare qualche programma tipo Memtest86 da USB. Il vantaggio è che se trovi errori in questo modo, è un indizio in più per correlare i due problemi. Se passi a settaggi di RAM meno spinti senza aver testato le ram allo stato attuale non riuscirai mai a isolare il problema e capire se sono effettivamente le ram.
Giusto per dirne una, avevo crash randomici sul mio sistema e ci ho messo due mesi a capire che era il Ryzen 3600 a default, mai overclockato, ad essere fallato (non reggeva le frequenze default su un core, scoperto tramite Prime95 small fft)
Mamma mia... Okay, Vash. Appena trovo il tempo farò questa prova. Grazie mille, sei stato gentilssimo.
Thunder-74
06-05-2022, 11:44
Non sono le ram. Io ho avuto per molto tempo stessa config mobo/ram e 2080 zero problemi. Messa la 3080 tutto bene. Da quando ho messo il bios alla mobo con R.Bar ho avuto sporadicamente questo problema .
Vivi felice e quando te lo fa riavvii . Il giorno che esce il 13900k sa cosa fare ;)
Inviato dal mio iPhone X utilizzando Tapatalk
(THE REAL) Neo
06-05-2022, 11:47
Buongiorno ragazzi.
Sulla seconda build che ho in casa,dopo mesi di integrata,ho montato un 3060ti xc by Evga.
Qualcuno ha già una base di frequenza/voltaggio,per fare un undervolt "di partenza"?
Ovviamente poi lo affinerei con calma,facendo varie prove.
Grazie
Buongiorno ragazzi.
Sulla seconda build che ho in casa,dopo mesi di integrata,ho montato un 3060ti xc by Evga.
Qualcuno ha già una base di frequenza/voltaggio,per fare un undervolt "di partenza"?
Ovviamente poi lo affinerei con calma,facendo varie prove.
Grazie
Io ho una 3060 ti Gigabyte Fusion sul secondo pc. Mai avuto problemi con 950x1905
Penso si possa fare anche meglio, ma così è stabile con temperature ottime
(THE REAL) Neo
06-05-2022, 19:40
Io ho una 3060 ti Gigabyte Fusion sul secondo pc. Mai avuto problemi con 950x1905
Penso si possa fare anche meglio, ma così è stabile con temperature ottimeGrazie mille,piú tardi parto da quella frequenza.
DrossBelly
06-05-2022, 21:05
Salve ragazzi, devo pensionare per motivi di lavoro la mia msi 4G 970 in firma per una ASUS ROG Strix NVIDIA GeForce RTX 3060 V2 OC Edition.
Ora il mio alimentatore Enermax ha 550 watt e non mi ha dato mai problemi in 7 anni. Quello che mi chiedo io è: che alimentatore ci vuole per reggere tale scheda? Avete 1 consiglio o 2 da darmi?
Al momento il mio alimentatore gestisce un i5 9600 KF, 2 ssd, 2 hdd meccanici e il resto è in firma.
Grazie :)
(THE REAL) Neo
06-05-2022, 21:37
Salve ragazzi, devo pensionare per motivi di lavoro la mia msi 4G 970 in firma per una ASUS ROG Strix NVIDIA GeForce RTX 3060 V2 OC Edition.
Ora il mio alimentatore Enermax ha 550 watt e non mi ha dato mai problemi in 7 anni. Quello che mi chiedo io è: che alimentatore ci vuole per reggere tale scheda? Avete 1 consiglio o 2 da darmi?
Al momento il mio alimentatore gestisce un i5 9600 KF, 2 ssd, 2 hdd meccanici e il resto è in firma.
Grazie :)Ti consiglio vivamente uno Sharkoon Silentstorm CoolZero da 750 watt.
É un ottimo ali, piattaforma custom,e davvero ben fatto.
Salve ragazzi, devo pensionare per motivi di lavoro la mia msi 4G 970 in firma per una ASUS ROG Strix NVIDIA GeForce RTX 3060 V2 OC Edition.
Ora il mio alimentatore Enermax ha 550 watt e non mi ha dato mai problemi in 7 anni. Quello che mi chiedo io è: che alimentatore ci vuole per reggere tale scheda? Avete 1 consiglio o 2 da darmi?
Al momento il mio alimentatore gestisce un i5 9600 KF, 2 ssd, 2 hdd meccanici e il resto è in firma.
Grazie :)
Sinceramente io terrei l'alimentatore che hai ora a meno che tu non abbia problemi.
DrossBelly
07-05-2022, 00:35
Non che voglia dare torto ad uno o l'altro ma capite che vista la cifra (600 e passa euro) devo chiedere consigli anche sulla sicurezza della stessa scheda: dici che c'è una vaga possibilità che possa reggere il mio alimentatore? Cosa rischio al massimo se dovessi fare una prova e il mio alimentatore non dovesse reggere?
StrixyRoG
07-05-2022, 00:54
550w bastano e avanzano, se l'alimentatore è di qualità. Più che altro il tuo ha già 7 anni, quindi al massimo se dovessero mai esserci problemi in futuro saranno per l'età, non per i watt :D
DrossBelly
07-05-2022, 11:07
Ringrazio tutti e tre dell'aiuto, la scheda arriva lunedi e vi aggiornerò come va col vecchio alimentatore.
Ps la scheda presa non è più la Strix ma la Asus Dual 3060 V2 OC Edition
terranux
08-05-2022, 09:11
Ringrazio tutti e tre dell'aiuto, la scheda arriva lunedi e vi aggiornerò come va col vecchio alimentatore.
Ps la scheda presa non è più la Strix ma la Asus Dual 3060 V2 OC Edition
è vecchio cambialo.ma stiamo scherzando?
DrossBelly
08-05-2022, 09:23
è vecchio cambialo.ma stiamo scherzando?
E' vecchio, quindi? (sembra un tono sfottò ma non lo è). Nel senso, se fino ad ora non mi ha dato mezzo problema dovrei cambiarlo a prescindere perchè potrebbe bruciarmi qualcosa?
Dammi almeno una mezza idea reale non ipotetica, poi son d'accordo con te che abbia i suoi anni però allora avrei dovuto buttare pure la mia 970 dopo 7 anni? E tutti quelli che ancora se la rivendono?
Poi sicuramente lo farò ma siccome mi ci vogliono almeno una 90ina di euro devo aspettare un paio di mesi
E' vecchio, quindi? (sembra un tono sfottò ma non lo è). Nel senso, se fino ad ora non mi ha dato mezzo problema dovrei cambiarlo a prescindere perchè potrebbe bruciarmi qualcosa?
Dammi almeno una mezza idea reale non ipotetica, poi son d'accordo con te che abbia i suoi anni però allora avrei dovuto buttare pure la mia 970 dopo 7 anni? E tutti quelli che ancora se la rivendono?
Poi sicuramente lo farò ma siccome mi ci vogliono almeno una 90ina di euro devo aspettare un paio di mesi
Sei pur sempre in un 3d dove il 12700k fa da collo di bottiglia e se non hai una 3090 ti sei uno straccione ,fai tu :rotfl:
Non che voglia dare torto ad uno o l'altro ma capite che vista la cifra (600 e passa euro) devo chiedere consigli anche sulla sicurezza della stessa scheda: dici che c'è una vaga possibilità che possa reggere il mio alimentatore?
La 3060 ha sostanzialmente gli stessi consumi di una 970, quindi il tuo alimentatore non vedo perché non debba reggere la scheda nuova.
RTX 3060
https://www.techpowerup.com/review/msi-geforce-rtx-3060-gaming-x-trio/36.html
GTX 970
https://www.techpowerup.com/review/msi-gtx-970-gaming/25.html
Cosa rischio al massimo se dovessi fare una prova e il mio alimentatore non dovesse reggere?
Se non regge, perché ad esempio l'hardware sta chiedendo di erogare un quantitativo di watt superiore a quelli che è in grado di fornire, va in sovracorrente e spegne il pc.
A parer mio comunque la 3060ti ora che è facilmente reperibile a buoni prezzi è un best buy
terranux
08-05-2022, 10:31
E' vecchio, quindi? (sembra un tono sfottò ma non lo è). Nel senso, se fino ad ora non mi ha dato mezzo problema dovrei cambiarlo a prescindere perchè potrebbe bruciarmi qualcosa?
Dammi almeno una mezza idea reale non ipotetica, poi son d'accordo con te che abbia i suoi anni però allora avrei dovuto buttare pure la mia 970 dopo 7 anni? E tutti quelli che ancora se la rivendono?
Poi sicuramente lo farò ma siccome mi ci vogliono almeno una 90ina di euro devo aspettare un paio di mesi
dai retta cambialo. io con un vecchio corsair 850 avevo problemi e sostituito con un ntxz sono rinato. i nuovi alimentatori hanno migliorie e tengono i voltaggi più stabili
(THE REAL) Neo
08-05-2022, 12:56
A parer mio comunque la 3060ti ora che è facilmente reperibile a buoni prezzi è un best buyIo l'ho presa "usata" (aveva ancora le pellicole),da un ragazzo vicino a casa a 500€ tondi tondi.
La Evga 3060ti Xc Gaming.dai retta cambialo. io con un vecchio corsair 850 avevo problemi e sostituito con un ntxz sono rinato. i nuovi alimentatori hanno migliorie e tengono i voltaggi più stabiliConcordo.
E' vecchio, quindi? (sembra un tono sfottò ma non lo è). Nel senso, se fino ad ora non mi ha dato mezzo problema dovrei cambiarlo a prescindere perchè potrebbe bruciarmi qualcosa?
Dammi almeno una mezza idea reale non ipotetica, poi son d'accordo con te che abbia i suoi anni però allora avrei dovuto buttare pure la mia 970 dopo 7 anni? E tutti quelli che ancora se la rivendono?
Poi sicuramente lo farò ma siccome mi ci vogliono almeno una 90ina di euro devo aspettare un paio di mesi
This. Fossi in te aspetterei e prenderei un ATX 3.0, così sei a posto per i prossimi 10 anni. E' una piccola rivoluzione nel campo PSU, le nuove unità costeranno abbastanza ma avranno un sacco di feature importanti per le schede video di nuova generazione. Non stai facendo un upgrade enorme dal punto di vista dei consumi, probabilmente la 3060 avrà spike più alti e più veloci ma non mi fascerei la testa prima di essermela rotta. Tira avanti un altro po e investi in un buon alimentatore (spendendo più di 90€). Altrimenti prendi un HX750 e tagli la testa al toro. La decisione è tua alla fine.
demonangel
09-05-2022, 18:43
Saggio consiglio.
A meno di non essere alla canna del Gas. Ora eviterei l'acquisto di alimentatori! Siamo a ridosso di una nuova era.
DrossBelly
09-05-2022, 21:42
Saggio consiglio.
A meno di non essere alla canna del Gas. Ora eviterei l'acquisto di alimentatori! Siamo a ridosso di una nuova era.
Pare regga Cyberpunk 2077, Horizon Zero Dawn e un altro paio di giochi per ore senza esploder e con delle temperature sui 55/60° gradi. Ovviamente avendo una tv da 60 fps limito gli stessi con riva tuner così da non farla scaldare inutilmente
Io l'ho presa "usata" (aveva ancora le pellicole),da un ragazzo vicino a casa a 500€ tondi tondi.
La Evga 3060ti Xc Gaming.Concordo.
Secondo me è un'ottima scheda, consuma poco e si avvicina alla 3070. Per il 1440p va benone.
ultimate trip
10-05-2022, 15:28
edit...
Secondo me è un'ottima scheda, consuma poco e si avvicina alla 3070. Per il 1440p va benone.
per me la 3070 sta già strettina (e la mia è parecchio occata/fortunata) in 1440p, figuriamoci la 3060TI.
Ottima scheda, prima delle 3070 FE avevo quella, ma dipende dallo schermo.
con un 60Hz va benissimo, con un 144Hz o peggio 165Hz non sfrutti a pieno il monitor
29Leonardo
11-05-2022, 10:09
per me la 3070 sta già strettina (e la mia è parecchio occata/fortunata) in 1440p, figuriamoci la 3060TI.
Ottima scheda, prima delle 3070 FE avevo quella, ma dipende dallo schermo.
con un 60Hz va benissimo, con un 144Hz o peggio 165Hz non sfrutti a pieno il monitor
Non è che devi fare 144hz per forza per essere una scheda buona in 1440p, basta andare abbondantemente sopra i 60, però si in generale è decisamente piu indicata la 3070, il problema di quest'ultima è che imho non ha un buon rapporto prezzo/perf rispetto la 3060ti o la 3080.
per me la 3070 sta già strettina (e la mia è parecchio occata/fortunata) in 1440p, figuriamoci la 3060TI.
Ottima scheda, prima delle 3070 FE avevo quella, ma dipende dallo schermo.
con un 60Hz va benissimo, con un 144Hz o peggio 165Hz non sfrutti a pieno il monitor
Intendo dire che con una 3060 TI puoi tranquillamente stare oltre i 60 fps con un setting grafico decisamente elevato oppure addirittura al MAx in 1440p. LA 3070 è ottima, ma secondo me la 3060 TI può essere la più conveniente in termini costo prestazioni. Poi figuriamoci, io ho una 3080 TI e fatica in 4k con i giochi pesanti che "volutamente" fanno uscire oggi.
Alaric.se
12-05-2022, 09:08
Buongiorno, cortesemente mi potreste dare un consiglio ? devo acquistare un rtx 3080 e sono indeciso tra un rog strix e una msi suprim x secondo voi qual' è la migliore tra queste due ? grazie.
StrixyRoG
12-05-2022, 09:16
Buongiorno, cortesemente mi potreste dare un consiglio ? devo acquistare un rtx 3080 e sono indeciso tra un rog strix e una msi suprim x secondo voi qual' è la migliore tra queste due ? grazie.
Una vale l'altra, dipende solo dal prezzo.
Alaric.se
12-05-2022, 10:15
Una vale l'altra, dipende solo dal prezzo.
Grazie allora prendo la meno cara.
Non è che devi fare 144hz per forza per essere una scheda buona in 1440p, basta andare abbondantemente sopra i 60, però si in generale è decisamente piu indicata la 3070, il problema di quest'ultima è che imho non ha un buon rapporto prezzo/perf rispetto la 3060ti o la 3080.
la 3080 tra le tre è quella con il rapporto prezzo/prestazioni peggiore
costa il 50% in più della 3070 per il 20% in più
Thunder-74
12-05-2022, 17:01
NVIDIA GeForce Game Ready 512.77 WHQL
LINK (https://videocardz.com/driver/nvidia-geforce-game-ready-512-77-whql)
Game Ready for Evil Dead: The Game
This new Game Ready Driver provides the best day-0 gaming experience for Evil Dead: The Game, which uses NVIDIA DLSS to maximize performance. In addition, this new Game Ready Driver offers support for the latest releases including Dolmen and Vampire: The Masquerade – Swansong.
Fixed Issues
[Adobe Premiere Pro]: Fixed intermittent DirectX related crashes. [3572670]
Known Issues
[NVIDIA Ampere GPU]: With the GPU connected to an HDMI 2.1 audio/video receiver, audio may drop out when playing back Dolby Atmos. [3345965]
Club 3D CAC-1085 dongle limited to maximum resolution of 4K at 60Hz. [3542678]
[GeForce RTX 3090 Ti] Oculus Rift S/Pimax 8Kx is not detected. [3632289][3626116]
Videos played back in Microsoft Edge may appear green if NVIDIA Image Scaling is enabled upon resuming from hibernate or booting with fastboot [3624218]
[DirectX 12] Shadowplay recordings may appear over exposed when Use HDR is enabled from the Windows display settings. [200742937]
Package Contents
HD Audio Driver — 1.3.39.3
NVIDIA PhysX System Software — 9.21.0713
GeForce Experience — 3.25.1.27
CUDA — 11.6
DCH NVIDIA Control Panel — 8.1.962.0
fraussantin
12-05-2022, 19:42
la 3080 tra le tre è quella con il rapporto prezzo/prestazioni peggiore
costa il 50% in più della 3070 per il 20% in piùNon è una novità , ma d'altronde le GPU non le hanno mai vendite col prezzo al kg ..
Non è una novità , ma d'altronde le GPU non le hanno mai vendite col prezzo al kg ..
Vero, ma se una scheda va un 20% in più, personalmente son disposto a spendere il 30% in più, ma oltre non ha senso. Altrimenti quei (pochi?) frame in più li strapaghi
29Leonardo
13-05-2022, 06:22
la 3080 tra le tre è quella con il rapporto prezzo/prestazioni peggiore
costa il 50% in più della 3070 per il 20% in più
Mediamente va di piu del 20%, in alcuni giochi anche un bel pò di piu e forse è l'unica con la quale puoi giocare pure con l'rt senza sacrificare troppo.
Thunder-74
13-05-2022, 07:35
Mediamente va di piu del 20%, in alcuni giochi anche un bel pò di piu e forse è l'unica con la quale puoi giocare pure con l'rt senza sacrificare troppo.
Concordo, mediamente ci corre un 30% tra una 3070 e una 3080/10gb.
https://i.imgur.com/blNrreA.png
In RT le cose possono diventare anche più marcate.
Esempio Control a 1440p
Solo RT più del 37%
https://i.imgur.com/Ab4OwLz.png
in certi frangenti i 2gb in più possono tornare comodi anche a 1440p e sicuramente su res 21:9.
Poi discorso rapporto prestazioni/costo dipende a quanto le si acquistano.
Premesso che per me la 3080 e 3070 (tanto più) non sono schede da 4K, poi chiaramente ognuno gioca come vuole :)
Tolta questa parentesi, il vantaggio della 3080 è di 16pp, 23pp, 31pp rispettivamente per 1080/1440/4k
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_1920-1080.png
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_3840-2160.png
Thunder-74
13-05-2022, 17:28
Dono sono andato sul sito russo e ho preso gli ultimi titoli che hanno provato.
sono tutti a res 1440.
Ghostwire con RT - 31%
https://i.imgur.com/fgc97Lg.png
Chernobylite con RT con DLSS on/off - 32/33%
https://i.imgur.com/6MkEfa7.png
Dying Light 2 con DLSS on/off - 34/35%
https://i.imgur.com/9UV66xp.png
interessante notare su questi due ultimi titoli, come alla 3070 il DLSS serva per "pareggiare" con la 3080 senza DLSS
Sicuramente ci saranno titoli dove il guadagno è inferiore , ma è anche possibile che con la maturità dei drivers i gap tra le schede sia aumentato con il tempo.
in ultimo ho preso da TpuP God of War 30%
https://i.imgur.com/X2Jj1lj.png
https://i.imgur.com/WpS2TZt.png
demonangel
13-05-2022, 23:13
Ma siamo entrati nella fantabarzelletta?
Ok dare un'occhiata al costo esponenziale dalla 3080 in sù... tanto poi chi vuole la Top ci guarda il giusto...ma la sbandierata prezzo 3070 vs 3080 è esilarante...con quello che ho visto spendere in schede video nell'ultimo anno.
Dono sono andato sul sito russo e ho preso gli ultimi titoli che hanno provato.
CUT
Tunder non so, perchè non avendole entrambe mi baso comunque solo sui numeri. C'è anche da dire che i titoli postati sono ben diversi dalla suite utilizzata da TPU.
Fosse anche il 30% (che non vale ovunque) continuo a credere che la 3080 non abbia senso. Non fraintendermi è una scheda fantastica, ma come consumi (circa il 50% in più), costo e tutto continuo a non vederla migliore della 3070.
Non dev'esserci un aumento del costo lineare alle prestazioni, ma se queste sono 1,3x la scheda non può esser 1,5x.
Ovviamente parlo per una build medio/alta, chiaro che se sei di un'altra fascia tutti questi discorsi non fanno breccia.
Ma siamo entrati nella fantabarzelletta?
Ok dare un'occhiata al costo esponenziale dalla 3080 in sù... tanto poi chi vuole la Top ci guarda il giusto...ma la sbandierata prezzo 3070 vs 3080 è esilarante...con quello che ho visto spendere in schede video nell'ultimo anno.Nessuna fantabarzelletta, basta saper fare due conti semplicissimi e guardare davvero a cosa si compra. Se per te è corretto spender 1000€ per una scheda di fascia media fai pure le tue scelte
Tunder non so, perchè non avendole entrambe mi baso comunque solo sui numeri. C'è anche da dire che i titoli postati sono ben diversi dalla suite utilizzata da TPU.
Fosse anche il 30% (che non vale ovunque) continuo a credere che la 3080 non abbia senso. Non fraintendermi è una scheda fantastica, ma come consumi (circa il 50% in più), costo e tutto continuo a non vederla migliore della 3070.
Non dev'esserci un aumento del costo lineare alle prestazioni, ma se queste sono 1,3x la scheda non può esser 1,5x.
Ovviamente parlo per una build medio/alta, chiaro che se sei di un'altra fascia tutti questi discorsi non fanno breccia.
Nessuna fantabarzelletta, basta saper fare due conti semplicissimi e guardare davvero a cosa si compra. Se per te è corretto spender 1000€ per una scheda di fascia media fai pure le tue scelte
Secondo me è il contrario, la 3070TI non aveva proprio senso essendoci già la 3080. Come anche la 3080TI non aveva alcun senso essendoci 3080 e 3090. Il punto è che le 3080 erano molto più difficili da reperire quindi poteva essere sensato virare sulla 3070 TI
Thunder-74
14-05-2022, 10:40
Tunder non so, perchè non avendole entrambe mi baso comunque solo sui numeri. C'è anche da dire che i titoli postati sono ben diversi dalla suite utilizzata da TPU.
Fosse anche il 30% (che non vale ovunque) continuo a credere che la 3080 non abbia senso. Non fraintendermi è una scheda fantastica, ma come consumi (circa il 50% in più), costo e tutto continuo a non vederla migliore della 3070.
Non dev'esserci un aumento del costo lineare alle prestazioni, ma se queste sono 1,3x la scheda non può esser 1,5x.
Ovviamente parlo per una build medio/alta, chiaro che se sei di un'altra fascia tutti questi discorsi non fanno breccia.
Nessuna fantabarzelletta, basta saper fare due conti semplicissimi e guardare davvero a cosa si compra. Se per te è corretto spender 1000€ per una scheda di fascia media fai pure le tue scelte
L'intento è sempre quello di confrontarsi e valutare le opinioni altrui :)
Quello che dici ci può stare se il delta prezzo applicato al momento tra le due schede è maggiore del delta prestazioni, però poi uno si scontra con la necessità in base a come gioca (res/dettagli/fps da raggiungere), credo che questo poi faccia ponderare la decisione di quale scheda prendere.
Discorso consumo, posso dire che io stesso sto usando una curva da 1905mhz/0.900v riducendo di 100w i consumi a fronte di un 2 o 3 fps medi persi rispetto allo stock di 1980/1.075v . La maggior parte delle volte non sforo i 300w.
Ho sempre ritenuto la 3080 il giusto equilibrio costo prestazione , soprattutto al costo msrp (chi la presa a 719 ha fatto il colpaccio). Fosse uscita da subito la versione 12gb, sarebbe stato molto meglio.
Ecco, se vuoi sapere la mia, in ambito gaming, la 3080/12gb rende inutili la 3080 ti e la 3090. praticamente stesse prestazioni a un costo inferiore.
E' vero che è una MSI Suprim, però:
1440p
https://i.imgur.com/i7bdJu4.png
4k
https://i.imgur.com/W6FlMcS.png
L'intento è sempre quello di confrontarsi e valutare le opinioni altrui :)
Quello che dici ci può stare se il delta prezzo applicato al momento tra le due schede è maggiore del delta prestazioni, però poi uno si scontra con la necessità in base a come gioca (res/dettagli/fps da raggiungere), credo che questo poi faccia ponderare la decisione di quale scheda prendere.
Discorso consumo, posso dire che io stesso sto usando una curva da 1905mhz/0.900v riducendo di 100w i consumi a fronte di un 2 o 3 fps medi persi rispetto allo stock di 1980/1.075v . La maggior parte delle volte non sforo i 300w.
Ho sempre ritenuto la 3080 il giusto equilibrio costo prestazione , soprattutto al costo msrp (chi la presa a 719 ha fatto il colpaccio). Fosse uscita da subito la versione 12gb, sarebbe stato molto meglio.
Ecco, se vuoi sapere la mia, in ambito gaming, la 3080/12gb rende inutili la 3080 ti e la 3090. praticamente stesse prestazioni a un costo inferiore.
E' vero che è una MSI Suprim, però:
1440p
https://i.imgur.com/i7bdJu4.png
4k
https://i.imgur.com/W6FlMcS.png
Condivido in toto, la 3080 12GB credo sia la scheda meglio riuscita, ma di fatto è una 3080ti e infatti il prezzo rispetto la 3080 schizza.
Io non ho mai detto che la 3080 sia una cattiva scheda, anzi, è che per me non vale quello che costa rispetto la line-up.
è un po' come la 60 vs. 60ti
Chiaro che se uno vuole giocare in 4K a 100fps allora sicuramente la 3080 risulta una scelta migliore, ma se ne fa 97 la 3080 la 3070 ne fa 74
che torna ad essere (nello scenario migliore, 4K) il 30% a fronte del 50% di costo in più.
(come fps medi in 2K siamo a 155 vs. 125 --> nemmeno il 25%)
Praticamente 1pp nei frame, lo paghi 2pp sul prezzo
La frase finale non era chiaramente rivolta a te ;)
Da quando esistono le VGA di qualsiasi marca il rapporto prestazioni/costo è totalmente sbilanciato man mano che si sale di fascia....mah non capisco di cosa vi stupiate,posso capire uno che si affaccia ora in questo mondo...
Fermo restando che la RTX 3080 10Gb a mrsp è il bestbuy delle gen,è una scheda che ti permette di giocare in 4K over 60fps a praticamente tutto
29Leonardo
14-05-2022, 13:46
E' limitato fare il paragone solo in base al rapporto fps/costo, qua si parla anche di features utilizzabili come valore aggiunto ad un prodotto, la 3080 è l'unica scheda della serie 3000 dove si può usare l'RT senza scendere troppo a compromessi in QHD.
Nhirlathothep
15-05-2022, 06:19
Serie 20 30 e 40 nvidia mi sembrano la stessa scheda con solo aggiunti sempre più core.
cioè prendendo una 4090 credo non ci sia curiosità di provare la 3090 - 2080ti ... (parlo da appassionato hw, non da persona che usa le gpu per lavoro o giochi)
Mi piace provare le gpu diverse generazioni e confrontarle :
esempio gtx 280 con 240ccore e gtx 480 con 480ccore
- anche in quel caso la gtx 580 era come una 480 ma con ottimizzazioni che hanno permesso di avere una gpu che scaldava meno e con 512ccore
poi la 680 - 780ti - 880m- sempre tutte kepler
poi 980ti da provare, interessante e gtx 1080ti, la gpu definitiva pre-RTX
le 2080ti - 3090 - 4090 mi danno poco interesse nel provarle tutte, avevo preso la 2080ti e prenderò la 4090, ma in pratica mi sembra che una volta letto il numero di ccore, ci sia poco da provare : vanno come ci si aspetta
davide155
15-05-2022, 10:04
Serie 20 30 e 40 nvidia mi sembrano la stessa scheda con solo aggiunti sempre più core.
cioè prendendo una 4090 credo non ci sia curiosità di provare la 3090 - 2080ti ... (parlo da appassionato hw, non da persona che usa le gpu per lavoro o giochi)
Mi piace provare le gpu diverse generazioni e confrontarle :
esempio gtx 280 con 240ccore e gtx 480 con 480ccore
- anche in quel caso la gtx 580 era come una 480 ma con ottimizzazioni che hanno permesso di avere una gpu che scaldava meno e con 512ccore
poi la 680 - 780ti - 880m- sempre tutte kepler
poi 980ti da provare, interessante e gtx 1080ti, la gpu definitiva pre-RTX
le 2080ti - 3090 - 4090 mi danno poco interesse nel provarle tutte, avevo preso la 2080ti e prenderò la 4090, ma in pratica mi sembra che una volta letto il numero di ccore, ci sia poco da provare : vanno come ci si aspettaBeh, sull'andare come ci si aspetta mi sembra più che normale. Sono schede che devono rispettare determinati parametri. E una volta leakata la potenza di un determinato chip, dovrà andare come da specifica di casa madre.
Poi si, il vero salto c'è stato dalle 1000 alle 2000.
Con l'aggiunta dei tensor core, degli rtcore e di una gestione dei cuda core completamente diversa. Con dlss, rtx gestiti quasi interamente dai core specifici.
Le 4000 saranno un aggiornamento, con un nodo di produzione più piccolo, quindi più densità e più potenza con stessi consumi. Il che non è affatto poco a livello ingegneristico.
Poi ovviamente vista da fuori, daranno solo più fps rispetto alle 3000. Nulla di più.
L'unica cosa nuova sarà che supporteranno il dlss3.0.
terranux
16-05-2022, 11:59
domanda per chi ha una tuf 3080. quanti rpm raggiungono le ventole per mantenere 60-65° con gpu a manetta nei giochi?
amon.akira
17-05-2022, 02:45
domanda per chi ha una tuf 3080. quanti rpm raggiungono le ventole per mantenere 60-65° con gpu a manetta nei giochi?
ho avuto la tuf3080 per un annetto e mezzo quasi...avevo 1800-2000rpm e max 65gradi, d estate sforava un poco ma cmq mai arrivato a 70.
bella scheda
terranux
17-05-2022, 11:46
ho avuto la tuf3080 per un annetto e mezzo quasi...avevo 1800-2000rpm e max 65gradi, d estate sforava un poco ma cmq mai arrivato a 70.
bella schedagrazie
SinapsiTXT
18-05-2022, 13:45
Ho appena preso una 3060ti FE ma ero un po' combattuto perchè stavo per prendere la 3070FE ma mi sembrava un po' uno spreco siccome finirà su un pc secondario :D in generale non dovrei perdere tanto a livello di prestazioni rispetto la 3070.
Se volete prendere una FE su LDLC questo è il momento giusto, fiondatevi :D
The_Train
19-05-2022, 18:27
3080Ti FE al suo MSRP, io ho una 1080Ti e vorrei finalmente entrare nel ray tracing a 3440x1440, yay or nay?
Le 4xxx arrivano sicuro quest'anno, sono indeciso a sto punto. Volevo una 3090 ma fino ad oggi é stata introvabile ai prezzi dichiarati
guant4namo
19-05-2022, 19:10
Se volete prendere una FE su LDLC questo è il momento giusto, fiondatevi :D
Alla modica cifra dì euro? :)
3080Ti FE al suo MSRP, io ho una 1080Ti e vorrei finalmente entrare nel ray tracing a 3440x1440, yay or nay?
Le 4xxx arrivano sicuro quest'anno, sono indeciso a sto punto. Volevo una 3090 ma fino ad oggi é stata introvabile ai prezzi dichiarati
per me, un conto è spendere 500€ un altro è 1300€
per 1300€ non acquisterei ora come ora una 80ti/90
Alla modica cifra dì euro? :)
LDLC...
SinapsiTXT
19-05-2022, 19:25
Alla modica cifra dì euro? :)
al prezzo di listino di nvidia italia, basta andare sullo store nvidia per vedere i prezzi:
https://store.nvidia.com/it-it/geforce/store/?page=1&limit=9&locale=it-it
concordo con quanto scritto da Dono89, neppure io prenderei una 3080ti FE a sto punto, se devo buttare 1200€ li faccio per una futura 4080 :stordita:
al prezzo di listino di nvidia italia, basta andare sullo store nvidia per vedere i prezzi:
https://store.nvidia.com/it-it/geforce/store/?page=1&limit=9&locale=it-it
concordo con quanto scritto da Dono89, neppure io prenderei una 3080ti FE a sto punto, se devo buttare 1200€ li faccio per una futura 4080 :stordita:
Vedremo come andranno le cose. Io non credo che la 3080 TI scenderà con le 4080. Io credo invece che la serie 3000 sarà tenuta come fascia media e bassa dis chede video e che le 4000 saranno tute in fascia alta a prezzi più alti almeno per il primo anno. Poi certo mi sembra inutile investire adesso su una 3000 prima di vedere come saranno le 4000
frafelix
20-05-2022, 08:38
Se non si ha urgenza ormai non ha senso prendere la serie 3000, basta aspettare qualche mese
Thunder-74
20-05-2022, 12:04
Buongiorno, vi segnalo, se ancora non è stato fatto, che su Steam hanno pubblicato un bench Unreal Engine 5.
Si chiama Ezbench bello pesantino... senza andare a scomodare l'opzione extreme, quello base a 1080p mi gira sui 34 fps di media :fagiano:
https://i.imgur.com/rn24R6d.png
razor820
20-05-2022, 13:20
Buongiorno, vi segnalo, se ancora non è stato fatto, che su Steam hanno pubblicato un bench Unreal Engine 5.
Si chiama Ezbench bello pesantino... senza andare a scomodare l'opzione extreme, quello base a 1080p mi gira sui 34 fps di media :fagiano:
https://i.imgur.com/rn24R6d.png
Ottimo grazie.
Pomeriggio lo provo
demonangel
21-05-2022, 21:01
Vedremo come andranno le cose. Io non credo che la 3080 TI scenderà con le 4080. Io credo invece che la serie 3000 sarà tenuta come fascia media e bassa dis chede video e che le 4000 saranno tute in fascia alta a prezzi più alti almeno per il primo anno. Poi certo mi sembra inutile investire adesso su una 3000 prima di vedere come saranno le 4000
E il rischio esiste... Nuava serie 4000 a prezzi stellari e mantenimento della serie 3000 slcon minimo ritocco dei prezzi...ma proprio minimo.
Fintanto che la domanda supererà l'offerta...mi aspetto di tutto
demonangel
22-05-2022, 08:16
Tira la scheda pesantemente.
Ho rischiato di sforare i 400w del BIOS originale Evga
3440x1440 21:9 appena 29 FPS
https://thumbs2.imgbox.com/15/23/F1xpDvRv_t.jpg (https://imgbox.com/F1xpDvRv)
Eddie666
22-05-2022, 11:55
testato con la mia 3080 10gb, sia a 1080 che in 4k a frequenze diverse (1695mhz, 1785mhz, 1875mhz); non ho trovato però dove poter settare i vari profili, per cui ho lasciato i settaggi base:
1080P:
https://i.ibb.co/3k8dcHq/1080-P-1695.jpg (https://ibb.co/3k8dcHq) https://i.ibb.co/Pm9wHDY/1080-P-1785.jpg (https://ibb.co/Pm9wHDY) https://i.ibb.co/5GYRn9p/1080-P-1875.jpg (https://ibb.co/5GYRn9p)
4K.
https://i.ibb.co/KyTzDL6/4K-1695.jpg (https://ibb.co/KyTzDL6) https://i.ibb.co/72YTpJ7/4K-1785.jpg (https://ibb.co/72YTpJ7) https://i.ibb.co/1s0KxPR/4K-1875.jpg (https://ibb.co/1s0KxPR)
EDIT: in realtà temo che il test in 4K sia in 2K; non chiedetemi perchè ma, pur settando 4k dal menù sembra che il test giri comunque in 2k
Thunder-74
22-05-2022, 12:36
l'aggiornamento del bench ha ottimizzato le prestazioni
ora a 1080p..
https://i.imgur.com/ipx2XH7.png
Silver_77
22-05-2022, 23:59
https://i.postimg.cc/sB2YmJkJ/bench-1080.jpg (https://postimg.cc/sB2YmJkJ)
Ecco con la mia STRIX_3080_12GB
Però pensare di fare sta merda di fps a 1080:muro: ci prendono per il culo questi e ci fan spendere milionate in vga.:muro:
Qua le 3090 si trovano usate a partire da 1000£. Direi che i prezzi stanno scendendo. I prezzi del nuovo sono ancora molto alti, anche se ci sono molte schede in stock. Non credo che ne stiano vendendo chissa quante ora.
Cutter90
23-05-2022, 07:46
https://i.postimg.cc/sB2YmJkJ/bench-1080.jpg (https://postimg.cc/sB2YmJkJ)
Ecco con la mia STRIX_3080_12GB
Però pensare di fare sta merda di fps a 1080:muro: ci prendono per il culo questi e ci fan spendere milionate in vga.:muro:
Va beh ma chissene del bench. Mica ci giochi con quello :D
Qua le 3090 si trovano usate a partire da 1000£. Direi che i prezzi stanno scendendo. I prezzi del nuovo sono ancora molto alti, anche se ci sono molte schede in stock. Non credo che ne stiano vendendo chissa quante ora.
A me pare anche che siano leggermente aumentati. Le 3080 ricominciano astare sui 1400.... mi sembra uno sproposito. Acquistai una Zotac amp Holo 3080 a 899, appena uscirono. I prezzi sono ancora altissimi secondo me. Al momento queste schede convengono solo se si riesce a prenderle usate a buon prezzo oppure sul sito Nvidia le FE. Che poi le FE vanno anche benone. Ho una 3080 TI e con undervolt non va mai oltre i 68c . Certo è che riuscire a prenderle non è facile.
https://i.postimg.cc/sB2YmJkJ/bench-1080.jpg (https://postimg.cc/sB2YmJkJ)
Ecco con la mia STRIX_3080_12GB
Però pensare di fare sta merda di fps a 1080:muro: ci prendono per il culo questi e ci fan spendere milionate in vga.:muro:
E' ovvio. Tu compri una scheda , ma hanno già in programma giochi insostenibili per le schede che hai acquistato. Quando dicono che usciranno i titoli per questa generazione , intendono per la 4000 o 5000. con le 3000 ci giochi bene a titoli di vecchia generazione!:D :D :D :D
Thunder-74
23-05-2022, 17:21
Questo bench è a detta del produttore fuori scala rispetto al motore grafico UE5 in games, dato che usa texture 8k. Comunque fa uso anche di RT.
terranux
23-05-2022, 19:01
E' ovvio. Tu compri una scheda , ma hanno già in programma giochi insostenibili per le schede che hai acquistato. Quando dicono che usciranno i titoli per questa generazione , intendono per la 4000 o 5000. con le 3000 ci giochi bene a titoli di vecchia generazione!:D :D :D :D
è da sempre così.
è da sempre così.
Si, io ho una 3080ti e salterò le 4000. Tanto la mia andrà come una 4070. Va benone:D
Buongiorno
si sa se la serie 4000 supporterà la codifica e decodifica av1 in hardware. Lo chiedo perché faccio molto video editing e o anche bisogno di molta RAM video. Inoltre il programma che uso è Nvidia centrico.
Grazie
Ugo
terranux
24-05-2022, 11:49
Si, io ho una 3080ti e salterò le 4000. Tanto la mia andrà come una 4070. Va benone:D
come la 4070 2 step in meno
https://www.nvidia.com/download/driverResults.aspx/189617/en-us
Usciti i driver NVIDIA STUDIO DRIVER 512.96, li ho installati, al posto dei GAME READY DRIVER 512.77 e ho risolto i problemi di parti dell'immagine che avevano un flickering "nero" sul laptop, ancora non li ho testati sul desktop. Il difetto si notava principalmente nei menu di Civilization VI usato in modalità DX12.
come la 4070 2 step in meno
Alla fine sarà sempre il solito 25/30% di scarto prestazioni. Quindi probabile che si aggiri intorno alla 4070. Poi vedremo. Ma comunque fino a che non vedo di nuovo titoli decenti non spendo un centesimo. La 3080ti sta facendo la polvrere con la penuria di titoli in circolazione, queli decenti risalgono a 2 o 3 anni fa. Facessero più titoli creativi e meno schede:D :D :D
Thunder-74
24-05-2022, 17:43
https://www.nvidia.com/download/driverResults.aspx/189617/en-us
Usciti i driver NVIDIA STUDIO DRIVER 512.96, li ho installati, al posto dei GAME READY DRIVER 512.77 e ho risolto i problemi di parti dell'immagine che avevano un flickering "nero" sul laptop, ancora non li ho testati sul desktop. Il difetto si notava principalmente nei menu di Civilization VI usato in modalità DX12.
Se ti interessa..
GeForce Game Ready 512.95 WHQL
LINK (https://videocardz.com/driver/nvidia-geforce-game-ready-512-95-whql)
Game Ready for HITMAN 3
This new Game Ready Driver provides the best day-0 gaming experience for the HITMAN 3 – Year 2 update, which introduces ray tracing and uses NVIDIA DLSS to more than double framerates.
In addition, this new Game Ready Driver offers support for the latest releases including Sniper Elite 5 and the early access launch of My Time at Sandrock.
Fixed Issues
- [Grid 2019]: Flags and banners will no longer flicker during gameplay.
- [Adobe Premiere Pro]: Fixed Direct3D-related Crash Dumps.
- [Adobe Premiere Pro]: NVIDIA Control Panel now allows users to modify the Image Sharpening setting.
Known Issues
- Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
- [GeForce RTX 3090 Ti] Oculus Rift S/Pimax 8Kx is not detected. [3632289][3626116]
- Videos played back in Microsoft Edge may appear green if NVIDIA Image Scaling is enabled upon resuming from hibernate or booting with fastboot. [3624218]
- [DirectX 12] Shadowplay recordings may appear over exposed when Use HDR is enabled from the Windows display settings. [200742937]
- [Assassin’s Creed Origins] Game displays flicker when character is under water near a boat.[3642655]
- Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
- [NVIDIA Ampere GPU]: With the GPU connected to an HDMI 2.1 audio/video receiver, audio may drop out when playing back Dolby Atmos. [3345965]
- Club 3D CAC-1085 dongle limited to maximum resolution of 4K at 60Hz. [3542678]
terranux
24-05-2022, 20:46
Alla fine sarà sempre il solito 25/30% di scarto prestazioni. Quindi probabile che si aggiri intorno alla 4070. Poi vedremo. Ma comunque fino a che non vedo di nuovo titoli decenti non spendo un centesimo. La 3080ti sta facendo la polvrere con la penuria di titoli in circolazione, queli decenti risalgono a 2 o 3 anni fa. Facessero più titoli creativi e meno schede:D :D :D
insomma... senza dlss non è che ci sia questo immenso polverone. poi non penso il 30%
davidenko7
24-05-2022, 23:26
Tira la scheda pesantemente.
Ho rischiato di sforare i 400w del BIOS originale Evga
3440x1440 21:9 appena 29 FPS...
l'aggiornamento del bench ha ottimizzato le prestazioni
ora a 1080p..
Io faccio meno di voi ma con una 3090 :help:
https://i.imgur.com/QgN3UGZh.jpg
https://i.imgur.com/MA7noQth.png
Thunder-74
25-05-2022, 07:27
Io faccio meno di voi ma con una 3090 :help:
https://i.imgur.com/QgN3UGZh.jpg
https://i.imgur.com/MA7noQth.png
possibile che hai qualche software in background ciuccia risorse :)
Ciao a tutti,
Ho una rtx 3070ti ma la scritta geforce non si illumina, vedo che c'è un connettore vuoto, forse devo attaccarci un cavo?
Eddie666
25-05-2022, 11:49
Ciao a tutti,
Ho una rtx 3070ti ma la scritta geforce non si illumina, vedo che c'è un connettore vuoto, forse devo attaccarci un cavo?
no, quello è un connettore per collegare delle ventole aggiuntive (es vantole case, tramite un adattatore) per far si che vengano comandate anche loro sulla base della temperatura della GPU
Ciao a tutti,
Ho una rtx 3070ti ma la scritta geforce non si illumina, vedo che c'è un connettore vuoto, forse devo attaccarci un cavo?
Che motherboard hai?
Che motherboard hai?
Msi MPG X570S Edge Max WIFI AMD X570 AM4
no, quello è un connettore per collegare delle ventole aggiuntive (es vantole case, tramite un adattatore) per far si che vengano comandate anche loro sulla base della temperatura della GPU
ma pensa, non ci sarei mai arrivato :D
davidenko7
25-05-2022, 12:51
possibile che hai qualche software in background ciuccia risorse :)
Ho provato a vedere ma non credo di avere niente in background. Non saprei proprio :(
mikael84
25-05-2022, 13:00
Ho provato a vedere ma non credo di avere niente in background. Non saprei proprio :(
Fai poco perchè hai un clock basso. Leggo solo 1770mhz.
bronzodiriace
25-05-2022, 13:00
Ho provato a vedere ma non credo di avere niente in background. Non saprei proprio :(Programmini per gestire l'illuminazione argb?
Inviato dal mio MAR-LX1A utilizzando Tapatalk
amon.akira
25-05-2022, 13:16
possibile che hai qualche software in background ciuccia risorse :)
io 44.600 ho fatto, certo l ho fatto solo una volta e con un po di roba in background...certo che a 1080p la gpu non è sempre al max perciò non c'è neanche il 10% tra 3080 vs 3090...ho provato a mettere 2160p o 1440p ma andava sempre a 1080p
fatto un po con i piedi sto bench poi l ho disinstallato.
Msi MPG X570S Edge Max WIFI AMD X570 AM4
Entra nel bios e vedi se è attivo l'RGB .
StrixyRoG
25-05-2022, 15:16
Ciao a tutti,
Ho una rtx 3070ti ma la scritta geforce non si illumina, vedo che c'è un connettore vuoto, forse devo attaccarci un cavo?
Ma quale 3070ti? Magari la tua non si illumina, perché anche senza software dovrebbe comunque illuminarsi.
Ma quale 3070ti? Magari la tua non si illumina, perché anche senza software dovrebbe comunque illuminarsi.
è una manli 3070ti e ha la scritta geforce come se si dovesse illuminare
Entra nel bios e vedi se è attivo l'RGB .
tutto attivo
tutto attivo
probabile che non si possa illuminare. Se mi dai il link del sito della scheda ti posso dire meglio, e anche tu puoi vedere meglio se ha rgb implementati. Comunque dal video che hpo visto dovrebbe accendersi.
terranux
25-05-2022, 19:02
è una manli 3070ti e ha la scritta geforce come se si dovesse illuminarela gallardo si illumina la liscia no
razor820
25-05-2022, 20:09
Oggi un mio amico che deve comprare una 3070ti, mi ha chiesto di installare warzone su pc, perchè passando dalla ps5 al pc, voleva capire se graficamente c'era un salto di qualità. L unico salto è stato quello degli fps. :D
La cosa assurda, adesso lo chiedo ai possessori di questo gioco, ma come c.. è possibile che un gioco graficamente mediocre, intendo il multiplayer, giocato in 4k con dls quality mi saturi completamente tutta la memoria video? 12001mb. Tutta dall inizio della sessione alla fine.
Ho controllato sia su hwinfo che sul grafico nel file log di msi ab.
E' un problema risaputo?
davidenko7
25-05-2022, 20:58
Fai poco perchè hai un clock basso. Leggo solo 1770mhz.
Alla fine del bench stava a quella frequenza ma per tutto il bench si trovava tra 1830 e 1875. Effettivamente è un poco più bassa del solito, forse perchè tocco il power limit?
Programmini per gestire l'illuminazione argb?
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Purtroppo ho sia aura sync che icue ma ho fatto anche prove chiudendo completamente tutto e non cambia praticamente niente
(THE REAL) Neo
25-05-2022, 22:40
Oggi un mio amico che deve comprare una 3070ti, mi ha chiesto di installare warzone su pc, perchè passando dalla ps5 al pc, voleva capire se graficamente c'era un salto di qualità. L unico salto è stato quello degli fps. :D
La cosa assurda, adesso lo chiedo ai possessori di questo gioco, ma come c.. è possibile che un gioco graficamente mediocre, intendo il multiplayer, giocato in 4k con dls quality mi saturi completamente tutta la memoria video? 12001mb. Tutta dall inizio della sessione alla fine.
Ho controllato sia su hwinfo che sul grafico nel file log di msi ab.
E' un problema risaputo?Ricorda.
Il saggio,dice: "Allocare,non é saturare."
Cutter90
26-05-2022, 06:06
https://i.imgur.com/a1qDWL0.png
carina pure la musichetta :D
Cutter90
26-05-2022, 08:57
Oggi un mio amico che deve comprare una 3070ti, mi ha chiesto di installare warzone su pc, perchè passando dalla ps5 al pc, voleva capire se graficamente c'era un salto di qualità. L unico salto è stato quello degli fps. :D
La cosa assurda, adesso lo chiedo ai possessori di questo gioco, ma come c.. è possibile che un gioco graficamente mediocre, intendo il multiplayer, giocato in 4k con dls quality mi saturi completamente tutta la memoria video? 12001mb. Tutta dall inizio della sessione alla fine.
Ho controllato sia su hwinfo che sul grafico nel file log di msi ab.
E' un problema risaputo?
No, non è problema. Cod su pc ha sempre fatto così, ma non limita le performance. Da ps5 a pc la differenza oltre che di fps è anche grafica, ovviamente se lo si imposta oltre i settaggi di ps5....
razor820
26-05-2022, 09:42
Ricorda.
Il saggio,dice: "Allocare,non é saturare."
Non c è un metodo per vedere L effettivo utilizzo?
TheInvoker
26-05-2022, 22:48
Ciao
Cerco volontari(o) con RTX 3060 e/o 3060 ti che faccia una prova di encoding video con un certo software e settaggi specifici (semplice encoding HEVC con frame interpolating per portare i video a 60fps) e quindi confrontare il risultato con quello che ottengo io.
Devo capire se un acquisto a questi prezzi (che io considero ancora troppo alti) può avere senso o no. NON lo ha per il gaming, ma lato encoding/editing video di lavoro da fare ne avrei parecchio.
PS: il video da provare basta che sia lo stesso, può essere uno mio o uno vostro che mi mandate, bata che sia 720 o 1080. Niente SD o 4K
Oggi un mio amico che deve comprare una 3070ti, mi ha chiesto di installare warzone su pc, perchè passando dalla ps5 al pc, voleva capire se graficamente c'era un salto di qualità. L unico salto è stato quello degli fps. :D
Beh, hai detto niente, nei giochi online online dove tu spari ad un altro giocatore avere pochi fps significa morte certa :D
terranux
27-05-2022, 18:37
Ciao
Cerco volontari(o) con RTX 3060 e/o 3060 ti che faccia una prova di encoding video con un certo software e settaggi specifici (semplice encoding HEVC con frame interpolating per portare i video a 60fps) e quindi confrontare il risultato con quello che ottengo io.
Devo capire se un acquisto a questi prezzi (che io considero ancora troppo alti) può avere senso o no. NON lo ha per il gaming, ma lato encoding/editing video di lavoro da fare ne avrei parecchio.
PS: il video da provare basta che sia lo stesso, può essere uno mio o uno vostro che mi mandate, bata che sia 720 o 1080. Niente SD o 4K
quale software?
TheInvoker
27-05-2022, 18:41
quale software?
poco conosciuto,è molto recente.
si chiama EncodeGUI
ho provato anche con topaz videoenhanceAI (che uso per l'upscaling, e si potrebbe fare un'altra prova volendo) ma ci mette di più.
SinapsiTXT
28-05-2022, 11:33
Ciao
Cerco volontari(o) con RTX 3060 e/o 3060 ti che faccia una prova di encoding video con un certo software e settaggi specifici (semplice encoding HEVC con frame interpolating per portare i video a 60fps) e quindi confrontare il risultato con quello che ottengo io.
Devo capire se un acquisto a questi prezzi (che io considero ancora troppo alti) può avere senso o no. NON lo ha per il gaming, ma lato encoding/editing video di lavoro da fare ne avrei parecchio.
PS: il video da provare basta che sia lo stesso, può essere uno mio o uno vostro che mi mandate, bata che sia 720 o 1080. Niente SD o 4K
Mi è arrivata la 3060ti FE e la dovrei montare tra oggi e domani se il test non richiede grossi impegni in termini di tempo posso darti una mano ma devi
1. spiegarmi per filo e per segno quale sw scaricare e passarmi i file per l'encoding
2. tenere in considerazione che la 3060ti FE la sto montando sul pc secondario che vedi in firma (quindi 4670k 16gb di ram ecc.)
3. se vuoi posso fare lo stesso test con l'ASUS TUF 3070 che tengo sul pc principale
PS
ma quanto è bella la scatola di Nvidia per le soluzioni FE? Peccato solo aver messo le mani su una 3060ti dopo quasi 2 anni quando il mio obiettivo è sempre stato la 3080FE :cry:
Mi è arrivata la 3060ti FE e la dovrei montare tra oggi e domani se il test non richiede grossi impegni in termini di tempo posso darti una mano ma devi
1. spiegarmi per filo e per segno quale sw scaricare e passarmi i file per l'encoding
2. tenere in considerazione che la 3060ti FE la sto montando sul pc secondario che vedi in firma (quindi 4670k 16gb di ram ecc.)
3. se vuoi posso fare lo stesso test con l'ASUS TUF 3070 che tengo sul pc principale
PS
ma quanto è bella la scatola di Nvidia per le soluzioni FE? Peccato solo aver messo le mani su una 3060ti dopo quasi 2 anni quando il mio obiettivo è sempre stato la 3080FE :cry:
Si le scatole Nvidia sono fatte molto bene. Ho una 3080TI FE, ma credo che comunque siano identiche. In mio modesto parere, credo che le FE siano le più belle schede in circolazione. In termini di eleganza sono irraggiungibili da qualsiasi custom
TheInvoker
28-05-2022, 17:38
Mi è arrivata la 3060ti FE e la dovrei montare tra oggi e domani se il test non richiede grossi impegni in termini di tempo posso darti una mano ma devi
1. spiegarmi per filo e per segno quale sw scaricare e passarmi i file per l'encoding
2. tenere in considerazione che la 3060ti FE la sto montando sul pc secondario che vedi in firma (quindi 4670k 16gb di ram ecc.)
3. se vuoi posso fare lo stesso test con l'ASUS TUF 3070 che tengo sul pc principale
PS
ma quanto è bella la scatola di Nvidia per le soluzioni FE? Peccato solo aver messo le mani su una 3060ti dopo quasi 2 anni quando il mio obiettivo è sempre stato la 3080FE :cry:
Certo ti spiego tutto io e ci vuole pochissimo (poi il tempo di editing può essere lungo ma nel frattempo puoi fare quello che vuoi). Inoltre non serve che completi un file al 100%. già se arrivi al 50% e fai uno screenshot va bene. Tanto sotto segnala il tempo trascorso e quello mancante (che è abbastanza stabile) quindi si può fare una stima abbastanza precisa.
Ti mando un messaggio privato.
Non c è un metodo per vedere L effettivo utilizzo?
In afterburner:
Uso della memoria -> Vram allocata
memory usage/process -> Vram usata
https://i.ibb.co/89rRb4W/settaggio-afterburner.jpg (https://imgbb.com/)
DX11
https://i.ibb.co/gmHb2LJ/ram-allocata-usata.jpg (https://ibb.co/RYZGFkc)
DX12
https://i.ibb.co/gVGjsQm/civVram.jpg (https://ibb.co/fvb1mZq)
Tra i due screenshot ho spento la grafica integrata (GPU1)
Per rinominare i campi spunta "sostituisci nome del gruppo" tra le opzioni e cambialo come vuoi.
Thunder-74
30-05-2022, 17:44
In afterburner:
Uso della memoria -> Vram allocata
memory usage/process -> Vram usata
https://i.ibb.co/89rRb4W/settaggio-afterburner.jpg (https://imgbb.com/)
DX11
https://i.ibb.co/gmHb2LJ/ram-allocata-usata.jpg (https://ibb.co/RYZGFkc)
DX12
https://i.ibb.co/gVGjsQm/civVram.jpg (https://ibb.co/fvb1mZq)
Tra i due screenshot ho spento la grafica integrata (GPU1)
Per rinominare i campi spunta "sostituisci nome del gruppo" tra le opzioni e cambialo come vuoi.
Anche così non vedi la Vram usata effettivamente. La differenza tra le due misurazioni sta nel fatto che una si riferisce alla totalità della Vram impegnata e una alla Vram impegnata dall'applicazione/gioco che AB/RivaTuner sta analizzando.
Del resto in concetto stesso che cerchiamo tra allocare e usare, sta nel fatto che un gioco può riempire la memoria più del necessario (allocare), oppure riempire la memoria il giusto necessario (usare). Vien da se che non c'è modo di sapere se quello che si legge a video rientra in uno o nell'altro caso. Unico modo empirico è prendere un titolo, maxarlo, usare il DSR per ricreare una res spinta e vedere se stuttera. Non si misura nulla, ma se uno si vuole levare lo sfizio di capire se effettivamente in un titolo è ai margini della propria Vram, con questo metodo lo si scopre. L'ho usato con COD a una res ampiamente più alta del 4k e girava ancora fluido.
Anche così non vedi la Vram usata effettivamente. La differenza tra le due misurazioni sta nel fatto che una si riferisce alla totalità della Vram impegnata e una alla Vram impegnata dall'applicazione/gioco che AB/RivaTuner sta analizzando.
Del resto in concetto stesso che cerchiamo tra allocare e usare, sta nel fatto che un gioco può riempire la memoria più del necessario (allocare), oppure riempire la memoria il giusto necessario (usare). Vien da se che non c'è modo di sapere se quello che si legge a video rientra in uno o nell'altro caso. Unico modo empirico è prendere un titolo, maxarlo, usare il DSR per ricreare una res spinta e vedere se stuttera. Non si misura nulla, ma se uno si vuole levare lo sfizio di capire se effettivamente in un titolo è ai margini della propria Vram, con questo metodo lo si scopre. L'ho usato con COD a una res ampiamente più alta del 4k e girava ancora fluido.
Interessante!
Ho fatto qualche prova. Ho caricato due giochi in 4k (rise+shadow of the tomb raider maxati) in modo da saturare completamente la VRAM. Avevo 3GB di Shared memory (memoria RAM usata come swap quando la VRAM dedicata è piena si era riempita) utilizzati. Questo è quello che succede nel primo screenshot
https://i.ibb.co/R36R0sC/1.jpg (https://ibb.co/gSWkTfD)
Nel secondo screenshot dopo aver terminato uno dei due giochi la shared memory va a 0 https://i.ibb.co/sJb6PKG/2.jpg (https://ibb.co/93cVvbL)
Questo per dimostrare che quanto detto in questo articolo https://devblogs.microsoft.com/directx/gpus-in-the-task-manager/ è vero. Task manager ha la migliore visione possibile dell'utilizzo della RAM della scheda video. La cosa giusta da fare quindi per sapere se si è a corto di Vram non è controllare quanta ne è usata, ma se la shared memory è utilizzata o meno, soprattutto se ci sono variazioni mentre si sta giocando.
Thunder-74
31-05-2022, 07:53
Interessante!
Ho fatto qualche prova. Ho caricato due giochi in 4k (rise+shadow of the tomb raider maxati) in modo da saturare completamente la VRAM. Avevo 3GB di Shared memory (memoria RAM usata come swap quando la VRAM dedicata è piena si era riempita) utilizzati. Questo è quello che succede nel primo screenshot
https://i.ibb.co/R36R0sC/1.jpg (https://ibb.co/gSWkTfD)
Nel secondo screenshot dopo aver terminato uno dei due giochi la shared memory va a 0 https://i.ibb.co/sJb6PKG/2.jpg (https://ibb.co/93cVvbL)
Questo per dimostrare che quanto detto in questo articolo https://devblogs.microsoft.com/directx/gpus-in-the-task-manager/ è vero. Task manager ha la migliore visione possibile dell'utilizzo della RAM della scheda video. La cosa giusta da fare quindi per sapere se si è a corto di Vram non è controllare quanta ne è usata, ma se la shared memory è utilizzata o meno, soprattutto se ci sono variazioni mentre si sta giocando.
Verissimo, :mano:
alla fine ho ceduto e stanco di arrivare oltre i 100 gradi di ram ho preso il waterblock alphacool anche per la 3080ti founders; spero di non avere problemi con lo spessore dei pad perchè le 3080ti prodotte da dicembre in poi paiono essere leggermente diverse dalle prime :stordita:
alla fine ho ceduto e stanco di arrivare oltre i 100 gradi di ram ho preso il waterblock alphacool anche per la 3080ti founders; spero di non avere problemi con lo spessore dei pad perchè le 3080ti prodotte da dicembre in poi paiono essere leggermente diverse dalle prime :stordita:
Scusa ma con la 3080 ti avevi memorie così calde?:eek: MA avevi undervoltato la scheda? Era in OC o9 a stock?
No perchè io con la stessa tua scheda e un po' di undervolt non supero quasi mai gli 88/90°
Scusa ma con la 3080 ti avevi memorie così calde?:eek: MA avevi undervoltato la scheda? Era in OC o9 a stock?
No perchè io con la stessa tua scheda e un po' di undervolt non supero quasi mai gli 88/90°
Dipende molto dal come viene usata, con la scheda al 100% senza v-sync è comune sulle FE. Io con la 3080 FE senza usare cambiare i pad arrivavo a 104C sulle memorie in Cyberpunk2077 e 3080 e 3080 Ti hanno lo stesso dissipatore
Dipende molto dal come viene usata, con la scheda al 100% senza v-sync è comune sulle FE. Io con la 3080 FE senza usare cambiare i pad arrivavo a 104C sulle memorie in Cyberpunk2077 e 3080 e 3080 Ti hanno lo stesso dissipatore
In 4k con lo stesso titolo, mai superato i 90°/92.... anche se ho una dissipazione particolare montata da me sulla FE, due ventole silenziose da 12 aderenti al radiatore che dissipano moltissimo, ma anche prima di montarlo le memorie non salivano mai così tanto. Anche la scheda è stata sempre fresca e a stock non è mai salita oltre i 73°. ora inundervolt generalmente sta sui 65/68°. Avrò avuto una scheda più fortunata per la prima volta nella mia vita.... forse. Magari farò altre prove vi dico...
È leggendo questi messaggi che sono ancora più contento di aver liquidato la mia 3080 .
Thunder-74
31-05-2022, 15:40
È leggendo questi messaggi che sono ancora più contento di aver liquidato la mia 3080 .
Fanno paura sti numeri, vero ? ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Dipende molto dal come viene usata, con la scheda al 100% senza v-sync è comune sulle FE. Io con la 3080 FE senza usare cambiare i pad arrivavo a 104C sulle memorie in Cyberpunk2077 e 3080 e 3080 Ti hanno lo stesso dissipatore
Ho provato adesso un'ora su far cry 6 ( max setting), memorie 90°. Risoluzione 3440x1440p.
Avranno cambiato il materiale dei pad o qualcosa nel dissipatore :fagiano:
Ora con i pad nuovi sto sempre sotto i 90C.
Avranno cambiato il materiale dei pad o qualcosa nel dissipatore :fagiano:
Ora con i pad nuovi sto sempre sotto i 90C.
Potrebbe....
albero77
31-05-2022, 16:31
alla fine ho ceduto e stanco di arrivare oltre i 100 gradi di ram ho preso il waterblock alphacool anche per la 3080ti founders; spero di non avere problemi con lo spessore dei pad perchè le 3080ti prodotte da dicembre in poi paiono essere leggermente diverse dalle prime :stordita:
Sinceramente se la scheda non va in blocco per surriscaldamento io non vedo il problema. Io le temperature nemmeno le monitoro e sono con un case sff. Le temperature schizzano a 100°?! Sticazzi! L'importante è che tutto funzioni senza intoppi. La scheda si fonde mentre gioco? C'è la garanzia, cioè è un problema mio ma fino ad un certo punto se la progettazione l'ha fatta Pippo Pluto e Paperino.
C'è da dire che anche l'assemblaggio è cruciale in queste schede. Uno 0.25mm in più o in meno e ci si ritrova con temperature completamente diverse o hotspot molto alti. Secondo me c'è anche variabilità di fabbrica. Posso chiederti le temperature sul die della GPU per curiosità? Sia normale che hotspot.
Sinceramente se la scheda non va in blocco per surriscaldamento io non vedo il problema. Io le temperature nemmeno le monitoro e sono con un case sff. Le temperature schizzano a 100°?! Sticazzi! L'importante è che tutto funzioni senza intoppi. La scheda si fonde mentre gioco? C'è la garanzia, cioè è un problema mio ma fino ad un certo punto se la progettazione l'ha fatta Pippo Pluto e Paperino.
Normalmente ti darei ragione ma negli ultimi tempi ti danno un rimborso piuttosto che una nuova scheda (non so Nvidia come gestica gli RMA) e quindi uno tende a cercare di farla "vivere" il più a lungo possibile. Stare senza PC durante la pandemia era un NO assoluto.
Normalmente ti darei ragione ma negli ultimi tempi ti danno un rimborso piuttosto che una nuova scheda (non so Nvidia come gestica gli RMA) e quindi uno tende a cercare di farla "vivere" il più a lungo possibile.
Era così prima ma per fortuna le cose negli ultimi tempi sono totalmente cambiate e le schede sono disponibili in abbondanza. Se dessero ancora il rimborso di quanto speso ci andrebbero in perdita.
Sinceramente se la scheda non va in blocco per surriscaldamento io non vedo il problema. Io le temperature nemmeno le monitoro e sono con un case sff. Le temperature schizzano a 100°?! Sticazzi! L'importante è che tutto funzioni senza intoppi. La scheda si fonde mentre gioco? C'è la garanzia, cioè è un problema mio ma fino ad un certo punto se la progettazione l'ha fatta Pippo Pluto e Paperino.
Fantastico:D :D :D Nobel:D :D :D
albero77
31-05-2022, 16:56
Fantastico:D :D :D Nobel:D :D :D
Beh si meglio di farsi venire un attacco di panico o di discuterne con lo strizzacervelli nelle Vostre sedute settimanali. ;)
Beh si meglio di farsi venire un attacco di panico o di discuterne con lo strizzacervelli nelle Vostre sedute settimanali. ;)
Certo.... contando che io sono uno strizzacervelli!!!!:D :D :D
albero77
31-05-2022, 17:05
Certo.... contando che io sono uno strizzacervelli!!!!:D :D :D
Passami il numero in pvt che ne ho bisogno anch'io:D :D
Passami il numero in pvt che ne ho bisogno anch'io:D :D
ah ah ah ah... non ho spazio attualmente.... ma mi pare che non vai malaccio..;)
Thunder-74
31-05-2022, 17:54
ah ah ah ah... non ho spazio attualmente.... ma mi pare che non vai malaccio..;)
Blee, qui faresti soldi a palate con terapie di gruppo con tutti noi; ops ma ne fai parte anche tu :fagiano:
;)
Inviato dal mio iPhone X utilizzando Tapatalk
Blee, qui faresti soldi a palate con terapie di gruppo con tutti noi; ops ma ne fai parte anche tu :fagiano:
;)
Inviato dal mio iPhone X utilizzando Tapatalk
Appunto.... non vi fidate troppo:D :D :D :mano: :mano:
Fanno paura sti numeri, vero ? ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Non lo so,non penso siano normali,ma 100 gradi?Io a liquido ho tipo 42-43 gradi con firestryke e qui c'e' clima africano proprio e non ho delle ventole buonissime,in game manco a 40 gradi arriva :stordita:
Avete provato a forzare il res-BAR nei giochi non supportati ufficialmente? Sono solo 20 titoli per ora. Si può fare usando nvidia profile inspector, con Hellblade Senua's Sacrifice e ho guadagnato un 5%, mica male!
https://github.com/Orbmu2k/nvidiaProfileInspector/releases
https://www.youtube.com/watch?v=1zYjoLbrDF4
https://www.youtube.com/watch?v=ZTOtqWTFSK8
Cutter90
01-06-2022, 07:31
Le memorie fino a 105-110 gradi non fanno nulla. Del resto chi ha preso le FE doveva sapere che rispetto alle custom sono da sempre più calde di 10-15 gradi.
Ma non è cmq un problema. Si perde un po' di performance e fine :)
fraussantin
01-06-2022, 08:23
Se i gradi non sono un problema per J. Jacket che fa la garanzia .. xD...
L'unico vero problema per me è il caldo nella stanza che rende inutilizzabile il pc fino a settembre.
Mi sto gongolando con la deck.
Cutter90
01-06-2022, 13:22
Se i gradi non sono un problema per J. Jacket che fa la garanzia .. xD...
L'unico vero problema per me è il caldo nella stanza che rende inutilizzabile il pc fino a settembre.
Mi sto gongolando con la deck.
Eh addirittura inutilizzabile..... hai uno sgabuzino come stanza da Gaming? :)
speed_speed
01-06-2022, 16:55
Buona sera posseggo una 3090 con un processore i9 9900k Fa collo di bottiglia ?
Buona sera posseggo una 3090 con un processore i9 9900k Fa collo di bottiglia ?
In FullHD si, in QHD ni, in 4K no.
amon.akira
01-06-2022, 19:34
Buona sera posseggo una 3090 con un processore i9 9900k Fa collo di bottiglia ?
se a briglie sciolte (no vsync) vedi la gpu sotto il 99% significa che sei limitato dalla cpu in quello scenario
se a briglie sciolte (no vsync) vedi la gpu sotto il 99% significa che sei limitato dalla cpu in quello scenario
Può essere anche il game
Io in deathloop con un 5800x a volte ho anche 85/90
terranux
01-06-2022, 20:42
Buona sera posseggo una 3090 con un processore i9 9900k Fa collo di bottiglia ?
yes
amon.akira
01-06-2022, 20:57
Può essere anche il game
Io in deathloop con un 5800x a volte ho anche 85/90
scritto con i piedi o quel che sia è sempre un collo che deriva dalla cpu se la gpu non va al max.
Deathloop 1080p cpu test (https://i.imgur.com/pnMj97q.png)
scritto con i piedi o quel che sia è sempre un collo che deriva dalla cpu se la gpu non va al max.
Deathloop 1080p cpu test (https://i.imgur.com/pnMj97q.png)
Forse è scritto male, ma tanto più allora il collo di bottiglia non è la cpu
bronzodiriace
02-06-2022, 21:01
Buona sera posseggo una 3090 con un processore i9 9900k Fa collo di bottiglia ?Ho una situazione simile e ti dico di no. Almeno a 4k e 5ghz fissi
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Cutter90
03-06-2022, 08:12
Buona sera posseggo una 3090 con un processore i9 9900k Fa collo di bottiglia ?
Dipende dal gioco e dalle risoluzione. In 1080p assolutamente si. In 1440p devi spingerlo tanto e potrebbe lo stesso farlo, ma dipende dai giochi. In 4k no, tranne qualche gioco che anche se non ti fa scendere la gpu sotto il 99% ti limita lo stesso togliendoti qualche fps se la cpu lavora dall'80% in su.
Il vero problema di moltissimi giochi è che non sono programmati per sfruttare i core. Quando ne usano 3-4 sono già tanti. E questo limita terribilmente la longevità delle cpu. Se i giochi fossero programmati come si deve una cpu come la 9900K durerebbe 10 anni senza problemi.
mattxx88
03-06-2022, 08:21
Ho una situazione simile e ti dico di no. Almeno a 4k e 5ghz fissi
Inviato dal mio MAR-LX1A utilizzando Tapatalk
dipende dal gioco, su warzone io passando da un 9900KS a 5.2ghz a un 12900k ho avuto un bel boost di fps a 4k. Migliorato anche BF2042 (non come warzone)
Cyberpunk invece 0 ad esempio, uguale a prima
La storia che non ci sono vantaggi cambiando la cpu in 2k e (meno, ma vale lo stesso discorso) in 4K è una cavolata
Non ci sono con determinati titoli, con altri si sente eccome
Sopratutto se si usano fsr/dlss
Ricordo che un dlss in 2k equivale a giocare a meno di 1680x1050, quindi si, la cpu conta eccome
Stiamo andando sempre più verso il super sampling, le cpu conteranno sempre di più
Lo standard degli 8 core è di fatto già presente
Cutter90
03-06-2022, 09:30
La storia che non ci sono vantaggi cambiando la cpu in 2k e (meno, ma vale lo stesso discorso) in 4K è una cavolata
Non ci sono con determinati titoli, con altri si sente eccome
Sopratutto se si usano fsr/dlss
Ricordo che un dlss in 2k equivale a giocare a meno di 1680x1050, quindi si, la cpu conta eccome
Stiamo andando sempre più verso il super sampling, le cpu conteranno sempre di più
Lo standard degli 8 core è di fatto già presente
Concordo con tutto, ma i giochi continuano a non supportare i multicore, salvo rare eccezioni, tipo CP2077, che però sono ottimizzati malissimo lato cpu....
terranux
03-06-2022, 10:47
Concordo con tutto, ma i giochi continuano a non supportare i multicore, salvo rare eccezioni, tipo CP2077, che però sono ottimizzati malissimo lato cpu....
te faresti sfruttare al 100% la cpu nei giochi?
Cutter90
03-06-2022, 10:56
te faresti sfruttare al 100% la cpu nei giochi?
No, assolutamente. Ma se ho una cpu da 10 core vorreie vedere tutti i core usati al 30% invece che 3 core al 90% e i restanti 7 al 3 %.... questo sarebbe ottimizzare l'ultizzo della cpu
In 4k con lo stesso titolo, mai superato i 90°/92.... anche se ho una dissipazione particolare montata da me sulla FE, due ventole silenziose da 12 aderenti al radiatore che dissipano moltissimo, ma anche prima di montarlo le memorie non salivano mai così tanto. Anche la scheda è stata sempre fresca e a stock non è mai salita oltre i 73°. ora inundervolt generalmente sta sui 65/68°. Avrò avuto una scheda più fortunata per la prima volta nella mia vita.... forse. Magari farò altre prove vi dico...
versione founders (dissipatore bellissimo ma non proprio incredibile), ram overcloccate a +800/1000, core +150/200;
prima andava meglio, ma in questi ultimi mesi (complice anche l'aumento della tamb da 21 a 27-28 gradi) le prestazioni sono peggiorate, e ho notato anche che i pad stanno perdendo un po' di liquido (cosa comunissima in queste schede);
sono anche un maniaco del silenzio e sentire le ventoline girare al 70-80% mi ha stufato :stordita:
comunque oggi mi è arrivato il wb, vediamo se domani riesco a montarlo.
Sinceramente se la scheda non va in blocco per surriscaldamento io non vedo il problema. Io le temperature nemmeno le monitoro e sono con un case sff. Le temperature schizzano a 100°?! Sticazzi! L'importante è che tutto funzioni senza intoppi. La scheda si fonde mentre gioco? C'è la garanzia, cioè è un problema mio ma fino ad un certo punto se la progettazione l'ha fatta Pippo Pluto e Paperino.
l'avrei anche ignorato, ma andava in thermal throttling, a meno di mettere le ventole al 100% stile reattore nucleare :asd:
Concordo con tutto, ma i giochi continuano a non supportare i multicore, salvo rare eccezioni, tipo CP2077, che però sono ottimizzati malissimo lato cpu....
premesso che è un esempio.
ma passando dal 3600 al 5800x con dlss son passato da 110 a 150 fps su death stranding
è un salto spaventoso contando che la vga è la stessa
Ovviamente ci sono anche titoli dove l'incremento è stato zero di zero, ma credo sia normale.
I giochi si sviluppano con i processori che ci sono.
Per me a breve un 5900x sarà una cpu da gaming (oggi è forse la meno sensata)
mikael84
04-06-2022, 00:04
dipende dal gioco, su warzone io passando da un 9900KS a 5.2ghz a un 12900k ho avuto un bel boost di fps a 4k. Migliorato anche BF2042 (non come warzone)
Cyberpunk invece 0 ad esempio, uguale a prima
Alder oltre all'IPC legata al decode, ha messo una l2 gigantesca (1,75volte rispetto ai vecchi intel e ryzen). Non mi stupisce, che soprattutto in MP queste CPU diano un bel boost.:)
Ci ha puntato in minima parte Maxwell, e ci punta tutto Lovelace sulle l2.:)
Cutter90
04-06-2022, 07:55
premesso che è un esempio.
ma passando dal 3600 al 5800x con dlss son passato da 110 a 150 fps su death stranding
è un salto spaventoso contando che la vga è la stessa
Ovviamente ci sono anche titoli dove l'incremento è stato zero di zero, ma credo sia normale.
I giochi si sviluppano con i processori che ci sono.
Per me a breve un 5900x sarà una cpu da gaming (oggi è forse la meno sensata)
Beh ma non è per nulla sorprendente che tu abbia guadagnato così tanto dal 3600 al 5800. Soprattutto se si guardano giochi con alti fps :)
montato il waterblock sabato, ha decisamente superato le mie aspettative; ho fatto un po' di bench ultrapesanti e adesso il core non supera i 45 gradi e le ram gli 82-84 (con temperatura ambiente intorno ai 30 gradi).
I pad termici di serie si erano praticamente disintegrati in appena 8-9 mesi di utilizzo...una cosa assurda per una scheda video da 1500 euro e passa.
Thunder-74
06-06-2022, 12:07
montato il waterblock sabato, ha decisamente superato le mie aspettative; ho fatto un po' di bench ultrapesanti e adesso il core non supera i 45 gradi e le ram gli 82-84 (con temperatura ambiente intorno ai 30 gradi).
I pad termici di serie si erano praticamente disintegrati in appena 8-9 mesi di utilizzo...una cosa assurda per una scheda video da 1500 euro e passa.
ok le temp della GPU, ma la Vram è ancora altina per essere a liquido. Dovrebbe essere tra i 15 e i 20 gradi meno. Hai usato i pad nella confezione del WB, o ne hai messi di differenti?
mattxx88
06-06-2022, 13:28
Alder oltre all'IPC legata al decode, ha messo una l2 gigantesca (1,75volte rispetto ai vecchi intel e ryzen). Non mi stupisce, che soprattutto in MP queste CPU diano un bel boost.:)
Ci ha puntato in minima parte Maxwell, e ci punta tutto Lovelace sulle l2.:)
Questo è il futuro... in che tempi affascinanti viviamo. cit. Master & Commander :sofico:
ok le temp della GPU, ma la Vram è ancora altina per essere a liquido. Dovrebbe essere tra i 15 e i 20 gradi meno. Hai usato i pad nella confezione del WB, o ne hai messi di differenti?
quoto, la mia 3090FE non passa mai i 65° ad acqua e le ha double side le ram
la 3080Ti avendole da solo un lato dovrebbe performare anche meglio in teoria
davide155
06-06-2022, 15:53
Questo è il futuro... in che tempi affascinanti viviamo. cit. Master & Commander :sofico:
quoto, la mia 3090FE non passa mai i 65° ad acqua e le ha double side le ram
la 3080Ti avendole da solo un lato dovrebbe performare anche meglio in teoria
Pure la mia 3090fe ha le ram coi pads gelid solution e non passa i 52gradi in game.
ok le temp della GPU, ma la Vram è ancora altina per essere a liquido. Dovrebbe essere tra i 15 e i 20 gradi meno. Hai usato i pad nella confezione del WB, o ne hai messi di differenti?
Quelli della confezione. Avendo le memorie a +800 dire che la temperatura è in linea, anche considerando che tengo le ventole al minimo e quello era un bechmark specifico.; ingame sono decisamente più basse.
mattxx88
06-06-2022, 15:58
Quelli della confezione. Avendo le memorie a +800 dire che la temperatura è in linea, anche considerando che tengo le ventole al minimo e quello era un bechmark specifico.; ingame sono decisamente più basse.
mining, allora ci sta :fagiano:
mining, allora ci sta :fagiano:
no, intendevo dire che era un benchmark e non un gioco.
non ci tengo a pagare 1000 euro di bolletta al mese :fagiano:
FrancoBit
07-06-2022, 17:35
Ciao ragazzi dopo secoli mi sono ricordato di attivare il resizeable bar da BIOS, ho disabled o auto in BIOS. Ho messo auto ma dalle info del pannello Nvidia mi dà ancora disabilitato, avete idea del motivo? Devo cambiare qualcos altro? Grazie
Edit: devo aggiornare il bios della GPU... Scaricato proverò con calma prossimamente. Ma vale la pena?
Inviato dal mio M2101K9G utilizzando Tapatalk
(THE REAL) Neo
10-06-2022, 11:58
Ciao ragazzi dopo secoli mi sono ricordato di attivare il resizeable bar da BIOS, ho disabled o auto in BIOS. Ho messo auto ma dalle info del pannello Nvidia mi dà ancora disabilitato, avete idea del motivo? Devo cambiare qualcos altro? Grazie
Edit: devo aggiornare il bios della GPU... Scaricato proverò con calma prossimamente. Ma vale la pena?
Inviato dal mio M2101K9G utilizzando TapatalkÉ come avere il clima in auto,c'é il bottoncino con scritto A/C...
Ma vale la pena?
😁
É come avere il clima in auto,c'é il bottoncino con scritto A/C...
Ma vale la pena?
Questa mica l'ho capita, cioè tu, pur avendolo, non usi il climatizzatore in macchina?
Sei uno di quelli che in piena estate va in giro con tutti i finestrini aperti consumando il triplo? :D
FrancoBit
10-06-2022, 14:18
É come avere il clima in auto,c'é il bottoncino con scritto A/C...
Ma vale la pena?
😁
No va bè l'A/C mi evita di pezzare come un delfino sott'acqua, il resbar avevo letto che influiva poco. La mia preoccupazione riguarda il flashare la scheda video, cosa che non ho mai fatto, mi mette un po' di ansia....
Black"SLI"jack
10-06-2022, 14:32
il confronto tra A/C in auto il ResizeBar non ci sta assolutamente. d'estate senza clima in auto anche no, soprattutto se si macinano km.
per il discorso update bios, se usi il tool fornito dal produttore della vga non avrai problemi (poi la sfiga ci vede benissimo :asd: )
considera che quando presi la mia Palit 3090 a novembre 2020, già a gennaio 2021 avevo messo il bios Galax per i 390w e quando uscì l'update ResizeBar ovviamente installai quello Galax. :D
se ricordo bene provai anche il bios Kfa2 ma mi funzionava meglio il Galax.
dal punto di vista prestazionale, posso dirti un bel mah, non cambia praticamente niente. Però visto che ci sta perché no. forse ha più senso se si hanno cpu meno recenti.
l'anno scorso feci l'update bios sulla 3090 Pny di un amico e anche lì tutto liscio.
tanto l'eseguibile fa tutto lui.
FrancoBit
10-06-2022, 14:53
il confronto tra A/C in auto il ResizeBar non ci sta assolutamente. d'estate senza clima in auto anche no, soprattutto se si macinano km.
per il discorso update bios, se usi il tool fornito dal produttore della vga non avrai problemi (poi la sfiga ci vede benissimo :asd: )
considera che quando presi la mia Palit 3090 a novembre 2020, già a gennaio 2021 avevo messo il bios Galax per i 390w e quando uscì l'update ResizeBar ovviamente installai quello Galax. :D
se ricordo bene provai anche il bios Kfa2 ma mi funzionava meglio il Galax.
dal punto di vista prestazionale, posso dirti un bel mah, non cambia praticamente niente. Però visto che ci sta perché no. forse ha più senso se si hanno cpu meno recenti.
l'anno scorso feci l'update bios sulla 3090 Pny di un amico e anche lì tutto liscio.
tanto l'eseguibile fa tutto lui.
Grazie Black, pirla io che non ho pensato a cercare il tool, avevo il terrore di dover usare Nvflash. E comunque pirla loro, perchè come info danno 2 righe così:
https://www.gigabyte.com/WebPage/40/index.htm
possibile che mi basti far partire il bios come fosse une seguibile? bah, mi sembra strano
Black"SLI"jack
10-06-2022, 15:04
per Palit, Pny e Galax, quindi quelli che ho provato funzionano così. un eseguibile che fa tutto lui il flash del bios. all'inizio prima di cambiare il bios Palit con il Galax, Palit stessa mi rilascio uno o due bios che aggiornai direttamente con l'eseguibile/tool.
alla fine è un file "batch" che esegue le operazioni che normalmente si fanno manualmente con NvFlash. quello di Gigabyte non l'ho provato ma presumo dalle "istruzioni" che al limite hai qualche possibilità di scelta, tipo backup del bios attuale.
NvFlash più che altro ti serve se vuoi flashare un altro bios.
FrancoBit
10-06-2022, 15:06
per Palit, Pny e Galax, quindi quelli che ho provato funzionano così. un eseguibile che fa tutto lui il flash del bios. all'inizio prima di cambiare il bios Palit con il Galax, Palit stessa mi rilascio uno o due bios che aggiornai direttamente con l'eseguibile/tool.
NvFlash più che altro ti serve se vuoi flashare un altro bios.
Ok grazie nel weekend vedo come funziona x Gigabyte
Black"SLI"jack
10-06-2022, 15:13
Per curiosità sono andato a rivedere il tool della Palit.
Istruzioni:
- lanciare l'eseguibile sotto Windows. :asd:
A suo tempo, bios e resizebar update erano standalone per tutti i marchi. non so se gigabbyte per la tua ha rilasciato bios più recenti, che dovrebbero già contenere anche il resizebar. dai un occhio.
FrancoBit
10-06-2022, 15:15
Per curiosità sono andato a rivedere il tool della Palit.
Istruzioni:
- lanciare l'eseguibile sotto Windows. :asd:
A suo tempo, bios e resizebar update erano standalone per tutti i marchi. non so se gigabbyte per la tua ha rilasciato bios più recenti, che dovrebbero già contenere anche il resizebar. dai un occhio.
Si si il bios l'ho già scaricato, ho verificato quale versione monta la mia e ho preso quello corretto. Ovviamente mi ero fermato li convinto di dover usare Nvflash, ma se è solo da eseguire ben venga.
Black"SLI"jack
10-06-2022, 15:22
ho provato a scaricare uno dei pacchetti bios per la tua vga. vedo che dentro ci sono i due bios, quello silent e quello oc. devi selezionare il bios corrispondente dal selettore posto sulla vga. lanci l'exe corrispondente ed riavvii per completare l'update. poi fai la stessa cosa per l'altro. c'è il readme all'interno del pacchetto.
FrancoBit
10-06-2022, 15:25
ho provato a scaricare uno dei pacchetti bios per la tua vga. vedo che dentro ci sono i due bios, quello silent e quello oc. devi selezionare il bios corrispondente dal selettore posto sulla vga. lanci l'exe corrispondente ed riavvii per completare l'update. poi fai la stessa cosa per l'altro. c'è il readme all'interno del pacchetto.
Grazie. Io ho il bios OC al momento, mai switchato su silent. Penso che potrei x sicurezza iniziare ad aggiornare solo l'OC che è quello che uso, bella lì gentilissimo come sempre!
Re-voodoo
10-06-2022, 22:58
buonasera, ho avuto la possibilità di prendere una msi 3090 trio ad un buon prezzo ed ho iniziato a fare qualche bench
https://i.ibb.co/rGkJ5Dx/3dmark-160.jpg (https://ibb.co/gMyCtkS)
ho flashato il bios suprim x ma vedo che sono gia al limite, premetto che vengo da una 6900 xt, consigli?
buonasera, ho avuto la possibilità di prendere una msi 3090 trio ad un buon prezzo ed ho iniziato a fare qualche bench
https://i.ibb.co/rGkJ5Dx/3dmark-160.jpg (https://ibb.co/gMyCtkS)
ho flashato il bios suprim x ma vedo che sono gia al limite, premetto che vengo da una 6900 xt, consigli?
Si è visto più volte che flashare altri bios non serve purtroppo. Nonostante il pl possa essere più alto.
Downvolta con bios originale, altro non puoi fare
Re-voodoo
11-06-2022, 17:53
Si è visto più volte che flashare altri bios non serve purtroppo. Nonostante il pl possa essere più alto.
Downvolta con bios originale, altro non puoi fare
credo sia al limite di pl, perche se aumento il vram di +50 mi crasha, e invece se abbasso l oc del core e metto vram a +500 regge
Thunder-74
12-06-2022, 06:04
credo sia al limite di pl, perche se aumento il vram di +50 mi crasha, e invece se abbasso l oc del core e metto vram a +500 regge
non si crasha per PL, ha solo una riduzione delle freq. per restare entro il consumo massimo. Se crasha è perchè sei al limite con le freq. della gpu. 2190mhz non è affatto male, ma se hai crash con un aumento delle Vram, che non crashano per freq. avendo il controllo/correzione degli errori, vuol dire che se anche hai chiuso dei bench a 2190mhz, questi non siano stabili.
Usa titoli in Raytracing che sono più esigenti e vedi se sei stabile, ma dubito.
Dubito molto fortemente che tu sia stabile con 2190
Se sei fortunato, ma proprio tanto, ti porti a casa un 2050 non oltre
Le ram non crashano, ma lasciale e default, hai le 6x con un bus ampio, non serve a nulla
(THE REAL) Neo
12-06-2022, 12:59
il confronto tra A/C in auto il ResizeBar non ci sta assolutamente.
Però visto che ci sta perché no.
tanto l'eseguibile fa tutto lui.
This.
Se lo leggi cutted,capisci perché ho ragione.
Re-voodoo
12-06-2022, 15:06
Dubito molto fortemente che tu sia stabile con 2190
Se sei fortunato, ma proprio tanto, ti porti a casa un 2050 non oltre
Le ram non crashano, ma lasciale e default, hai le 6x con un bus ampio, non serve a nulla
Sono a testare tramite game, Warzone in raytracing per ora sono a 2130mhz, non ho specificato che sono a liquid custom ma penso si veda dalle temperature, con stesso impianto scaldava molto di più la 6900 xt anche se arrivava sopra i 2700 mhz
Re-voodoo
12-06-2022, 15:10
non si crasha per PL, ha solo una riduzione delle freq. per restare entro il consumo massimo. Se crasha è perchè sei al limite con le freq. della gpu. 2190mhz non è affatto male, ma se hai crash con un aumento delle Vram, che non crashano per freq. avendo il controllo/correzione degli errori, vuol dire che se anche hai chiuso dei bench a 2190mhz, questi non siano stabili.
Usa titoli in Raytracing che sono più esigenti e vedi se sei stabile, ma dubito.
A quanto si possono tenere le memorie in gaming?
Al momento sono a +140 +700 senza nessun crash, il core voltage lho lasciato a 0 per il momento
Cutter90
13-06-2022, 08:25
A quanto si possono tenere le memorie in gaming?
Al momento sono a +140 +700 senza nessun crash, il core voltage lho lasciato a 0 per il momento
Dipende moltissimo da gioco a gioco e quanto è impegnata la gpu. In alcuni giochi non puoi fare oc in nessun modo. Altri sono più permessivi. Ma bisogna sempre vedere il guadagno
Thunder-74
13-06-2022, 17:45
A quanto si possono tenere le memorie in gaming?
Al momento sono a +140 +700 senza nessun crash, il core voltage lho lasciato a 0 per il momento
le memorie non vanno in crash ma se iniziano ad esserci errori di calcolo, per via del controllo su di essi, incominciano a perdere cicli di clock, quindi ritentano i calcoli fino ad ottenimento del risultato corretto. Questo si traduce in una perdita dei frames, perchè nel frattempo la gpu rimane in attesa.
immagina una curva gaussiana che rappresenta l'andamento delle prestazioni ottenibili in funzione della frequenza: inizialmente crescente, si arriva ad uno massimo per poi regredire, un andamento campanulare appunto.
Per trovare il massimo sulla ram, tieni ferma la freq. della gpu e aumenta per step di 50mhz e vedi i risultati, oppure apri in finestra un bench tipo Heaven di Ungine e fermalo su una scena. Poi aumenta la freq. della ram ed in tempo reale osserva a video se gli fps aumentano o diminuiscono. Anche se la scena è ferma, avrai un'oscillazione degli fps, quindi osservali per un po' ogni volta che cambi la freq.
Re-voodoo
13-06-2022, 22:55
Dipende moltissimo da gioco a gioco e quanto è impegnata la gpu. In alcuni giochi non puoi fare oc in nessun modo. Altri sono più permessivi. Ma bisogna sempre vedere il guadagno
su warzone dai 85% la 100% giocando a 3440x1440 a 165hz con ray tracing e dlss qualita attivo
Re-voodoo
13-06-2022, 23:04
le memorie non vanno in crash ma se iniziano ad esserci errori di calcolo, per via del controllo su di essi, incominciano a perdere cicli di clock, quindi ritentano i calcoli fino ad ottenimento del risultato corretto. Questo si traduce in una perdita dei frames, perchè nel frattempo la gpu rimane in attesa.
immagina una curva gaussiana che rappresenta l'andamento delle prestazioni ottenibili in funzione della frequenza: inizialmente crescente, si arriva ad uno massimo per poi regredire, un andamento campanulare appunto.
Per trovare il massimo sulla ram, tieni ferma la freq. della gpu e aumenta per step di 50mhz e vedi i risultati, oppure apri in finestra un bench tipo Heaven di Ungine e fermalo su una scena. Poi aumenta la freq. della ram ed in tempo reale osserva a video se gli fps aumentano o diminuiscono. Anche se la scena è ferma, avrai un'oscillazione degli fps, quindi osservali per un po' ogni volta che cambi la freq.
un ottima guida, comunque anche se alzo non mi sembra che cambia molto
Cutter90
14-06-2022, 06:56
un ottima guida, comunque anche se alzo non mi sembra che cambia molto
Io nella mia ho costatato che tenerle a +600 non cambia nulla come temperatura e non fa crashare nulla. E si ha un aumento di 1-4 fps a seconda dei giochi. Quindi io le tengo così sempre. Il core invece è più brigoso perchè cambia tanto da gioco a gioco
Re-voodoo
14-06-2022, 07:26
Io nella mia ho costatato che tenerle a +600 non cambia nulla come temperatura e non fa crashare nulla. E si ha un aumento di 1-4 fps a seconda dei giochi. Quindi io le tengo così sempre. Il core invece è più brigoso perchè cambia tanto da gioco a gioco
In quale gioco mi consigli per fare un test sicuro, ho visto che cmq apparte in 3dmark nei giochi è difficile che arrivi a 400w in pl
Il core volt ho visto che mi aumenta un 15 mhz di frequenza del core ma anche la tensione se tenuto al 100%
Cutter90
14-06-2022, 07:52
In quale gioco mi consigli per fare un test sicuro, ho visto che cmq apparte in 3dmark nei giochi è difficile che arrivi a 400w in pl
Il core volt ho visto che mi aumenta un 15 mhz di frequenza del core ma anche la tensione se tenuto al 100%
In horizon zero dawn ho visto che qulche fps si guadagna. Ma solitamente io tengo stock con bios da 500 watt e +600 di memorie. Metto anche +50 nel core e il PL lo lascio al 100%. Stabilità ovunque e temperature con ventole al 90 % a 60-65 gradi, con impiego gpu al 100%
Re-voodoo
14-06-2022, 16:28
In horizon zero dawn ho visto che qulche fps si guadagna. Ma solitamente io tengo stock con bios da 500 watt e +600 di memorie. Metto anche +50 nel core e il PL lo lascio al 100%. Stabilità ovunque e temperature con ventole al 90 % a 60-65 gradi, con impiego gpu al 100%
Di memorie a quanto arrivi di gradi ad aria?
terranux
14-06-2022, 20:28
Di memorie a quanto arrivi di gradi ad aria?
ma le ventole quanti giri fanno?
Re-voodoo
14-06-2022, 20:34
ma le ventole quanti giri fanno?
Io sono a liquido
Ciao gente saranno dai tempi della gtx 580 che non scrivo...ma dopo tanto mi si è riaccesa la fiamma e ho portato a casa una rtx 3080 12gb della Manli ...appena riesco condivido qualche bench ...ma già posso dirvi che giocando in 4k su un bel 65 pollici il vecchio Xeon la spinge quel tanto che basta per divertirsi un casino (è equiparabile a un ryzen 5 1600 a default da quello che vedo)... così a naso credo di sfruttarla per il 95% del suo potenziale o anche qualcosa meglio...il che per un sistema che questa estate compie 13 anni è niente male eh!
L'ho undervoltata e sembra che vada uguale o un pelo meglio a seconda del caso e consumi 60 o 70w in meno circa.
Venendo da una rx590 pare di stare nell'iperspazio...anche se la rossa mi ha dato molte soddisfazioni e mi piaceva molto il sistema di overclock nei driver e di controllo da smartphone.
Cutter90
15-06-2022, 07:05
Di memorie a quanto arrivi di gradi ad aria?
Se mi tira tutti i 500 watt, cosa molto rara nei giochi arrivano anche a 102 °.
Normalmente con scheda a 400-450 watt arrivano a 85-95 gradi.
Ciao gente saranno dai tempi della gtx 580 che non scrivo...ma dopo tanto mi si è riaccesa la fiamma e ho portato a casa una rtx 3080 12gb della Manli ...appena riesco condivido qualche bench ...ma già posso dirvi che giocando in 4k su un bel 65 pollici il vecchio Xeon la spinge quel tanto che basta per divertirsi un casino (è equiparabile a un ryzen 5 1600 a default da quello che vedo)... così a naso credo di sfruttarla per il 95% del suo potenziale o anche qualcosa meglio...il che per un sistema che questa estate compie 13 anni è niente male eh!
L'ho undervoltata e sembra che vada uguale o un pelo meglio a seconda del caso e consumi 60 o 70w in meno circa.
Venendo da una rx590 pare di stare nell'iperspazio...anche se la rossa mi ha dato molte soddisfazioni e mi piaceva molto il sistema di overclock nei driver e di controllo da smartphone.
Scusa se te lo dico, ma si tratta di un opererazione davvero nosense. A meno che tu non stia giocando in 4k a 30 fps, quella cpu fa da collo di bottiglia per qualsiasi cosa: dai caricamenti alle installazioni, fino ad arrivare alle performance ingame dove a seconda dei giochi andrai anche a perdere il 30-40 % di prestazioni della 3080, altrochè sfruttarla al 95 %. E in quelle situazioni, ossia nella maggior parte, se tu avessi preso una 3060 andresti uguale con quella cpu..... guardati qualche bench ingame di giochi con la 3080 e poi metti lo stesso gioco tu con quella cpu. E vedrai quanto perdi...
Ciao gente saranno dai tempi della gtx 580 che non scrivo...ma dopo tanto mi si è riaccesa la fiamma e ho portato a casa una rtx 3080 12gb della Manli ...appena riesco condivido qualche bench ...ma già posso dirvi che giocando in 4k su un bel 65 pollici il vecchio Xeon la spinge quel tanto che basta per divertirsi un casino (è equiparabile a un ryzen 5 1600 a default da quello che vedo)... così a naso credo di sfruttarla per il 95% del suo potenziale o anche qualcosa meglio...il che per un sistema che questa estate compie 13 anni è niente male eh!
Nel mio ufficio c'è un tizio che ha accoppiato una 3080ti con un i7-970 (del 2010, 6c/12t). Ho visto il risultato soprattutto nel framerate instabile. Come consiglio, se mi permetti e non vuoi spendere tanto, per il 4K ti direi di andare su un sito di hardware usato e prendere una qualsiasi scheda madre+cpu+ram di non più di 4/5 anni fa con almeno 6c/12t...
Cutter90
15-06-2022, 07:43
Nel mio ufficio c'è un tizio che ha accoppiato una 3080ti con un i7-970 (del 2010, 6c/12t). Ho visto il risultato soprattutto nel framerate instabile. Come consiglio, se mi permetti e non vuoi spendere tanto, per il 4K ti direi di andare su un sito di hardware usato e prendere una qualsiasi scheda madre+cpu+ram di non più di 4/5 anni fa con almeno 6c/12t...
Con quella cpu secondo me con la 3080 ti nemmeno a 30 fps gioca bene....
Con quella cpu secondo me con la 3080 ti nemmeno a 30 fps gioca bene....
E ti sbagli di grosso caro il mio Cutter.
Io gioco da un bel po' di tempo a 2560 x 1440 (in gsync) con una 3080 evga e con un i7 3930k perchè per ragioni lavorative mi sono dovuto trasferire a casa dei miei dove avevo solo un muletto.
Praticamente gioco a tutto a 60 fps senza cali, l'unico gioco rognoso è Far Cry 6 ma secondo me perchè è programmato da cani.
In ogni caso se hai un monitor gsync e una Ampere giochi benissimo a tutto anche con CPU vecchissime.
Se vi leggono i reparti marketing si battono il cinque:asd:
Se vogliamo approfondire in modo serio test alla mano io sono qua...io credo che in una classifica performance/euro spesi (considerando tutto il pc ovviamente) non ce ne sarà per nessuno
E credo che anche il vostro concetto di cpu limited potrebbe subire un ridimensionamento
Magari anche la mia percezione che la scheda è molto ben sfruttata in 4k, apposta si usano i dati e non i "secondo me" ,io sono qui anche per confrontarmi
A livello personale gioco con vsync on sempre, non mi interessa fare più di 60fps , mi basta stare in una comfort zone li o poco sotto. Monitoraggio del sistema lo faccio con afterburner proprio per vedere l'uso cpu più che altro, oltre che per le temp.
Appena rientro a casa vi mando intanto i risultati dei vari 3d mark..il pc sarà cambiato quando si romperà. Già così prende a calci così a occhio tutte le console e taaaaante config. Non vedo l'ora di provare Metro exodus enhanced, tra i vari giochi che vorrei prendere
Cutter90
15-06-2022, 08:53
E ti sbagli di grosso caro il mio Cutter.
Io gioco da un bel po' di tempo a 2560 x 1440 (in gsync) con una 3080 evga e con un i7 3930k perchè per ragioni lavorative mi sono dovuto trasferire a casa dei miei dove avevo solo un muletto.
Praticamente gioco a tutto a 60 fps senza cali, l'unico gioco rognoso è Far Cry 6 ma secondo me perchè è programmato da cani.
In ogni caso se hai un monitor gsync e una Ampere giochi benissimo a tutto anche con CPU vecchissime.
Ma grazie tante (e la tua cpu va di più di un ryzen 1600). In 2k ci manca solo che non riuscivi a tenere i 60 fps con una 3080. La 3080 è una scheda da 2k a 144 fps oppure da 4k a 80-120.
Quegli fps li faresti anche con una 3060 ti, se avessi una cpu giusta.
Non c'è nessun senso nello spendere 1000 euro per una 3080 e poi avere una cpu fortemente sottodimensionata. Con una 3060 ti e una cpu moderna avresti speso meno e saresti andato uguale. Le configurazioni vanno fatte bilanciate quanto più possibile
E' come comprare un Ferrari e poi andare solo in strade dove ci sono i 70 km/h e dire" Hai visto? Col Ferrari riesco a fare i 70 km/h?". Ma dai?? :doh:
Cutter90
15-06-2022, 08:56
Se vi leggono i reparti marketing si battono il cinque:asd:
Se vogliamo approfondire in modo serio test alla mano io sono qua...io credo che in una classifica performance/euro spesi (considerando tutto il pc ovviamente) non ce ne sarà per nessuno
E credo che anche il vostro concetto di cpu limited potrebbe subire un ridimensionamento
Magari anche la mia percezione che la scheda è molto ben sfruttata in 4k, apposta si usano i dati e non i "secondo me" ,io sono qui anche per confrontarmi
A livello personale gioco con vsync on sempre, non mi interessa fare più di 60fps , mi basta stare in una comfort zone li o poco sotto. Monitoraggio del sistema lo faccio con afterburner proprio per vedere l'uso cpu più che altro, oltre che per le temp.
Appena rientro a casa vi mando intanto i risultati dei vari 3d mark..il pc sarà cambiato quando si romperà. Già così prende a calci così a occhio tutte le console e taaaaante config. Non vedo l'ora di provare Metro exodus enhanced, tra i vari giochi che vorrei prendere
Vale il discorso fatto da me sopra. Cp 2077 con l'i7 6700k in forte oc e deliddato faceva da collo in 4k intorno ai 60 fps. E bada che il 6700k va di più di un 1600 R5 e come lo avevo combinato io nemmeno di poco...
Più che il 3dmark, manda le prestazioni ingame....
Re-voodoo
15-06-2022, 09:14
Se mi tira tutti i 500 watt, cosa molto rara nei giochi arrivano anche a 102 °.
Normalmente con scheda a 400-450 watt arrivano a 85-95 gradi.
Le ram dietro sono proprio una rottura
Cutter90
15-06-2022, 09:16
Le ram dietro sono proprio una rottura
va beh, tanto non fa nulla se arrivano a quelle temperature :)
Ma grazie tante (e la tua cpu va di più di un ryzen 1600). In 2k ci manca solo che non riuscivi a tenere i 60 fps con una 3080. La 3080 è una scheda da 2k a 144 fps oppure da 4k a 80-120.
Quegli fps li faresti anche con una 3060 ti, se avessi una cpu giusta.
Non c'è nessun senso nello spendere 1000 euro per una 3080 e poi avere una cpu fortemente sottodimensionata. Con una 3060 ti e una cpu moderna avresti speso meno e saresti andato uguale. Le configurazioni vanno fatte bilanciate quanto più possibile
E' come comprare un Ferrari e poi andare solo in strade dove ci sono i 70 km/h e dire" Hai visto? Col Ferrari riesco a fare i 70 km/h?". Ma dai?? :doh:
Ti segnalo. Hai un atteggiamento da pontificatore e da fanatico. Non ho tempo da perdere con gente come te. Pretendi di sapere quanto ho pagato la scheda, le configurazioni si fanno bilanciate, vale questo vale quello, cosa ha senso e cosa no, ma chi sei, ma per piacere
Posto quello che voglio, in game o fuori game, bench o non bench.
E già che hai detto UN Ferrari ti qualifica molto più che tutto il resto. Il Ferrari è lo spumante. La macchina è La Ferrari. Studia
Cutter90
15-06-2022, 09:36
Ti segnalo. Hai un atteggiamento da pontificatore e da fanatico. Non ho tempo da perdere con gente come te. Pretendi di sapere quanto ho pagato la scheda, le configurazioni si fanno bilanciate, vale questo vale quello, cosa ha senso e cosa no, ma chi sei, ma per piacere
Posto quello che voglio, in game o fuori game, bench o non bench.
E già che hai detto UN Ferrari ti qualifica molto più che tutto il resto. Il Ferrari è lo spumante. La macchina è La Ferrari. Studia
Ok, direi che non ha più senso nessun tipo di confronto con te. Tu puoi postare quello che vuoi così come io ho il diritto di controbattere con argomentazioni tecniche e esempi pratici di come vanno le cose con la tua configurazione. Poi sei libero di non crederci. Questo messaggio da parte tua lo trovo assurdo, poichè il mio era solo un confronto. E sarebbe stato utile per verificare gli eventuali colli di una tua configurazione. Colli che esistono e che ho verificato di persona. Ci sono migliaia di esempi nella rete che dicono che la tua configurazione non è bilanciata e non è per nulla ottimale. Poi se a te sta bene lo stesso è sacrosanto e non costringo nessuno a cambiare idea, per l'amor di dio. Solo che siamo in forum tecnico e sentire che una 3080 con un 1600 R5 sia perfetto e una configurazione fatta bene anche no.
Ok, direi che non ha più senso nessun tipo di confronto con te. Tu puoi postare quello che vuoi così come io ho il diritto di controbattere con argomentazioni tecniche e esempi pratici di come vanno le cose con la tua configurazione. Poi sei libero di non crederci. Questo messaggio da parte tua lo trovo assurdo, poichè il mio era solo un confronto. E sarebbe stato utile per verificare gli eventuali colli di una tua configurazione. Colli che esistono e che ho verificato di persona. Ci sono migliaia di esempi nella rete che dicono che la tua configurazione non è bilanciata e non è per nulla ottimale. Poi se a te sta bene lo stesso è sacrosanto e non costringo nessuno a cambiare idea, per l'amor di dio. Solo che siamo in forum tecnico e sentire che una 3080 con un 1600 R5 sia perfetto e una configurazione fatta bene anche no.
Mi dispiace dirtelo ma ti sbagli ancora di grosso.
Per quanto riguarda le configurazioni "bilanciate" il tuo discorso non ha affatto senso. Considera che io il computer non l'ho cambiato non per ragioni economiche ma solo perchè aspetto configurazioni che mi soddisfino di più (nello specifico ryzen 7000 e intel 13000) ma per la vga punto sempre al massimo perchè DEVE andare bene anche nella eventuale configurazione aggiornata quindi per me non avrebbe alcun utilità prendere una 3060.
Lo stesso credo che valga anche per l'altro utente.
Un'ultima considerazione sul tuo modo di confrontarsi con gli altri. Ti consiglio di essere un tantino più umile.....
Ma grazie tante (e la tua cpu va di più di un ryzen 1600). In 2k ci manca solo che non riuscivi a tenere i 60 fps con una 3080. La 3080 è una scheda da 2k a 144 fps oppure da 4k a 80-120.
Quegli fps li faresti anche con una 3060 ti, se avessi una cpu giusta.
Non c'è nessun senso nello spendere 1000 euro per una 3080 e poi avere una cpu fortemente sottodimensionata. Con una 3060 ti e una cpu moderna avresti speso meno e saresti andato uguale. Le configurazioni vanno fatte bilanciate quanto più possibile
E' come comprare un Ferrari e poi andare solo in strade dove ci sono i 70 km/h e dire" Hai visto? Col Ferrari riesco a fare i 70 km/h?". Ma dai?? :doh:
E meno male che qualcuno lo dice
Qui con la scusa del 2k e 4K c'è chi mette le 3080 con i 1600
Ma tanto sono in 4K... 🤦🏻‍♂️
Mi dispiace dirtelo ma ti sbagli ancora di grosso.
Per quanto riguarda le configurazioni "bilanciate" il tuo discorso non ha affatto senso. Considera che io il computer non l'ho cambiato non per ragioni economiche ma solo perchè aspetto configurazioni che mi soddisfino di più (nello specifico ryzen 7000 e intel 13000) ma per la vga punto sempre al massimo perchè DEVE andare bene anche nella eventuale configurazione aggiornata quindi per me non avrebbe alcun utilità prendere una 3060.
Lo stesso credo che valga anche per l'altro utente.
Un'ultima considerazione sul tuo modo di confrontarsi con gli altri. Ti consiglio di essere un tantino più umile.....
è esattamente così anche per me.
Tutti messaggi che trasudano pregiudizio, fanatismo e spocchia.
Anzichè parlare di numeri si sta parlando di cosa va e non va fatto. Questa cosa è inaccettabile. Siamo gente consapevole e se mettiamo la 3080, che è pur sempre un fottuto pezzo di plastica e silicio, a fare da fermaporta, nessuno può permettersi di giudicare.
Ho fatto lo stesso identico ragionamento. Quando l'x58 passerà a miglior vita, lo decido io, o al massimo la scheda madre o il processore, non i reparti marketing. Non posso giocare a death stranding perchè richiede le avx? Oh, che peccato. Il frame oscilla tra 50 e 60 anzichè fare 60 fissi? Madonna che tragedia. A quel punto si si investirà un millino, si tira avanti altri dieci anni e ciaone.
Posto qualche bench intanto, tutti in undervolt @0,850v
FIRE STRIKE ULTRA punti 10.781 (aggiornato run appena fatta a 10.843) (graphics score 11.343--aggiornato a 11.372) (guru 3d recensione 308012gb overcloccata di fabbrica su ryzen 9 5950x punti 12.208)
TIME SPY punti 12.763 (graphics score 17.796) (guru 3d recensione 308012gb overcloccata di fabbrica su ryzen 9 5950x graphics score 18.900)
TIME SPY ESTREME punti 5.311 (graphics score 9.150)
PORT ROYAL punti 10.894 (recensione guru3d 3080 founders 10gb 11.449)
UNIGINE SUPERPOSITION 4k optimized, punti 14.749, fps min 28 max 134 media 110 (https://youtu.be/iKyQnBEryN0?t=229) questo utente con 3080+990k fa 13.913.....ha i minimi a 81 ma ha la media più bassa, a 104)
ma questa è davvero interessante...RISE OF THE TOMB RIDER tutto maxato in 4k, no dlss, bench interno
riferimento https://youtu.be/upe4y65LdzA?t=836, 3080 su ryzen 5800x risultati fotocopia...i miei sono : mountain peak 54fps min 28 max 96; syria 37 fps min 24 max 51; geothermal valley 37.7 fps min 28 max 59, OVERALL SCORE 43.59 fps
appena avrò tempo farò un upload di screen ...ma direi che la situazione parla da sola. si lo so che la 3080 10gb sulla carta va di meno, è giusto per avere un minimo di riferimento...parliamo di risultati ottenuti su una piattaforma di 13 ANNI FA
p.s. mi scuso se mi sono scaldato e spero che possiamo fare un bel confronto per capire le cose dati alla mano.
E meno male che qualcuno lo dice
Qui con la scusa del 2k e 4K c'è chi mette le 3080 con i 1600
Ma tanto sono in 4K... 🤦🏻‍♂️
nel mio caso meno di un 1600; per la precisione ho fatto al volo un test su cpu z e lo xeon a 4,3 va un 7-8-% in meno. ho fatto single thread 352.7 multi thread 3108
Cutter90
15-06-2022, 13:28
è esattamente così anche per me.
Tutti messaggi che trasudano pregiudizio, fanatismo e spocchia.
Anzichè parlare di numeri si sta parlando di cosa va e non va fatto. Questa cosa è inaccettabile. Siamo gente consapevole e se mettiamo la 3080, che è pur sempre un fottuto pezzo di plastica e silicio, a fare da fermaporta, nessuno può permettersi di giudicare.
Ho fatto lo stesso identico ragionamento. Quando l'x58 passerà a miglior vita, lo decido io, o al massimo la scheda madre o il processore, non i reparti marketing. Non posso giocare a death stranding perchè richiede le avx? Oh, che peccato. Il frame oscilla tra 50 e 60 anzichè fare 60 fissi? Madonna che tragedia. A quel punto si si investirà un millino, si tira avanti altri dieci anni e ciaone.
Posto qualche bench intanto, tutti in undervolt @0,850v
FIRE STRIKE ULTRA punti 10.781 (aggiornato run appena fatta a 10.843) (graphics score 11.343--aggiornato a 11.372) (guru 3d recensione 308012gb overcloccata di fabbrica su ryzen 9 5950x punti 12.208)
TIME SPY punti 12.763 (graphics score 17.796) (guru 3d recensione 308012gb overcloccata di fabbrica su ryzen 9 5950x graphics score 18.900)
TIME SPY ESTREME punti 5.311 (graphics score 9.150)
PORT ROYAL punti 10.894 (recensione guru3d 3080 founders 10gb 11.449)
UNIGINE SUPERPOSITION 4k optimized, punti 14.749, fps min 28 max 134 media 110 (https://youtu.be/iKyQnBEryN0?t=229) questo utente con 3080+990k fa 13.913.....)
ma questa è davvero interessante...RISE OF THE TOMB RIDER tutto maxato in 4k, no dlss, bench interno
riferimento https://youtu.be/upe4y65LdzA?t=836, 3080 su ryzen 5800x risultati fotocopia...i miei sono : mountain peak 54fps min 28 max 96; syria 37 fps min 24 max 51; geothermal valley 37.7 fps min 28 max 59, OVERALL SCORE 43.59 fps
appena avrò tempo farò un upload di screen ...ma direi che la situazione parla da sola. si lo so che la 3080 10gb sulla carta va di meno, è giusto per avere un minimo di riferimento...parliamo di risultati ottenuti su una piattaforma di 13 ANNI FA
p.s. mi scuso se mi sono scaldato e spero che possiamo fare un bel confronto per capire le cose dati alla mano.
Intanto ti ringrazio per aver postato i dati, in modo da avere un confronto su di essi. Farò finta di non aver letto la prima parte del tuo messaggio, che ritengo cmq non necessaria, aggressiva e atta a creare del flame. Per favore, so di non avere i modi più belli di tutti, ma so di cosa parlo e di cavolate non ne dico nè ne voglio dire. Se non so una cosa sto zitto piuttosto, sono fatto così. Ma proverò a ragionare con te sui tuoi e i miei dati, perchè in un forum tecnico contano quelli. Cerchiamo di farlo, ti va?
Bench e giochi vanno trattati diversamente, in primis perchè nei bench la parte grafica e quella della cpu sono separati. Quindi un time spy, un portal royale e un fire strike "separano" la gpu dal resto con il grphic score. Ne converrai con me che essendo i bench così fatti è ovvio che anche nella tua configurazione la tua 3080 risulti prestazionale. Ma nonostante i Griphic score non tengano(quasi) conto della cpu, risultano più bassi, anche di 1000 punti. Ti faccio un esempio sul Time spy: rispetto al riferimento ai 1200 punti di differenza. Quei 1200 punti sono la differenza tra una 3080 e una 3070 (o una 3070 ti). Io, per dire con la 2080 ti (che va un pelo meno della 3070) che avevo prima facevo 16000 nel graphic score. E ricordo, che si parla di dati che ESCLUDONO la cpu nei loro risultati.
In altre parole se avessi avuto una 3070 o una 3070 ti avresti ottenuto li stessi risultati, secondo il mio ragionamento.
Veniamo ai giochi. Innanzitutto Rise of the tomb Raider gira in dx 11 ed è un gioco vecchio (a proposito, giocare con SSAO x2 significa giocare a risoluzione doppia perchè si tratta del Super sampling, che ovviamente non dovrebbe essere attivato. Va utilizzato SMAA come AA in quel gioco e non l' SSAO), quindi fare un paragone con quello non è proprio corretto.
Metro exodus, ac vallhalla, cp2077, Horizon, il nuovo Tomb Raider, Far cry 6 ecc ecc sarebbero i test più appropriati.
Ma se voglio cmq esaminare il tuo risultato il test non fa altro che dare ragione alla mia tesi. Ossia che con fps bassi, perchè parliamo di 47 fps di media, ossia fps bassi, la tua cpu è sufficiente, nonostante resti con instabilità, dovuta a quei momenti in cui gli fps vanno su. . Ma appena ti avvicini o superi i 60 fps la tua cpu è assolutamente insufficiente.
Vuoi scoprire se dico il vero o no? Metti l' SMAA come AA su ROTR e rifai il bech. Poi guarda il video e verifica di nuovo i risultati. Come fa nel video https://www.youtube.com/watch?v=upe4y65LdzA&t=836s al minuto 7:44. LA minuto 12 di questo invece lo fa in dx 12 https://www.youtube.com/watch?v=J5KRatf3wqE
Prova, se ti va e poi confrontiamo
Il punto che voglio cercare di spiegare è che tu puoi stare con questa configurazione ed essere felice di giocare a 40-50 fps in 4k grazie al gsync. Ma quello che non puoi fare, secondo me, è cercare di far finta di niente ( o peggio attaccare) quando qualcuno ti dice, a ragione a parer mio, che quella cpu per una 3080 è fortemente limitante, inneggiando a "fregature di marketing".
PS: io ho il pc da 10 anni. ho cambiato il 6700k proprio per questo motivo. Io gioco da 60 in su.
Thunder-74
15-06-2022, 15:14
Drivers 516.40 WHQL
https://www.techpowerup.com/download/nvidia-geforce-graphics-drivers/
Game Ready
Fall Guys: Free for All
ICARUS (NVIDIA Reflex)
Jurassic Wold Evoluion 2 (RTX)
Resident Evil 2, Resident Evil 3, and Resident Evil 7 (RTX)
Fixed
[Enscape] Shadows may not be rendered correctly. [3530584]
[Advanced Optimus] Brightness settings are not getting applied correctly on certain Lenovo notebooks. [3497181]
Club 3D CAC-1085 dongle limited to maximum resolution of 4K at 60Hz. [3542678]
Known Issues
Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
[GeForce RTX 3090 Ti] HP Reverb G2/Oculus Rift S/Pimax 8Kx is not detected. [3623293][3632289][3626116]
Videos played back in Microsoft Edge may appear green if NVIDIA Image Scaling is enabled upon resuming from hibernate or booting with fastboot. [3624218]
[DirectX 12] Shadowplay recordings may appear over exposed when Use HDR is enabled from the Windows display settings. [200742937]
[Assassin's Creed Origins] Game displays flicker when character is under water near a boat. [3642655]
Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
Inviato dal mio iPhone X utilizzando Tapatalk
Intanto ti ringrazio per aver postato i dati, in modo da avere un confronto su di essi. Farò finta di non aver letto la prima parte del tuo messaggio, che ritengo cmq non necessaria, aggressiva e atta a creare del flame. Per favore, so di non avere i modi più belli di tutti, ma so di cosa parlo e di cavolate non ne dico nè ne voglio dire. Se non so una cosa sto zitto piuttosto, sono fatto così. Ma proverò a ragionare con te sui tuoi e i miei dati, perchè in un forum tecnico contano quelli. Cerchiamo di farlo, ti va?
Bench e giochi vanno trattati diversamente, in primis perchè nei bench la parte grafica e quella della cpu sono separati. Quindi un time spy, un portal royale e un fire strike "separano" la gpu dal resto con il grphic score. Ne converrai con me che essendo i bench così fatti è ovvio che anche nella tua configurazione la tua 3080 risulti prestazionale. Ma nonostante i Griphic score non tengano(quasi) conto della cpu, risultano più bassi, anche di 1000 punti. Ti faccio un esempio sul Time spy: rispetto al riferimento ai 1200 punti di differenza. Quei 1200 punti sono la differenza tra una 3080 e una 3070 (o una 3070 ti). Io, per dire con la 2080 ti (che va un pelo meno della 3070) che avevo prima facevo 16000 nel graphic score. E ricordo, che si parla di dati che ESCLUDONO la cpu nei loro risultati.
In altre parole se avessi avuto una 3070 o una 3070 ti avresti ottenuto li stessi risultati, secondo il mio ragionamento.
Veniamo ai giochi. Innanzitutto Rise of the tomb Raider gira in dx 11 ed è un gioco vecchio (a proposito, giocare con SSAO x2 significa giocare a risoluzione doppia perchè si tratta del Super sampling, che ovviamente non dovrebbe essere attivato. Va utilizzato SMAA come AA in quel gioco e non l' SSAO), quindi fare un paragone con quello non è proprio corretto.
Metro exodus, ac vallhalla, cp2077, Horizon, il nuovo Tomb Raider, Far cry 6 ecc ecc sarebbero i test più appropriati.
Ma se voglio cmq esaminare il tuo risultato il test non fa altro che dare ragione alla mia tesi. Ossia che con fps bassi, perchè parliamo di 47 fps di media, ossia fps bassi, la tua cpu è sufficiente, nonostante resti con instabilità, dovuta a quei momenti in cui gli fps vanno su. . Ma appena ti avvicini o superi i 60 fps la tua cpu è assolutamente insufficiente.
Vuoi scoprire se dico il vero o no? Metti l' SMAA come AA su ROTR e rifai il bech. Poi guarda il video e verifica di nuovo i risultati. Come fa nel video https://www.youtube.com/watch?v=upe4y65LdzA&t=836s al minuto 7:44. LA minuto 12 di questo invece lo fa in dx 12 https://www.youtube.com/watch?v=J5KRatf3wqE
Prova, se ti va e poi confrontiamo
Il punto che voglio cercare di spiegare è che tu puoi stare con questa configurazione ed essere felice di giocare a 40-50 fps in 4k grazie al gsync. Ma quello che non puoi fare, secondo me, è cercare di far finta di niente ( o peggio attaccare) quando qualcuno ti dice, a ragione a parer mio, che quella cpu per una 3080 è fortemente limitante, inneggiando a "fregature di marketing".
PS: io ho il pc da 10 anni. ho cambiato il 6700k proprio per questo motivo. Io gioco da 60 in su.
certo che vorrei confrontarmi.
ora vado un pò di corsa e stasera ti rispondo con più calma...ho rifatto al volo il test come da tue indicazioni, con i driver nuovi (masenza riavviare nemmeno, per fare una cosa proprio al volo):
mountain peak 103fps min 38,32 max 172.61; syria 82.2 fps min 27.6 max 116.03; geothermal valley 84.46 fps min 49.45 max 98, OVERALL SCORE 90.62 fps
in dx12
se tutto torna il mio risultato è globalmente superiore del 9%; sui minimi è più debole ma sui massimi vado più forte
Cutter90
15-06-2022, 16:36
certo che vorrei confrontarmi.
ora vado un pò di corsa e stasera ti rispondo con più calma...ho rifatto al volo il test come da tue indicazioni, con i driver nuovi (masenza riavviare nemmeno, per fare una cosa proprio al volo):
mountain peak 103fps min 38,32 max 172.61; syria 82.2 fps min 27.6 max 116.03; geothermal valley 84.46 fps min 49.45 max 98, OVERALL SCORE 90.62 fps
in dx12
se tutto torna il mio risultato è globalmente superiore del 9%; sui minimi è più debole ma sui massimi vado più forte
Ok nel confronto qui non c è collo a quanto pare.Hai qualche gioco più recente anche?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.