Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale - GK110] Geforce GTX 780ti - GTX TITAN - GTX 780 (https://www.hwupgrade.it/forum/showthread.php?t=2548290)


appleroof 19-02-2013 16:41

[Thread Ufficiale - GK110] Geforce GTX 780ti - GTX TITAN - GTX 780
 







GK110





Geforce Gtx 780Ti



Geforce Gtx Titan




Geforce Gtx 780



Differenze pcb tra le 3 schede




specifiche





prestazioni:










temperature e consumi:









Gtx Titan reviews:
http://www.hardocp.com/article/2013/...w#.USZowmcrHCA
http://www.overclockers.com/nvidia-g...eo-card-review
http://www.anandtech.com/show/6774/n...ce-unveiled/10
http://www.computerbase.de/artikel/g...rce-gtx-titan/
http://www.techpowerup.com/reviews/N...rce_GTX_Titan/
http://hexus.net/tech/reviews/graphi...rce-gtx-titan/
http://www.guru3d.com/articles_pages..._review,1.html
http://www.pcper.com/reviews/Graphic...-Rating-Update
http://www.hardwarecanucks.com/forum...ce-review.html
http://www.pcgamer.com/review/nvidia...-titan-review/
http://www.tomshardware.com/reviews/...view,3442.html
http://www.overclockersclub.com/revi..._titan_gaming/
http://www.hitechlegion.com/reviews/...x-titan-review
http://www.hwupgrade.it/articoli/skv...ale_index.html
http://www.hardwarecanucks.com/forum...crossfire.html[
http://www.hardwareheaven.com/review...roduction.html


Gtx 780 reviews:
http://www.guru3d.com/articles_pages..._review,1.html
http://www.anandtech.com/show/6973/n...gtx-780-review
http://techreport.com/review/24832/n...-card-reviewed
http://hexus.net/tech/reviews/graphi...force-gtx-780/
http://www.computerbase.de/artikel/g...x-780-im-test/
http://www.overclockers.com/nvidia-g...cs-card-review
http://www.techarena.it/review-nvidi...-gtx-780-47727
http://www.pcper.com/reviews/Graphic...iew-GK110-Mini
http://www.tomshardware.com/reviews/...view,3516.html
http://www.techpowerup.com/reviews/N...Force_GTX_780/
http://www.bit-tech.net/hardware/201...x-780-review/1
http://www.maximumpc.com/article/%5B...eforce_gtx_780
http://www.hardocp.com/article/2013/.../#.UZ5FIJxOXSM
http://www.hwupgrade.it/articoli/skv...tan_index.html
http://www.ocaholic.ch/modules/smart...2&lang=italian


Il contenuto di questo post è rilasciato con licenza Creative Commons Attribution-Noncommercial-Share Alike 2.5

appleroof 19-02-2013 16:42

Principali funzionalità offerte dalle schede:






NVIDIA G-SYNC
video (inglese) dove 3 grandi personaggi del mondo dei VG parlano del G-Sync:

http://www.youtube.com/watch?feature...&v=BZS8Bbyf1to
qui un approfondimento sul g-sync: http://www.geforce.com/whats-new/art...er-free-gaming


per una descrizione approfondita di tali funzionalità si rimanda alle recensioni linkate nel primo post, oppure qui:http://www.geforce.com/whats-new/art...eforce-gtx-780 e qui: http://www.geforce.com/whats-new/art...rce-gtx-780-ti[/center]

overclock (disclaimer: l'overclock dei componenti in generale è una pratica che invalida la garanzia ed espone al rischio di rotture dei componenti stessi, agite sotto la vostra responsabilità)

Per overcloccare la vga occorre conoscere i principi di funzionamento del GPUBOOST 2.0. Si tratta di un sistema che replica in buona sostanza quanto implementato da Intel con la tecnologia Turbo Boost all'interno delle proprie CPU x86: la frequenza di clock di default di un componente può essere aumentata automaticamente dal sistema in presenza di specifiche condizioni di utilizzo, legate a temperatura e alimentazione, così da mettere a disposizione una superiore potenza di elaborazione. Base clock e Boost clock vengono predefiniti da NVIDIA per le varie GPU che sono messe a disposizione sul mercato, e rappresentano di fatto condizioni di funzionamento minime per le proprie schede video. Ritroviamo queste grandezze tanto con la tecnologia GPU Boost 1.0 come in quella 2.0 implementata in GeForce GTX Titan. La frequenza di clock massima non può essere definita in modo univoco ma è funzione del comportamento dello specifico sample di scheda a disposizione.


Dopo aver integrato GPU Boost nelle prime schede della famiglia Kepler NVIDIA ha eseguito uno studio della tecnologia, cercando di evidenziarne i limiti e dove intervenire per migliorarne il funzionamento. La temperatura di funzionamento della GPU, più che il consumo complessivo della scheda video, è stato evidenziato essere il collo di bottiglia principale all'incremento della frequenza di clock della scheda video via tecnologia GPU Boost. La temperatura è funzione della frequenza di clock del componente oltre che della tensione di alimentazione richiesta per il suo funzionamento, il tutto bilanciato dall'efficienza del sistema di raffreddamento.*

Per ottenere un incremento della frequenza di clock massima mantenendo stabilità operativa si interviene in genere incrementando la tensione di alimentazione. Questa tecnica, ben nota con il termine di overvolting e utilizzata da lungo tempo dagli overclocker, ha quale controindicazione quella di incrementare la temperatura: tensione e temperatura troppo elevate possono portare in tempo rapido a danneggiare una GPU oltre che in generale qualsiasi componente in silicio.

L'utilizzo di un sistema di raffreddamento particolarmente sofisticato e di un sistema di monitoraggio che introduca la temperatura della GPU quale variabile ha permesso ad NVIDIA, con tecnologia GPU Boost 2.0, di incrementare la soglia di intervento raggiungendo frequenze di clock più elevate rispetto a quelle di base clock. Questo risultato è stato reso accessibile grazie all'utilizzo di una nuova tensione di alimentazione della GPU, indicata come Vrelnew, specifica della tecnologia GPU Boost 2.0 e proposta quale impostazione che assicura la stabilità operativa alla frequenza di Max clock più elevata che può essere raggiunta.

Con GPU Boost 2.0 all'utente viene quindi offerta la possibilità di spingersi oltre la tensione di alimentazione massima definite da NVIDIA per la specifica GPU, così da raggiungere frequenze ancora più elevate, sempre a condizione che il partner AIB abbia scelto di abilitare l'overvolting lato utente nel proprio prodotto. Sarà infatti compito del produttore della scheda video, e non di NVIDIA, quello di riconoscere la garanzia d'uso della scheda e verificare che un malfunzionamento sia dipeso dal funzionamento secondo specifica del prodotto e non da un intervento di overvoltage eccessivo da parte dell'utente, procedura che viola la garanzia.

http://www.hwupgrade.it/articoli/skv...-nvidia_4.html

capito cosa significa e come interviene il gpu boost 2.0, per alzare le frequenze occorre allora agire prima di tutto sui parametri che ne sovraintendono il funzionamento, ossia il POWER LIMIT e il TEMP LIMIT.



i programmi che si usano a tal fine, sono MSI AFTERBURNER (download qui: http://www.guru3d.com/files_get/msi_...ownload,4.html = e/o EVGA PRECISION (download qui: http://www.evga.com/precision/ ), sostanzialmente identici perchè entrambi derivati dal buon vecchio rivatuner che gli utenti con più annetti come me ricorderanno :D, diciamo che la scelta è legata essenzialmente all'interfaccia, che è diversa tra i due programmi, dunque ad un puro gusto estetico.

Per aiutare a facilitare le cose, linko una guida - in inglese- che spiega come agire sui parametri per alzare le frequenze di clock del core (per le memorie il tutto è più semplice, basta alzare il valore delle stesse fino alla frequenza desiderata/tollerata): http://www.guru3d.com/articles_pages...k_guide,1.html

qui invece un video, sempre in inglese, che spiega l'oc sulla Titan: http://www.youtube.com/watch?v=dDDPCDNZNlg


Legata a questi due, come si diceva, vi è l'opzione di overvolting, ossia la possibilità di alzare il voltaggio della gpu per raggiungere e mantenere stabilità a frequenze più alte. L'aumento della tensione di alimentazione oltre l'impostazione di Vrelnew è reso accessibile da NVIDIA ma è compito dell'AIB, cioè del partner produttore della scheda video, abilitarlo all'interno delle proprie schede. All'utente verrà richiesto di riconoscere la presenza di questa tecnologia di overvolting, accettandone i rischi legati all'uso: una volta abilitata questa tecnologia resterà attiva e sarà opzione dell'utente quella di selezionare la tensione di alimentazione massima fornita alla GPU. L'aumento automatico della tensione di alimentazione è quindi legato alla temperatura della GPU: se questa offre margine di incremento allora la tensione verrà aumentata, sino a raggiungere una frequenza di clock più elevata rispetto a quella Boost.


____________________________________________________________


Si è visto come agendo sui parametri relativi al tdp e alla temperatura, si possano ottenere frequenze più elevate di quelle standard, fino ad una media di circa 1100mhz sul core e 7000mhz sulle memorie (i risultati possono cambiare da gpu a gpu, da variabili come sistema di ventilazione ecc).

Tuttavia, poichè agendo tramite i software sopra descritti si resta pur sempre entro i parametri di tdp massimo e di temp stabiliti da Nvidia, gli utenti che volessero spremere ulteriormente le proprie Titan non hanno altra scelta che flashare il bios della vga, ossia sostituire il bios originale della vga con uno moddato, cioè modificato in alcune voci per spostare in alto i limiti di tdp e di temperature imposti dalla casa madre.

Questa non sarebbe l'unica ragione per flashare il bios. Secondo i parametri stabiliti da Nvidia, nonostante si alzino il power limit e il temp limit, una volta raggiunti tali maggiori limiti il sistema di controllo taglierà le frequenze, poichè è come se "leggesse" un potenziale pericolo per la vga stessa. Chi trovasse fastidioso questo aspetto, potrebbe trovare nei bios mod la soluzione, ad esempio perchè a parità di frequenza raggiunta, un limite di tdp più alto eviterebbe l'intervento del sistema di controllo e quindi il taglio di frequenza.


Qui ci sono un paio di bios (moddati dall'utente Delly di Hwlegend.it) che assolvono il compito:

AVVERTENZA!!



flashare il bios è un'operazione che invalida la garanzia della vga, espone al rischio di rotture, agite sotto la vostra responsabilità.


http://dl.dropbox.com/u/58641833/Mat...0-VMOD-FIX.rar

http://dl.dropbox.com/u/58641833/Mat...0-VMOD-FIX.rar

questi due bios hanno il power target alzato fino al 115%, invece che 106% del bios originale, per cui facilitano il raggiungimento e/o il mantenimento di frequenze più alte; quando reperirò altri bios avrò cura di postarli.


Update 10/05/2013

Segnalo questo ottimo bios, grazie a Maxmix per il link e Illidan per la segnalazione:
http://www.hwupgrade.it/forum/showpo...ostcount=10421

Update 18/05/2013

segnalazione di un fourm dove sono presenti vari bios, grazie a Maxmix per la segnalazione:
http://forum.techinferno.com/nvidia-...rclocking.html


Per flashare il bios segnalo nvidia kepler bios tweaker, scaricabile qui: http://rog.asus.com/forum/showthread...660-650-UPDATE

*N.B.: spesso accade che in fabbrica la pasta termoconduttiva, che permette lo scambio terminco tra die della gpu e dissipatore, venga splamata in maniera grossolana (vedi qui: https://dl.dropbox.com/u/3896005/Pc%...an/thermal.jpg ) e/o sia di scarsa qualità. Cambiarla con pasta di qualità e sopratutto stesa in maniera più corretta può aiutare a guadagnare qualche grado, e quindi ad avere migliori risultati anche in overclock.


Il contenuto di questo post è rilasciato con licenza Creative Commons Attribution-Noncommercial-Share Alike 2.5

appleroof 19-02-2013 16:43

Per chi fosse interessato, qualcosa sulla DP di gk110 in versione Geforce







in versione Geforce ovviamente le capacità sono castrate rispetto a quelle presenti in versione Tesla K20X, in particolare segnalo quanto detto qui:

NVIDIA has stripped GK110 of some of its reliability and scalability features in order to maintain the Tesla/GeForce market segmentation, which means Titan for compute is left for small-scale workloads that don’t require Tesla’s greater reliability. ECC memory protection is of course gone, but also gone is HyperQ’s MPI functionality, and GPU Direct’s RDMA functionality (DMA between the GPU and 3rd party PCIe devices). Other than ECC these are much more market-specific features, and as such while Titan is effectively locked out of highly distributed scenarios, this should be fine for smaller workloads.

There is one other quirk to Titan’s FP64 implementation however, and that is that it needs to be enabled (or rather, uncapped). By default Titan is actually restricted to 1/24 performance, like the GTX 680 before it. Doing so allows NVIDIA to keep clockspeeds higher and power consumption lower, knowing the apparently power-hungry FP64 CUDA cores can’t run at full load on top of all of the other functional units that can be active at the same time. Consequently NVIDIA makes FP64 an enable/disable option in their control panel, controlling whether FP64 is operating at full speed (1/3 FP32), or reduced speed (1/24 FP32).


The penalty for enabling full speed FP64 mode is that NVIDIA has to reduce clockspeeds to keep everything within spec. For our sample card this manifests itself as GPU Boost being disabled, forcing our card to run at 837MHz (or lower) at all times. And while we haven't seen it first-hand, NVIDIA tells us that in particularly TDP constrained situations Titan can drop below the base clock to as low as 725MHz. This is why NVIDIA’s official compute performance figures are 4.5 TFLOPS for FP32, but only 1.3 TFLOPS for FP64. The former is calculated around the base clock speed, while the latter is calculated around the worst case clockspeed of 725MHz. The actual execution rate is still 1/3.

http://www.anandtech.com/show/6760/n...titan-part-1/4



appena si avranno rece che testano le capacità in DP della scheda, posterò altro.


Il contenuto di questo post è rilasciato con licenza Creative Commons Attribution-Noncommercial-Share Alike 2.5

dewwwxx84 19-02-2013 16:44

Rimango a vedere che combina TITAN. :D

<Masquerade> 19-02-2013 16:46

quanti ne stai aprendo di sti thread apple? :sbonk: :fagiano: :asd:

appleroof 19-02-2013 16:47

Quote:

Originariamente inviato da <Masquerade> (Messaggio 39056581)
quanti ne stai aprendo di sti thread apple? :sbonk: :fagiano: :asd:

il primo è stato bocciato :D

Ovviamente ben accetto qualsiasi consiglio :)

aaasssdddfffggg 19-02-2013 16:53

saluti.

slide1965 19-02-2013 16:55

complimenti per l'intro

maxmix65 19-02-2013 16:55

Eccomi ..bellino il sito ufficiale Nvidia Titan vista la presentazione

appleroof 19-02-2013 16:57

Quote:

Originariamente inviato da slide1965 (Messaggio 39056661)
complimenti per l'intro

grazie :)

Quote:

Originariamente inviato da maxmix65 (Messaggio 39056664)
Eccomi ..bellino il sito ufficiale Nvidia Titan vista la presentazione

vero, il più bello che ho visto finora da nvidia :read:

CAPT.HOOK 19-02-2013 16:57

ISCRITTO! :D


<Masquerade> 19-02-2013 16:57

Quote:

Originariamente inviato da appleroof (Messaggio 39056592)

Ovviamente ben accetto qualsiasi consiglio :)

comprati Titan anche te :fagiano:

Giovamas 19-02-2013 16:58

ci sono anche io .. rimango in attesa egrazie ad Apple per il thread ufficiale

TheCrazyOne 19-02-2013 16:58

Quote:

Originariamente inviato da appleroof (Messaggio 39056592)
Ovviamente ben accetto qualsiasi consiglio :)

Tanto per cominciare editerei l'ultima immagine che hai messo del 3D Mark Vantage perchè una GTX690 fa oltre 60000 punti con preset Performance, non 48000.

Questo onde evitare che altre persone oltre a Goofy e CAPT.HOOK nell'altro thread possano pensare che la TITAN andrà più di una GTX690...

appleroof 19-02-2013 16:58

Quote:

Originariamente inviato da <Masquerade> (Messaggio 39056685)
comprati Titan anche te :fagiano:

:asd:

ci penso

Dany16vTurbo 19-02-2013 16:59

Iscritto, aspetto fiducioso :)

appleroof 19-02-2013 17:00

Quote:

Originariamente inviato da TheCrazyOne (Messaggio 39056689)
Tanto per cominciare editerei l'ultima immagine che hai messo del 3D Mark Vantage perchè una GTX690 fa oltre 60000 punti con preset Performance, non 48000.

Questo onde evitare che altre persone oltre a Goofy e CAPT.HOOK nell'altro thread possano pensare che la TITAN andrà più di una GTX690...

è preso dal sito ufficiale, non l'ho fatta io eh... http://www.nvidia.it/object/geforce-gtx-titan-it.html

ertruffa 19-02-2013 17:01

iscritto, e aspettiamo giovedi

aaasssdddfffggg 19-02-2013 17:02

Quote:

Originariamente inviato da ertruffa (Messaggio 39056709)
iscritto, e aspettiamo giovedi

ma io ti conosco.:D ;)

slide1965 19-02-2013 17:02

Quote:

Originariamente inviato da appleroof (Messaggio 39056707)
è preso dal sito ufficiale, non l'ho fatta io eh... http://www.nvidia.it/object/geforce-gtx-titan-it.html

ci fanno un po dentro,monelli:fagiano:


Tutti gli orari sono GMT +1. Ora sono le: 20:23.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.