Hardware Upgrade Forum

Hardware Upgrade Forum (https://www.hwupgrade.it/forum/index.php)
-   Schede Video - Discussioni generali (https://www.hwupgrade.it/forum/forumdisplay.php?f=28)
-   -   [Thread Ufficiale] nVidia PhysX (https://www.hwupgrade.it/forum/showthread.php?t=1772022)


Defragg 27-06-2008 00:58

[Thread Ufficiale] nVidia PhysX
 


26/08/2008

Nella giornata odierna nVidia ha reso disponibile un nuovo set di driver Forceware beta, versione 177.39, che introducono per la prima volta il supporto pubblico alla tecnologia PhysX con le schede video NVIDIA basate su GPU GeForce 9800 GTX, GeForce GTX 280 e GeForce GTX 260.

Attraverso l'implementazione delle API PhysX di Ageia, grazie alla versione 8.06.12 del PhysX System Software, nVidia può delegare le elaborazioni della fisica alla GPU all'interno del benchmark 3DMark Vantage e in tutti i giochi che precedentemente richiedevano una PPU Ageia, in quanto la GPU viene vista dal benchmark come se fosse una unità di elaborazione PPU, Physics Processing Unit, completamente dedicata.


GPU supportate:
La compatibilità a nVidia PhysX è estesa a tutte le schede compatibili con CUDA 2.0, ossia TUTTE le GPU della serie 8, 9, 100, 200, 300, 400 e 500 che possiedono memoria video pari o superiore a 256Mb e un minimo di almeno 32 CUDA cores.


Nella modalità Standard la singola scheda si occuperà del rendering e delle operazioni fisiche, nella modalità SLi le due schede collegate in parallelo si occupano del rendering e dei calcoli relativi alla fisica, nella modalità Multi-GPU una scheda si occuperà del puro rendering, mentre l'altra si dedicherà interamente ai calcoli fisici.
Esiste infine un'ultima possibilità, applicabile nel primo e nel secondo caso (ma anche nel terzo, ma così si avrebbe una scheda di troppo nel case) e in un quarto caso, ossia con delle schede Radeon; la presenza di una PPU AGEIA PhysX, che si accollerebbe tutti i calcoli fisici e lascierebbe alla scheda grafica il puro rendering.

Le PPU Ageia PhysX vengono supportate.

NVIDIA PhysX System Software (driver PhysX singolo, per utenti con PPU e scheda ATi, ad esempio)

9.09.0428 WHQL - 3/6/2009
  • Aggiunto il supporto per l’accelerazione a tutte le GPU GeForce Serie 8, 9 e 200 con una memoria grafica dedicata di 256 MB (minimi).
  • Netta accelerazione di PhysX per GPU con numerosi giochi e demo,alcuni dei quali sono evidenziati nei download di PowerPack su geforce.it
  • Aggiorna il runtime SOLO per gli utenti di processori AGEIA PhysX. (Le nuove installazioni dovrebbero installare il software di sistema PhysX precedente, ad esempio la versione 8.09.04 – prima di installare questo aggiornamento)
  • Include i più recenti runtime PhysX utilizzati nei giochi più nuovi.
  • Supporta il controllo della configurazione di PhysX per GPU dal pannello di controllo del driver di visualizzazione di NVIDIA. (richiede il driver grafico v180.00 o successivo)

NV PhysX Tweaker
Questo programmino consente, a chi possiede una VGA PhysX, di abilitare/disabilitare l'accelerazione via GPU. Utile soprattutto in momenti in cui è richiesto la massima potenza grafica.
1.0 - 04/07/2008
N.B. Dalla versione 8.07.18 del PhysX System Software questo programmino perde utilità, perchè è possibile disabilitare l'accelerazione hardware direttamente dal pannello di controllo del PhysX System Software, oltre che a scegliere la modalità di accelerazione hardware (PPU PhysX o GPU PhysX).




PhysX Runs On RV670, Scores 22,000 CPU Marks in 3DMark Vantage
Eran Badit of NGOHQ.com successfully modified NVIDIA CUDA (Compute Unified Device Architecture) to operate on an ATI GPU and has been able to run the NVIDIA PhysX layer on an RV670, the Radeon HD 3850.

He tells that enabling PhysX support on Radeon cards is not particularly difficult, leading us to believe that physics on graphics cards may not so much be a technology problem but an issue of corporate dynamics.

On his first run, Eran got a 22,606 CPU score in 3D Mark Vantage, enhancing the overall score to P4262. A comparable system without PhysX-support will cross the finish line at about P3800.


Fake? Verità? O un po' di tutti e due?
Dal thread ATI Radeon HD 4850, test e analisi architettura:

Quote:

Originariamente inviato da Free Gordon (Messaggio 23072419)
Yoss... secondo te è possibile una cosa del genere?

Questo tizio pare esser riuscito a portare il physX su una 3870... (tramite CUDA :mbe: ).

Quote:

Originariamente inviato da yossarian (Messaggio 23074969)
yes, we can :D

Quote:

Originariamente inviato da MenageZero (Messaggio 23076957)
:eek:

adesso ci devi dire anche come si fa :O

edit:
visto che siamo in argomento "fisica" & radeon, si sa per caso di una qualche sorta di roadmap in seguito all'accordo, riportato da una recente news, tra havok(intel :D ) ed amd per far usare all'omonimo middleware le gpu radeon per i calcoli di simulazione fisica ?

Quote:

Originariamente inviato da yossarian (Messaggio 23081790)
CUDA è stato sviluppato adattando Open64 all'architettura di una gpu. Open64 è un compilatore open source, progettato per le architetture IA64, Opteron e IA32 e quindi in grado di lavorare in maniera eccellente, con le dovute ottimizzazioni, su architeture piuttosto differenti tra loro (vliw la prima, superscalare la seconda, superpipelined la terza). Ovviamente la versione che è in grado di funzionare su ATi è un po' differente da quella progettata per le gpu nVidia. Quindi, non entrando nel merito della veridicità di quel punteggio, la cosa è, comunque, fattibile.

Quote:

Originariamente inviato da MenageZero (Messaggio 23091178)
ammesso e non concesso che la seguente "ricostruzione" sia un'approssimazione vagamente decente, ovvero che sotto il nome di cuda vadano, tra l'altro, delle librerie che sono usate dalla nuova versione di physix per fare calcoli con le gpu nv,

quindi un possessore di radeon per far girare physix sulla sua gpu dovrebbe reimplementare le lib cuda (nonché adattare open64 alle gpu ati per crearsi queste sue lib) ovviamente lascindo invariate le api usate da physix e poi sostiture le sue lib a quelle by nv ?

ci sono per caso prospettive anche per vie "traverse" e "facili" ?

:D

hai idea di che sviluppi ed eventualmente tempi dobbiamo attenderci relativamente a vedere havok usare le gpu ati ?

Quote:

Originariamente inviato da yossarian (Messaggio 23091693)
è ovvio che cuda si può considerare un riadattamento proprietario di Open64 e, pertanto, è pensato per sfruttare al meglio le peculiarità dell'architettura dei chip NV (che è abbastanza differente da quella dei chip ATi); pertanto, chi vorrà fare uso di physx tramite cuda dovrà sbattersi un po' :D

Quote:

Originariamente inviato da Free Gordon (Messaggio 23072419)
E poi,secondo te:
quale delle due architetture (tra R600/G80 e Rv770/GT200)) è più adatta a macinare calcoli fisici?
Dovrebbe essere abbastanza avvantaggiata ATI, giusto? Dato che i calcoli sui vertici sfruttano nativamente tutte e 5 le unità disponibili negli SP a disposizione delle architetture ATI...

Quote:

Originariamente inviato da yossarian (Messaggio 23074969)
dipende dal tipo di codice che si usa. Con istruzioni, tipo quelle geometriche, che tendono a privilegiare il calcolo parallelo, sicuramente l'architettura dei chip ATi è più performante, in alcuni casi anche di molto.

Recensioni:
NVIDIA's PhysX: Performance and Status Report - inglese: Test CPU vs PPU vs GPU PhysX su 3D Mark Vantage e Unreal Tournament 3
nVidia PhysX Starring the Zotac 9800 GTX+ - inglese
PhysX Performance with GeForce - inglese
NVIDIA GPU PhysX Pack Preview - inglese
A first look at Nvidia's GPU physics - inglese
Mirror's Edge: Physx effects benchmark review - inglese
Mirror's Edge benchmarks with Radeon HD 4870 plus Ageia card - Alternative to Nvidia Physx - inglese
Bericht: Nvidia CUDA und PhysX im Überblick - tedesco
Batman, Cryostasis, Mirror's Edge, Darkest of Days: PhysX roundup!

Links utili:
http://physxinfo.com/
The Unofficial PhysX Links & Info Page - inglese
PhysX games, list, links, comments. - inglese
PhysX Demo Competition from The Game Creators and nVidia - inglese

slivio... 27-06-2008 09:03

ciao
mi iscrivo

il chip G92 pare venga supportato nativamente;
quando ho installato i driver per la fisica, andando nel relativo pannello di controllo avevo già abilitata la funzione per la fisica poi non so...

ciao

ps: il penultimo link postato da te è errato nella sintassi non porta da nessuna parte... ;) se lo puoi vorregere ti ringrazio

ariciao

lowenz 27-06-2008 10:16

Bisognerebbe trovare qualche bel bench fisico :D

Defragg 27-06-2008 13:27

Quote:

Originariamente inviato da lowenz (Messaggio 23068895)
Bisognerebbe trovare qualche bel bench fisico :D

Più che altro vedere i risultati di chi ha sia una PPU che una VGA nVidia adatta.
Io purtroppo ho solo la prima, sono rimasto ancora alla mia X1950GT@Pro causa mancanza di dindini. :p Altrimenti li avrei fatti personalmente dei test, con fisicia via PPU, via GPU e infine via CPU.

Quote:

Originariamente inviato da slivio... (Messaggio 23067948)
ps: il penultimo link postato da te è errato nella sintassi non porta da nessuna parte... ;) se lo puoi vorregere ti ringrazio

ariciao

Thank you :p

KNX 27-06-2008 15:03

...ma se già con una scheda video nvidia g92 aggiornata con gli ultmi forceware si ha la possibilità di far "fisicizzare" alla gpu e non alla cpu... avere una ppu comporterebbe semplicemente far fare il tutto a lei e non alle altre due... cioè non capisco che vantaggi apporterebbe... o forse sì :confused:

Forse avendo una ppu non si avrebbe nemmeno il bisogno di installare i forceware con physix nativo, i calcoli li farebbe tutti la ppu, e sicuramente se un lavoro viene fatto da tre persone invece che da due o addirittura una :) ...

Però allora a questo punto mi viene da pensare che in realtà non è nient'altro che un dividersi il compito cioè voglio dire non si avrebbero incrementi delle prestazioni ma solo un carico in meno da parte della cpu e gpu... non capisco

appleroof 27-06-2008 15:21

Ti rispondo qui perchè l'altro tread è stato chiuso (ma perchè poi?)

http://www.hwupgrade.it/forum/showpo...postcount=9941

ma secondo te, se l'sdk è stato reso libero prima dell'acquisizione di Ageia, come facevano le vga Nvidia e/o Ati a usarlo?

http://www.hwupgrade.it/news/skvideo/19322.html

Nvidia tramite Cuda e Ati tramite (?)

Cuda è il mezzo per usare uno strumento (phisix) su gpu Nvidia, (?) è un mezzo per usare lo stesso strumento su gpu Ati. Ammesso che Ati voglia

per esempio, anche Havock potrebbe essere usato da Nvidia, volendo.

...............E se non chiediamo troppo, suggeriamo a nVidia di accordarsi con Havok, così da avere schede ATI e nVidia con compatibilità fisica totale.

http://www.tomshw.it/news.php?newsid=14538

Tidus.hw 27-06-2008 15:28

io ho provato cell factor ma non mi sembra che la fisica fosse accelerata.. boh

Kharonte85 27-06-2008 15:57

Quote:

Originariamente inviato da Ratatosk
http://www.hwupgrade.it/forum/showpo...postcount=9940

Nelle specifiche del 3DMark è specificato che i calcoli della fisica devono essere fatti da una CPU o PPU perché la validità del test sia certificata.


In pratica inserire questa funzionalità nella GPU gonfia il risultato del 3DMark utilizzando però quello che è a tutti gli effetti un cheat.

Il motivo è che se ipoteticamente avessi un gioco che sfrutta queste librerie e facessi girare la fisica sulla stessa GPU che calcola la grafica ti ritroveresti con un calo di performance (il motivo è ovvio: la GPU è impegnata in parte a fare altro che non il suo lavoro, quindi i risultati sono peggiori), mentre dal 3DMark risulta il contrario.

:>

mi manderesti un link di questa cosa?

Ma le prestazioni aumentano nel test cpu con physix? se si vede ad occhio nudo il miglioramento è chiaro che non è solo un cheat...

KNX 27-06-2008 16:05

...ok... allora se non ho capito male, ormai nVidia ha scelto Ageia PhysiX mentre ATi ha scelto Havok... mmm... e allora però come funzionerà con i vari giochi sviluppati con l'uno o con l'altro?

lexing 27-06-2008 16:13

Qui c'è un test con il 3DMark Vantage e una GTX280, e i risultati si vedono... :eek:

http://www.pcprofessionale.it/2008/0...ita-dalla-gpu/


scorpion73 27-06-2008 16:19

posto anche qui...
ma io non ho capito una cosa: nel caso si abbia pure la scheda di ageia, chi è che decide se usare la PPU o la GPU?
Si può scegliere su base utente cosa usare?

Mercuri0 27-06-2008 17:14

Quote:

Originariamente inviato da appleroof (Messaggio 23074160)
Ti rispondo qui perchè l'altro tread è stato chiuso (ma perchè poi?)

ed è stato chiuso proprio mentre stavo per risponderti. Per fortuna avevo il blocco note a portata di click :D

Quote:

Originariamente inviato da appleroof (Messaggio 23064880)
c'è un doppio errore, mio e tuo: phisix (da quando Nvidia ha comprato Ageia) non ha necessità di usare cuda, mi spiego: cuda è il modo con cui phisix funzia su schede Nvidia, ma phisix (il suo sdk) è libero e ciascuno può utilizzarlo (non so come Ati chiami il suo programma per gpu) senza dare una lira ad Nvidia

Il fatto che l'SDK sia libero di essere usato, vuol dire che i programmatori di videogiochi possono aggiungere Physx ai loro giochi liberamente. Stessa cosa per Havoc.

Per fare un porting su CAL delle librerie di PhysiX, non basta poter usare l'SDK, ma poterlo [I]modificare[/i]. La differenza è davvero bella grossa: AMD non ha scelto di fare l'accordo con Havoc, per fare uno screzio a nVidia. E' stata nVidia a non voler rendere disponibile PhysiX anche per AMD e non c'è niente di male in questo! (deh, nVidia c'ha messo soldi per Ageia, eh)

Quote:

Originariamente inviato da Defragg (Messaggio 23066521)
E AMD ha detto di no a CUDA per ovvi motivi, licenze e soprattutto motivi d'immagine. Sai che bella figura nell'adottare la tecnologia del principale concorrente. :asd:

CUDA di persé non è una "tecnologia" ma il linguaggio per programmare le GPU di nVidia. AMD "ha detto no a CUDA" perché usarlo per le sue GPU è tecnicamente molto difficile e strategicamente un suicidio: leghi il tuo hardware a una tecnica di programmazione controllata dal tuo diretto concorrente!

Se CUDA fosse uno standard sarebbe un altro paio di maniche. Infatti per fortuna sta nascendo OpenCL e ci sarà qualcosa anche nelle DirectX11.
Quote:

Poi è stata Ati ad dire "sti cazzi" per dare una mano ad Intel che ne ha tanto bisogno, in effetti (non in termini monetari diretti, visto che anche Havock è stato reso open da Intel)
Stesso discorso: Havoc è "open" come il PhysiX. Puoi usarlo ma non puoi modificarlo, e AMD probabilmente ha dovuto sborsare qualcosa anche solo per fare l'annuncio di collaborazione. C'è da dire che la patnership con lntel fa comodo anche ad lntel, perché serve a rafforzare Havoc. Anzi, potrebbero scegliere di implementare una parte GPGPU di Havoc (HavocFX) per girare su DirectX 9/10!. In questo modo potrebbe girare anche su hardware nVidia, e sarebbe preferito dagli sviluppatori.

Quote:

Originariamente inviato da Soulman84 (Messaggio 23066534)
ma ati mica ha comprato havok? qualcosa dovrebbe fare pure lei x la fisica,no?

Ma il punto è che non possiamo avere giochi che girano solo su Ati o solo su nVidia! :cry: E anche i programmatori lo sanno.

Tutta questa storia di motori fisici finirà in un nulla di fatto, in demo tecnologici e in prese in giro finché i motori fisici accelerati dalle GPU verranno scritti per girare sulle DirectX (anziché su CUDA o CAL)

p.s. I test del Vantage delle bandiere e delle particelle sono già "fisica sulle GPU" e vengono accelerati da tutte le GPU! Se davvero vogliono, i programmatori possono fare la fisica sulle GPU anche con le Directx9! In tutta questa storia c'è fumo, il vero arrosto non si vedrà per almeno un paio d'anni.

Mercuri0 27-06-2008 17:24

Quote:

Originariamente inviato da appleroof (Messaggio 23074160)
Nvidia tramite Cuda e Ati tramite (?)

Cuda è il mezzo per usare uno strumento (phisix) su gpu Nvidia, (?) è un mezzo per usare lo stesso strumento su gpu Ati. Ammesso che Ati voglia

Spero di aver chiarito qualcosa a proposito nel mio post precedente. Faccio uno schemino di riepilogo.

Gioco->PhysiX->Cuda->Driver(cuda)->Scheda Video.


Per AMD e il Physix dovrebbe essere
Gioco->Physix->Cal->Driver(Cal)->Scheda Video.
Per far questo però dovrebbe poter modificare il PhysiX, cosa che nVidia non ci pensa minimamente di lasciagli fare.

Un'altra soluzione sarebbe:
Gioco->PhysiX->Cuda o interfaccia CUDA-Cal ->driver CUDA o Cal->scheda video.
Tecnicamente difficile da realizzare e metterebbe i driver (e l'hardware) di AMD alla mercé di nVidia.

La soluzione "buona" per sviluppatori e noialtri utenti è:
Gioco->Motore fisico(Havoc, PhysiX, etc)->DirectX->Driver(DirectX)->scheda video. Stessa cosa con OpenCL (o persino OpenGL) al posto del DirectX.

L'accelerazione fisica sulle GPU si può fare anche sulle DirectX 9/10 senza usare CUDA o CAL, vedi il test delle bandiere del Vantage.

Comunque devo ancora capire meglio la storia dell'hack fatto da quel tipo di cui si parlava.

KNX 27-06-2008 17:27

Quote:

Originariamente inviato da Mercuri0 (Messaggio 23075998)
Ma il punto è che non possiamo avere giochi che girano solo su Ati o solo su nVidia! :cry: E anche i programmatori lo sanno.

Ecco è questo quello che non capisco... ma praticamente parlando... se io faccio partire Assassin's Creed, a parità di configurazione del PC (scheda video esclusa ovviamente), su una gtx260 o su una HD4870 il fatto che sia stato sviluppato con Havock cosa implica?

Mercuri0 27-06-2008 17:58

Quote:

Originariamente inviato da KNX (Messaggio 23076186)
Ecco è questo quello che non capisco... ma praticamente parlando... se io faccio partire Assassin's Creed, a parità di configurazione del PC (scheda video esclusa ovviamente), su una gtx260 o su una HD4870 il fatto che sia stato sviluppato con Havock cosa implica?

Non è un problema: Havoc gira sulla CPU, come del resto anche PhysiX. PhysiX è usato da un gran numero di giochi, e nessuno di questi richiede un acceleratore dedicato. Con questi giochi usare la GPU per accelerare PhysiX non aumenta ma al massimo può diminuire gli FPS.
(perché la GPU viene aggravata di lavoro che la CPU faceva con facilità).

Usare la GPU per accelerare la fisica serve solo per effetti particolari che la CPU non digerisce. Questi effetti o girano sulla GPU, o non girano: non c'è via di mezzo.

Quello che può succedere, è che ci siano giochi che potranno abilitare alcuni particolari effetti su particolare hardware.

Per PhysiX nel breve termine questi effetti saranno disponibili solo per hardware nVidia, per Havoc ancora non si sa nulla: potrebbe essere solo CPU, solo AMD, o anche AMD+nVidia.

Ovviamente potrebbero fare giochi per cui questi effetti siano "fondamentali", ma ovviamente sarebbero solo tech-demo. :) A meno che davvero i programmatori non si mettano a fare giochi solo per Ati o nVidia, la qual cosa ucciderebbe il già moribondo mondo dei videogiochi su PC.

p.s. Chissà se all'estremo uno non si possa comprare una ATI o nVidia "piccola" da usare come acceleratore fisico dedicato in parallelo a una scheda video di un'altra marca...

Mercuri0 27-06-2008 18:06

Commento a quanto ho detto sopra:

In realtà mi aspetto che di questa storia della fisica già a metà agosto non se ne parlerà più, fino a che non cominceranno a fare sul serio.

E per fare sul serio ci vuole uno standard.
(Che possibilmente vada bene anche per le console.)

edit: Inoltre mi pare che sia chiarissimo che non c'è nessun problema tecnico in questa storia ma solo discorsi di marketing.

MIRAGGIO 27-06-2008 18:23

wow
Con i driver 177.40
http://www.nvnews.net/vbulletin/showthread.php?t=115375
funziona tutto almeno dal pannello con la mia scheda in firma senza nessuna modifica dell'inf.


KNX 27-06-2008 18:45

Quote:

Originariamente inviato da Mercuri0 (Messaggio 23076623)
Usare la GPU per accelerare la fisica serve solo per effetti particolari che la CPU non digerisce. Questi effetti o girano sulla GPU, o non girano: non c'è via di mezzo.

Quello che può succedere, è che ci siano giochi che potranno abilitare alcuni particolari effetti su particolare hardware.

Allora, però credo di andare un pò OT adesso, vabbè lo dico lo stesso...

E' addirittura possibile che un gioco sviluppato con PhysX e giocato con una scheda video diciamo così "non PhysX" con i driver PhysX installati nel sistema (i soliti non i Forceware 177... che abilitano l'acc della fisica sulla GPU (vd. sotto)), abbia alcuni effetti cmq non riproducibili perchè non digeriti dalla CPU?

Lo chiedo perchè l'altro giorno da un mio amico abbiamo provato Hellgate London su una 9800GX2 con non ricordo quali Forceware (ma tanto mi pare di aver capito che per questa scheda il supporto PhisX nativo non ci sia con alcuna revision) e Vista Ultimate... nel menù delle impostazioni video del gioco c'era la possibilità di abilitare un effetto "fumo" mi pare, ovviamente lo abbiamo abilitato, ma durante il gioco in alcune zone dove ci sarebbe dovuto essere appunto del fumo, si vedeva diciamo tutto nero...

blade9722 27-06-2008 19:44

Quote:

Originariamente inviato da Mercuri0 (Messaggio 23076623)
Non è un problema: Havoc gira sulla CPU, come del resto anche PhysiX. PhysiX è usato da un gran numero di giochi, e nessuno di questi richiede un acceleratore dedicato. Con questi giochi usare la GPU per accelerare PhysiX non aumenta ma al massimo può diminuire gli FPS.
(perché la GPU viene aggravata di lavoro che la CPU faceva con facilità).

Usare la GPU per accelerare la fisica serve solo per effetti particolari che la CPU non digerisce. Questi effetti o girano sulla GPU, o non girano: non c'è via di mezzo.

Quello che può succedere, è che ci siano giochi che potranno abilitare alcuni particolari effetti su particolare hardware.

Per PhysiX nel breve termine questi effetti saranno disponibili solo per hardware nVidia, per Havoc ancora non si sa nulla: potrebbe essere solo CPU, solo AMD, o anche AMD+nVidia.

Ovviamente potrebbero fare giochi per cui questi effetti siano "fondamentali", ma ovviamente sarebbero solo tech-demo. :) A meno che davvero i programmatori non si mettano a fare giochi solo per Ati o nVidia, la qual cosa ucciderebbe il già moribondo mondo dei videogiochi su PC.

p.s. Chissà se all'estremo uno non si possa comprare una ATI o nVidia "piccola" da usare come acceleratore fisico dedicato in parallelo a una scheda video di un'altra marca...

Su questa analisi ci sarebbe un altro scenario plausibile. I calcoli della fisica sono lasciati alla CPU e normalmente non la impegnano più di tanto. In questa situazione sgravare la CPU dei calcoli della fisica apporterebbe un carico irrilevante alla GPU.

Poi, in certe sistuazioni particolari, per esempio una esplosione di vaste proporzioni, si ha un picco nei calcoli fisici, la CPU fatica a reggere il carico, e come conseguenza si ha un drastico calo di frame rate, con la GPU che "si gira i pollici" in attesa dei dati dalla CPU. In questo caso, lo spostamento del carico da CPU a GPU potrebbe portare ad un incremento dei frames. In altre parole, con la fisica sulla CPU potrei avere un limite di teorico di 50FPS (per esempio) della GPU, però un frame rate di 20FPS dato dalla lentezza della CPU. Spostando il carico sulla VGA, potrei abbassare il limite teorico della GPU a 40 FPS, ed avere un frame rate complessivo di 35FPS.

Defragg 28-06-2008 01:29

Quote:

Originariamente inviato da blade9722 (Messaggio 23078036)
Su questa analisi ci sarebbe un altro scenario plausibile. I calcoli della fisica sono lasciati alla CPU e normalmente non la impegnano più di tanto. In questa situazione sgravare la CPU dei calcoli della fisica apporterebbe un carico irrilevante alla GPU.

Poi, in certe sistuazioni particolari, per esempio una esplosione di vaste proporzioni, si ha un picco nei calcoli fisici, la CPU fatica a reggere il carico, e come conseguenza si ha un drastico calo di frame rate, con la GPU che "si gira i pollici" in attesa dei dati dalla CPU. In questo caso, lo spostamento del carico da CPU a GPU potrebbe portare ad un incremento dei frames. In altre parole, con la fisica sulla CPU potrei avere un limite di teorico di 50FPS (per esempio) della GPU, però un frame rate di 20FPS dato dalla lentezza della CPU. Spostando il carico sulla VGA, potrei abbassare il limite teorico della GPU a 40 FPS, ed avere un frame rate complessivo di 35FPS.

No blade, non ci siamo.
In un esplosione di vaste proporzioni mi pare logico ipotizzare che ci sia un gran numero di oggetti che subiscono delle conseguenze dovute all'esplosione.
Spostando il carico da CPU a GPU si possono si velocizzare i calcoli fisici, ma dopo chi renderizza tutto il popò di roba che si muove su schermo? Chi applica i vari tipi di effetti, texture, ecc...?
La GPU, ma se questa perde risorse nel calcolo fisico dopo non sarà più in grado di renderizzare fluidamente una determinata scena, perchè come detto non può sfruttare tutte le sue risorse. ;)


Tutti gli orari sono GMT +1. Ora sono le: 06:04.

Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.