Entra

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 [60] 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465

appleroof
22-09-2014, 16:44
Eh eh eh....MSI sà già tutto.....:D


http://www.tomshw.it/cont/news/msi-no-al-dissipatore-lightning-sulla-geforce-gtx-980/59260/1.html

Capirai... Il segreto di pulcinella :D

mikael84
22-09-2014, 16:50
Capirai... Il segreto di pulcinella :D

Be solitamente le lightning vengono prodotte per il dissipatore migliore:fagiano:
Le lightning servono proprio senza dissipatore(liquido-azoto):p

Cmq strana questa scelta, la lightning non ha prodotto neppure TI(mi pare solo 12) per il mercato

appleroof
22-09-2014, 16:53
Be solitamente le lightning vengono prodotte per il dissipatore migliore:fagiano:
Le lightning servono proprio senza dissipatore(liquido-azoto):p

Cmq strana questa scelta, la lightning non ha prodotto neppure TI(mi pare solo 12) per il mercato

Il segreto di pulcinella era riferito al fatto che si sta preparando il chippone

illidan2000
22-09-2014, 16:53
Capirai... Il segreto di pulcinella :D

apple, ma tu ti fiondi pure sulla 970 per abbassare i consumi?

mikael84
22-09-2014, 17:01
Il segreto di pulcinella era riferito al fatto che si sta preparando il chippone

mi riferivo all'articolo:)
Cmq anche secondo me non tarderà molto

ironman72
22-09-2014, 17:14
fino a gennaio febbraio le 780ti dormiranno sonni tranquilli non le abbandono ;)

appleroof
22-09-2014, 17:56
apple, ma tu ti fiondi pure sulla 970 per abbassare i consumi?

no mai pensato :stordita:

nel mio caso di per se non avrebbe senso illidan, non basterebbe per il cambio..forse forse e ripeto forse una 980 pompata potrei considerare nel mio caso, ma di sicuro non a breve.

Luca T
22-09-2014, 18:17
Il segreto di pulcinella era riferito al fatto che si sta preparando il chippone

Speriamo :sperem:

Uscisse a gennaio aspetterei volentieri, non é che ho bisogno impellente!

appleroof
22-09-2014, 20:05
Interessante post da uno che è sempre stato molto ben informato su Nvidia (azzeccava le prestazioni delle 900 già settimane fa per dire una)

forum.beyond3d.com/showpost.php?p=1875915&postcount=2334

AndreTM
22-09-2014, 20:07
Stando a quanto detto da PC Tuning è in arrivo la GTX 990 e, probabilmente, la "Titan X". Riporto il poco che hanno detto sulle presunte caratteristiche:

Chip size from 10 to 15 percent over the GK110 (551 mm2)
Number of CUDA in 2816 (20-22 SMM blocks), apparently the first version will be active all chip in SMM
Memory bus 384 or 512-bit (rather I-384 bit)
Gaming and professional card should come out at the same time, a name like Titan X
Launch of Q4 / 2014
Performance Titan X - 40-50 percent over Titan Black

appleroof
22-09-2014, 20:09
Si so scordati il prezzo :asd:

LurenZ87
22-09-2014, 20:12
Si so scordati il prezzo :asd:
Meglio non saperlo :asd:

Inviato dal mio OnePlus One utilizzando Tapatalk

Major Clock
22-09-2014, 20:16
Si so scordati il prezzo :asd:

Performance Titan X - 40-50 percent over Titan Black

http://forum.armedassault.info/style_emoticons/default/mf_hide.gif

paolox86
22-09-2014, 20:17
Stando a quanto detto da PC Tuning è in arrivo la GTX 990 e, probabilmente, la "Titan X". Riporto il poco che hanno detto sulle presunte caratteristiche:



Chip size from 10 to 15 percent over the GK110 (551 mm2)

Number of CUDA in 2816 (20-22 SMM blocks), apparently the first version will be active all chip in SMM

Memory bus 384 or 512-bit (rather I-384 bit)

Gaming and professional card should come out at the same time, a name like Titan X

Launch of Q4 / 2014

Performance Titan X - 40-50 percent over Titan Black


Ci vorranno 2 banconote viola minimo (forse anche una gialla)... Sempre se NVIDIA ci vuole bene... :)

appleroof
22-09-2014, 20:21
http://forum.armedassault.info/style_emoticons/default/mf_hide.gif

Meglio non saperlo :asd:

Inviato dal mio OnePlus One utilizzando Tapatalk

:D :D

Andretm metteresti il link per favore?

AndreTM
22-09-2014, 20:25
Ecco (https://translate.google.cz/translate?sl=cs&tl=en&js=y&prev=_t&hl=cs&ie=UTF-8&u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F30978-geforce-gtx-990-a-nejspis-i-titan-x-na-ceste&edit-text=) ;)

appleroof
22-09-2014, 20:28
Ecco (https://translate.google.cz/translate?sl=cs&tl=en&js=y&prev=_t&hl=cs&ie=UTF-8&u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F30978-geforce-gtx-990-a-nejspis-i-titan-x-na-ceste&edit-text=) ;)

Thanx :) ;)

appleroof
22-09-2014, 20:33
Interessante questo passaggio:

The source also talks about a possible scenario where NVIDIA indicate this GM200 only in the professional segment and into the game for Christmas launches GeForce GTX 990 It should be composed of two cores GM204 and its power consumption and can be a solid estimate. Personally, I hope the game and putting profi GM200 graphics simultaneously. But we'll see soon is now anticipate. What is certain is that Christmas is about renewal in the ultra high-end.

LurenZ87
22-09-2014, 20:37
Possibilissima come soluzione, anche perché se la storia si ripete, tireranno fuori prima la dual gpu di GM204 che il GM210 (che immagino rivedremo sui 1000€ sulla nuova Titan)...

Sempre se AMD non cambia le carte in tavola :)

Inviato dal mio OnePlus One utilizzando Tapatalk

Legolas84
22-09-2014, 20:43
La dual non mi attira più di tanto... Allora a quel punto tanto vale lo sli.... Quello che servirebbe secondo me è un chip più potente della 780ti ma non venduto a 1000 euro...

Major Clock
22-09-2014, 21:00
Boh è uno scenario strano perchè o il gm200 è davvero un mostro disumano di performance o lo sli di 970 imho resterà il suo diretto concorrente perchè superiore in performance e inferiore di prezzo (immaginandolo sui 900-1000€) v0v

Luca T
22-09-2014, 21:14
La dual non mi attira più di tanto... Allora a quel punto tanto vale lo sli.... Quello che servirebbe secondo me è un chip più potente della 780ti ma non venduto a 1000 euro...

Se la gente le compra lo stesso vedrai che abbassano per bontà :asd:

The_SaN
23-09-2014, 01:09
La dual non mi attira più di tanto... Allora a quel punto tanto vale lo sli.... Anche perchè col prezzo che ci propinano, ne compri 3. In questo caso, problemi di spazio a parte, non vedo perchè non prendere schede singole.
Ormai con il pci-e 3.0 puoi tenerlo su 8x che non cambia niente.

mircocatta
23-09-2014, 08:06
una titan2 a 1000€ la vedo difficile
non potranno certamente proporre una scheda che va, per esempio, il 40% in più della gtx970 al triplo o quadruplo del prezzo di quest'ultima, quando uno sli di gtx 970 la passerebbe in tranquillità

la prima titan fu un caso a parte, perchè teneva testa anche alle configurazioni multigpu delle serie precedenti pareggiandone i costi (le 780 ancora non c'erano e le gtx680 venivano 400€ quando uscì la titan giusto? )



ps: inoltre credo che a 28nm il gm210 nascerebbe sottodimensionato (come fu castrato gk110 su gtx780, ma per altri motivi) , oltre ai consumi bisogna far i conti con il die size, già abbondante su gm104 nei confronti di gk104

illidan2000
23-09-2014, 08:44
una titan2 a 1000€ la vedo difficile
non potranno certamente proporre una scheda che va, per esempio, il 40% in più della gtx970 al triplo o quadruplo del prezzo di quest'ultima, quando uno sli di gtx 970 la passerebbe in tranquillità

la prima titan fu un caso a parte, perchè teneva testa anche alle configurazioni multigpu delle serie precedenti pareggiandone i costi (le 780 ancora non c'erano e le gtx680 venivano 400€ quando uscì la titan giusto? )



ps: inoltre credo che a 28nm il gm210 nascerebbe sottodimensionato (come fu castrato gk110 su gtx780, ma per altri motivi) , oltre ai consumi bisogna far i conti con il die size, già abbondante su gm104 nei confronti di gk104

due 680 le vedo parecchio sopra una titan/780 però

mircocatta
23-09-2014, 08:56
due 680 le vedo parecchio sopra una titan/780 però

vero, però due 680 quanto costavano all'uscita della titan? se non sbaglio si veniva a spendere 100€ in meno di una titan, e si aveva uno sli di schede con 2gb di ram, tanta potenza ma limitante per le alte risoluzioni, ed ecco che la titan si mostrava come perfetto compromesso potenza/ram


qui abbiamo le gtx970 a 330€ e 4gb di ram, uno sli non è limitato dalla poca ram e ti costa 660€..una titan2 evetunalmente non credo sia vendibile a oltre 750-800€

poi per carità, se ha cercato di vendere la titan black a oltre 1000€ o la Z a 3000€ ci si può aspettare di tutto

Goofy Goober
23-09-2014, 10:21
due 680 le vedo parecchio sopra una titan/780 però

nemmeno tanto.
con due Titan in SLI occate battevo due 690gtx in Quad SLI in vari casi (e anche queste erano occate).

ora, scalabilità pessima a parte, la Titan singola occata in-game andava meglio di due 680gtx

ricordo i test di un utente con la Titan uber-occata che in game faceva meglio dello SLI di 670 occate a bestia.

MrBrillio
23-09-2014, 10:29
Io trovo sempre inutile confrontare uno SLI con una singola, perchè è un setup completamente diverso con problematiche che una singola non ha e prestazioni che non sono paragonabili, e in ogni caso in previsione futura potrebbe essere più sensata l'acquisto della top di gamma singola.

PaulGuru
23-09-2014, 15:22
Ecco come volevasi dimostrare la 980 è davanti con 10-15%, e la 970 va come la Ti.


E tutto con TDP ancora più bassi di quel che si supponeva ( 165W e 145W non si possono vedere ).

°Phenom°
23-09-2014, 15:45
Ecco come volevasi dimostrare la 980 è davanti con 10-15%, e la 970 va come la Ti.


E tutto con TDP ancora più bassi di quel che si supponeva ( 165W e 145W non si possono vedere ).

Attenzione però, ciò se si confronta reference vs reference, sennò una 780Ti è più performante sia della 980 che della 970. Indubbiamente sono dei mostri di efficienza, e ciò fa sperare bene per il full maxwell, ma in performance pure non eccellono rispetto alle precedenti top di gamma Kepler.

PaulGuru
23-09-2014, 15:48
Attenzione però, ciò se si confronta reference vs reference, sennò una 780Ti è più performante sia della 980 che della 970. Indubbiamente sono dei mostri di efficienza, e ciò fa sperare bene per il full maxwell, ma in performance pure non eccellono rispetto alle precedenti top di gamma Kepler.
Alcuni titoli vecchi non hanno il supporto pieno da parte dei driver.
Inoltre i drivers sono acerbi, con le prossime relase daranno ancora del gap.

Per il prossimo Maxwell fa ben sperare, anzi direi che ci troviamo di fronte ad una rivoluzione come fu col G80 ma la penalizzazione del PP sta nascondendo il tutto. Purtroppo però il GM200 difficilmente uscirà a breve, passerà almeno un anno o quasi.

Darius_84
23-09-2014, 15:51
Penso sia solo una questione di tempo (aka rilascio della serie R9 3xx di AMD) prima di vedere una 980Ti (o come nvidia deciderà di chiamarla...)

°Phenom°
23-09-2014, 15:53
Il full maxwell non credo verrà rilasciato sempre per la serie 900, ma per la prossima, quindi personalmente non c'è la vedo una 980Ti. Dovrebbe uscire invece la 990 (dual gpu).

°Phenom°
23-09-2014, 15:58
Alcuni titoli vecchi non hanno il supporto pieno da parte dei driver.
Inoltre i drivers sono acerbi, con le prossime relase daranno ancora del gap.

Per il prossimo Maxwell fa ben sperare, anzi direi che ci troviamo di fronte ad una rivoluzione come fu col G80 ma la penalizzazione del PP sta nascondendo il tutto. Purtroppo però il GM200 difficilmente uscirà a breve, passerà almeno un anno o quasi.

Vedremo come si evolve la situazione con i nuovi driver, attualmente efficienza mostruosa per essere a 28nm, ma prestazioni sottotono rispetto alla precedente gen, nel senso, preferirei una 780ti da occare ad una 980 che già esce abbastanza tirata di suo. Le 970 sono ottime per mini pc efficienti ma nello stesso tempo prestazionali o per sli visto appunto il basso consumo e calore prodotto.
La vera vincitrice qui è appunto la 970, prezzo/prestazioni/consumi in linea ;)

Ali3n77
23-09-2014, 16:00
nemmeno tanto.
con due Titan in SLI occate battevo due 690gtx in Quad SLI in vari casi (e anche queste erano occate).

ora, scalabilità pessima a parte, la Titan singola occata in-game andava meglio di due 680gtx

ricordo i test di masquerade con la Titan uber-occata che in game faceva meglio dello SLI di 670 occate a bestia.

Uber occata?
Guarda in firma lo sli di 680 lo supero e di molto anche :D

Darius_84
23-09-2014, 16:01
Dipende da cosa sforna casa AMD... Anche la 780 sembrava essere la top di gamma per la passata generazione, poi dopo aver invece visto che le prendeva di santa ragione dalla 290X la casa di Santa Clara ha ben pensato di sguinzagliare appieno il Gk110 rilasciando la 780Ti che si è rivelata più potente anche della portabandiera AMD per mantenere il primato di VGA singola più veloce.

Considerando le prestazioni di Tonga sono abbastanza fiducioso che i prossimi chip AMD potranno dare filo da torcere alle verdi :D

PaulGuru
23-09-2014, 16:06
Vedremo come si evolve la situazione con i nuovi driver, attualmente efficienza mostruosa per essere a 28nm, ma prestazioni sottotono rispetto alla precedente gen, nel senso, preferirei una 780ti da occare ad una 980 che già esce abbastanza tirata di suo. Le 970 sono ottime per mini pc efficienti ma nello stesso tempo prestazionali o per sli visto appunto il basso consumo e calore prodotto.
La vera vincitrice qui è appunto la 970, prezzo/prestazioni/consumi in linea ;)Dubito che una 780Ti ben tirata vada molto meglio di una 980 a default appena miglioreranno i drivers.
Inoltre ha sempre 4GB vs 3GB.

°Phenom°
23-09-2014, 16:17
Dipende da cosa sforna casa AMD... Anche la 780 sembrava essere la top di gamma per la passata generazione, poi dopo aver invece visto che le prendeva di santa ragione dalla 290X la casa di Santa Clara ha ben pensato di sguinzagliare appieno il Gk110 rilasciando la 780Ti che si è rivelata più potente anche della portabandiera AMD per mantenere il primato di VGA singola più veloce.

Considerando le prestazioni di Tonga sono abbastanza fiducioso che i prossimi chip AMD potranno dare filo da torcere alle verdi :D

La cosa è differente, gk104 era il chippino e seppur la 680 andava meno della 7970ge, nvidia non ha tirato fuori nulla, poi il chippone era il gk110, che appunto è uscito in versione Titan, 780Ti, Titan Black ecc. Probabilmente quello che dici tu risuccederà con il chippone maxwell se nvidia continua in questo modo, credo vedremo solo la 990 con il chippino.

°Phenom°
23-09-2014, 16:18
Dubito che una 780Ti ben tirata vada molto meglio di una 980 a default appena miglioreranno i drivers.
Inoltre ha sempre 4GB vs 3GB.

Staremo a vedere, non ti ho detto mica che non possa succedere quello che dici :D

mircocatta
23-09-2014, 16:25
La cosa è differente, gk104 era il chippino e seppur la 680 andava meno della 7970ge, nvidia non ha tirato fuori nulla, poi il chippone era il gk110, che appunto è uscito in versione Titan, 780Ti, Titan Black ecc. Probabilmente quello che dici tu risuccederà con il chippone maxwell se nvidia continua in questo modo, credo vedremo solo la 990 con il chippino.

per me gm210 a 28nm lo tireranno fuori invece

castrato magari, ma lo tireranno fuori, come fu castrato il gk110 montato sulle gtx780 (2304 cc anziché i 2880 di gk110 full)

poi uscirà nella nuova serie full gm210 a 16/20nm con una quantità abnorme di cc...imho il doppio delle gtx970

appleroof
23-09-2014, 16:26
Vedremo come si evolve la situazione con i nuovi driver, attualmente efficienza mostruosa per essere a 28nm, ma prestazioni sottotono rispetto alla precedente gen, nel senso, preferirei una 780ti da occare ad una 980 che già esce abbastanza tirata di suo. Le 970 sono ottime per mini pc efficienti ma nello stesso tempo prestazionali o per sli visto appunto il basso consumo e calore prodotto.
La vera vincitrice qui è appunto la 970, prezzo/prestazioni/consumi in linea ;)

Dalle poche prove che ho visto in giro per le 980 del margine c'è e pure non poco, per cui non direi che sono già tirate al massimo

Legolas84
23-09-2014, 16:28
Ecco come volevasi dimostrare la 980 è davanti con 10-15%, e la 970 va come la Ti.


E tutto con TDP ancora più bassi di quel che si supponeva ( 165W e 145W non si possono vedere ).

Veramente mi pare che in 2k il vantaggio della 980 sulla 780Ti sia solo il 5%....

mikael84
23-09-2014, 16:35
Vedremo come si evolve la situazione con i nuovi driver, attualmente efficienza mostruosa per essere a 28nm, ma prestazioni sottotono rispetto alla precedente gen, nel senso, preferirei una 780ti da occare ad una 980 che già esce abbastanza tirata di suo. Le 970 sono ottime per mini pc efficienti ma nello stesso tempo prestazionali o per sli visto appunto il basso consumo e calore prodotto.
La vera vincitrice qui è appunto la 970, prezzo/prestazioni/consumi in linea ;)

Il vero punto di forza è proprio questo delle 980.
Sembra quasi di trovarsi ad un completo cambio di NM

Queste rispetto a GK110 e R9 possono operare a frequenze ben superiori in totale tranquillità, diventa ormai difficile fare rapporti per clock o per limiti di clock(20/30% lo prendono)

°Phenom°
23-09-2014, 16:36
per me gm210 a 28nm lo tireranno fuori invece

castrato magari, ma lo tireranno fuori, come fu castrato il gk110 montato sulle gtx780 (2304 cc anziché i 2880 di gk110 full)

poi uscirà nella nuova serie full gm210 a 16/20nm con una quantità abnorme di cc...imho il doppio delle gtx970

Io ho detto proprio questo, solo che non credo uscirà una vga con gm210 per la serie 9xx, ma per la prossima serie con 980 e 970 come rebrand per un ipotetica 1070 e 1060 o come le chiameranno

mircocatta
23-09-2014, 16:54
Io ho detto proprio questo, solo che non credo uscirà una vga con gm210 per la serie 9xx, ma per la prossima serie con 980 e 970 come rebrand per un ipotetica 1070 e 1060 o come le chiameranno

mmm non penso, visto il die size credo che abbiano la possibilità di sparare una sola cartuccia (gm210 castrato e non full e stop) e potrebbero chiamarlo semplicmente titan2..magari con 2500cudacores?

io credo che la prossima serie si vedrà solo con il cambio PP, 16/20nm che sia..
ipotizzo:
la 970 diverrà la "1060" con minori consumi
la 980 sarà la "1070"
gm110 versione full per le "1080ti" da 4000cc ((il doppio dell'attuale gtx980) e castrato sulle "1080" liscie con 3000cc (il doppio dell'attuale gtx970)

viva il toto GPU! ahah

AndreaMan
23-09-2014, 16:56
Dubito che una 780Ti ben tirata vada molto meglio di una 980 a default appena miglioreranno i drivers.
Inoltre ha sempre 4GB vs 3GB.

È sempre uno spasso leggere certi commenti ahahah

Inviato dal mio D6503 utilizzando Tapatalk

appleroof
23-09-2014, 17:02
mmm non penso, visto il die size credo che abbiano la possibilità di sparare una sola cartuccia (gm210 castrato e non full e stop) e potrebbero chiamarlo semplicmente titan2..magari con 2500cudacores?

io credo che la prossima serie si vedrà solo con il cambio PP, 16/20nm che sia..
ipotizzo:
la 970 diverrà la "1060" con minori consumi
la 980 sarà la "1070"
gm110 versione full per le "1080ti" da 4000cc ((il doppio dell'attuale gtx980) e castrato sulle "1080" liscie con 3000cc (il doppio dell'attuale gtx970)

viva il toto GPU! ahah

:eekk: :D

credo che il cambio pp possa avvenire solo per Pascal ormai, poi chissà....

Dimitri-
23-09-2014, 17:04
Ecco come volevasi dimostrare la 980 è davanti con 10-15%, e la 970 va come la Ti.


E tutto con TDP ancora più bassi di quel che si supponeva ( 165W e 145W non si possono vedere ).

Direi proprio di no.

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perfrel_1920.gif

mircocatta
23-09-2014, 17:18
:eekk: :D

credo che il cambio pp possa avvenire solo per Pascal ormai, poi chissà....
beh concorderai con me che con un cambio pp e con l'efficenza che ha maxwell, quel numero di CC non è poi così impossibile da raggiungere no?:D

francisco9751
23-09-2014, 17:20
direi anche io

qua 2x780 ed una 970

http://i.imgur.com/MU5buxCl.png (http://imgur.com/MU5buxC)
http://i.imgur.com/YPb7X1Cl.jpg (http://imgur.com/YPb7X1C)

970
http://i.imgur.com/iAOR8Vel.jpg (http://imgur.com/iAOR8Ve)

dire che la 970 va addirittura più di una 780ti, è errato

appleroof
23-09-2014, 17:26
beh concorderai con me che con un cambio pp e con l'efficenza che ha maxwell, quel numero di CC non è poi così impossibile da raggiungere no?:D

Non saprei, ci vuole uno più tecnico di me, io ho letto che il guadagno nel passaggio ai 20nm sarebbe in termini del 10% come spazio per i transistor a parità di die, se fosse così la vedrei difficile inserire 4000cc (e tutto il resto di conseguenza eh?) in una gpu da 550mm^ però ripeto non sono così tecnico da fare queste ipotesi

Quello che leggo però è che gm200 sarà a 28nm e senza smm tagliati, poi forse nei prossimi mesi ci sarà uno shrink direttamente a 16nm forse per gpu di test di fascia bassa e poi Pascal a 16nm....poi ripeto riporto solo quello che più o meno leggo, la verità la sa solo Nvidia :boh:

Dimitri-
23-09-2014, 17:34
direi anche io

qua 2x780 ed una 970

http://i.imgur.com/MU5buxCl.png (http://imgur.com/MU5buxC)
http://i.imgur.com/YPb7X1Cl.jpg (http://imgur.com/YPb7X1C)

970
http://i.imgur.com/iAOR8Vel.jpg (http://imgur.com/iAOR8Ve)

dire che la 970 va addirittura più di una 780ti, è errato


Quoto, se non sbaglio un utente ha preso una 970 occata di 100mhz e confrontandola con la sua ex-780 è leggermente più veloce..in alcuni giochi tipo Batman Origins è addirittura sotto :asd:.

Goofy Goober
23-09-2014, 17:42
Lasciate perdere Valley/Heaven che sono dipendenti dalla CPU a 1080p

con 200mhz/300mhz sulla cpu (che era già a 4,7ghz, portata a 5 disattivando l'HT) avevo guadagnato tipo 400-500 punti su Valley :fagiano: :fagiano: :fagiano:

Magari sulla singola si sente meno lo stacco, ma come parametro di massima i test andrebbero fatti sempre sulla stessa piattaforma/cpu sempre alla stessa freq.

°Phenom°
23-09-2014, 17:44
A dire la verità Heaven/Valley sono quasi totalmente indipendenti dalla cpu, il problema sta nel fatto che come nel caso delle Hawaii, le nuove nvidia vanno male su questi 2 bench.

francisco9751
23-09-2014, 17:45
beh questi sono i primi bench,che avevo sotto mano,ma comunque leggendo un po..la verità è quello..la 780ti rispetto alla 970,gli sta sopra...

tapatalked with LG G2

Telstar
25-09-2014, 11:24
Ecco che si inizia a speculare sul chippone :)

http://www.tweaktown.com/news/40305/nvidia-geforce-gtx-980-ti-or-gtx-titan-x-gm200-teased/index.html

mikael84
25-09-2014, 11:28
Ecco che si inizia a speculare sul chippone :)

http://www.tweaktown.com/news/40305/nvidia-geforce-gtx-980-ti-or-gtx-titan-x-gm200-teased/index.html

Ora è l'ipotesi piu'possibile con quella densità
2816 cuda /96 rops e 384bit ed una decurtata a 2560.
Con 551mm^2 di piu' fisicamente non si puo'fare o quasi

Major Clock
25-09-2014, 11:36
Il punto è che imho il gm200 al 99% sarà a 28nani, mentre amd uscirà prima di nvidia coi 20 e per nvidia passare ai 20nm entro giugno 2015 sarebbe abbastanza strano perchè si farebbero praticamente concorrenza da soli per quasi un anno: chippone uccide 980 per natale o poco oltre e 20nm uccidono chippone 6 mesi dopo. In alternativa amd uccide nvida coi 20 nani nel frattempo.

Oppure chippone a 20nm, amd rimessa ad inseguire, ma tanto tanto rosik da chi ha sli di 980 :asd:

appleroof
25-09-2014, 11:51
cut

chippone uccide 980 per natale o poco oltre e 20nm uccidono chippone 6 mesi dopo. In alternativa amd uccide nvida coi 20 nani nel frattempo.

Cut

Ammazza, una strage :asd:

Vul
25-09-2014, 12:00
Il punto è che imho il gm200 al 99% sarà a 28nani, mentre amd uscirà prima di nvidia coi 20 e per nvidia passare ai 20nm entro giugno 2015 sarebbe abbastanza strano perchè si farebbero praticamente concorrenza da soli per quasi un anno: chippone uccide 980 per natale o poco oltre e 20nm uccidono chippone 6 mesi dopo. In alternativa amd uccide nvida coi 20 nani nel frattempo.

Oppure chippone a 20nm, amd rimessa ad inseguire, ma tanto tanto rosik da chi ha sli di 980 :asd:

Difficile immaginare una nuova serie di nvidia a breve.

la serie 700 fu lanciata quanto, oltre un anno fa?

mikael84
25-09-2014, 12:04
Il punto è che imho il gm200 al 99% sarà a 28nani, mentre amd uscirà prima di nvidia coi 20 e per nvidia passare ai 20nm entro giugno 2015 sarebbe abbastanza strano perchè si farebbero praticamente concorrenza da soli per quasi un anno: chippone uccide 980 per natale o poco oltre e 20nm uccidono chippone 6 mesi dopo. In alternativa amd uccide nvida coi 20 nani nel frattempo.

Oppure chippone a 20nm, amd rimessa ad inseguire, ma tanto tanto rosik da chi ha sli di 980 :asd:

Con le vga di fascia alta è cosi', chi acquista ora le 980 le vedrà tra non molto al posto della 780.:)

PaulGuru
25-09-2014, 12:10
Direi proprio di no.

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perfrel_1920.gif

Si la media generale, senza contare che dovresti tenere del gap da parte che arriverà tramite i drivers.

Telstar
25-09-2014, 13:17
Il punto è che imho il gm200 al 99% sarà a 28nani, mentre amd uscirà prima di nvidia coi 20...

Già... però per come stanno messi ad efficienza i 20nm di AMD = il chippone nvidia a 28 ;)

Ale55andr0
25-09-2014, 13:47
Già... però per come stanno messi ad efficienza i 20nm di AMD = il chippone nvidia a 28 ;)

percome stanno messi in AMD direi che sarebbe già tanto se uscissero nuove gpu...

ALEX3ME
25-09-2014, 16:26
EDIT: thread sbagliato :P

appleroof
25-09-2014, 16:31
percome stanno messi in AMD direi che sarebbe già tanto se uscissero nuove gpu...

mi spieghi da cosa ti viene questo pessimismo cosmico? :stordita:

°Phenom°
25-09-2014, 16:34
mi spieghi da cosa ti viene questo pessimismo cosmico? :stordita:

Non hai visto il "lancio" di oggi? :asd: Ridicoli.

appleroof
25-09-2014, 16:38
Non hai visto il "lancio" di oggi? :asd: Ridicoli.

e vabbè, è uno scivolone...come non ricordare la Fermi finta che JHH mostrava tutto orgoglioso :asd:

per il resto i tempi non sono sempre coincidenti (ricordiamo 7970 gennaio 2012, gtx680 marzo 2012), in questo periodo poi tutto è stato sballato dallo sviluppo dei 20nm travagliato che sappiamo che è ovvio ha impattato sui piani delle due case (io sono convinto che Hawaii doveva essere a 20nm e pensa alle gm204 a 20nm...)

non mi pare sia una tragedia, non vedo prospettive fallimentari sinceramente, le vedrei se da qui a sei mesi/un anno non esce nulla per dire, tra qualche mese usciranno le nuove gpu amd e si ricomincia...

°Phenom°
25-09-2014, 16:41
La cosa positiva sarà che la 390x uscirà probabilmente con nuovo dissi, hbm e 20nm, però non puoi mandare certi tweet, soprattutto quello verso nvidia e poi uscirtene con sto schifo, ne perdi moltissimo in serietà.

appleroof
25-09-2014, 16:43
La cosa positiva sarà che la 390x uscirà probabilmente con nuovo dissi, hbm e 20nm, però non puoi mandare certi tweet, soprattutto quello verso nvidia e poi uscirtene con sto schifo, ne perdi moltissimo in serietà.

quell'uomo è un fanfarone (fino a pochi anni fa lavorava in Nvidia come responsabile del TWITBP se ricordo bene), è lo stesso che dichiarò qualche mese fà che le dx erano morte con la versione 11 per darti la cifra del soggetto :asd:

AceGranger
25-09-2014, 16:52
Non hai visto il "lancio" di oggi? :asd: Ridicoli.

mi sono perso l'accaduto, cosa è successo ?

°Phenom°
25-09-2014, 16:57
mi sono perso l'accaduto, cosa è successo ?

Questa può bastare? :asd:

https://twitter.com/AMDIndia/status/515085921658490880/photo/1

Non so se ci sia da ridere o da piangere, "lanciate" 2 fire pro già uscite e presentate da un pezzo e la 285, sempre già uscita da un pezzo. Cioè fai quei tweet e poi te ne esci con sta roba? :doh:

quell'uomo è un fanfarone (fino a pochi anni fa lavorava in Nvidia come responsabile del TWITBP se ricordo bene), è lo stesso che dichiarò qualche mese fà che le dx erano morte con la versione 11 per darti la cifra del soggetto :asd:

Ho notato guarda :stordita:

illidan2000
25-09-2014, 16:58
mi sono perso l'accaduto, cosa è successo ?

idem

Ale55andr0
25-09-2014, 18:18
basta andare nel thread aspettando rosso e non inquinare questo, per chi è curioso, che poi grossomodo è già stato detto :)

Raven
25-09-2014, 18:27
mi sono perso l'accaduto, cosa è successo ?

Quello che avevo detto qualche giorno fa: NIENTE! :O


non mi pare sia una tragedia, non vedo prospettive fallimentari sinceramente,

ok... AMD è condannata al fallimento..... :O

AceGranger
25-09-2014, 18:45
Questa può bastare? :asd:

https://twitter.com/AMDIndia/status/515085921658490880/photo/1



sempre detto io che il reparto marketing di AMD è questo

http://24.media.tumblr.com/9ffd50c511a2342f247c016267e59a72/tumblr_n2r58eA7ra1qd8w33o1_500.gif

Littlesnitch
25-09-2014, 20:02
per me gm210 a 28nm lo tireranno fuori invece

castrato magari, ma lo tireranno fuori, come fu castrato il gk110 montato sulle gtx780 (2304 cc anziché i 2880 di gk110 full)

poi uscirà nella nuova serie full gm210 a 16/20nm con una quantità abnorme di cc...imho il doppio delle gtx970

mmm non penso, visto il die size credo che abbiano la possibilità di sparare una sola cartuccia (gm210 castrato e non full e stop) e potrebbero chiamarlo semplicmente titan2..magari con 2500cudacores?

io credo che la prossima serie si vedrà solo con il cambio PP, 16/20nm che sia..
ipotizzo:
la 970 diverrà la "1060" con minori consumi
la 980 sarà la "1070"
gm110 versione full per le "1080ti" da 4000cc ((il doppio dell'attuale gtx980) e castrato sulle "1080" liscie con 3000cc (il doppio dell'attuale gtx970)

viva il toto GPU! ahah

Non saprei, ci vuole uno più tecnico di me, io ho letto che il guadagno nel passaggio ai 20nm sarebbe in termini del 10% come spazio per i transistor a parità di die, se fosse così la vedrei difficile inserire 4000cc (e tutto il resto di conseguenza eh?) in una gpu da 550mm^ però ripeto non sono così tecnico da fare queste ipotesi

Quello che leggo però è che gm200 sarà a 28nm e senza smm tagliati, poi forse nei prossimi mesi ci sarà uno shrink direttamente a 16nm forse per gpu di test di fascia bassa e poi Pascal a 16nm....poi ripeto riporto solo quello che più o meno leggo, la verità la sa solo Nvidia :boh:

Direi che un GM210 a 28nm sia da escludere nel modo più assoluto.
Punto primo perché già il GM204 in GPGPU consuma quasi 300W e va oltre a GK110 nei consumi ma non lo supera in prestazioni, e siccome il GM210 deve soprattutto sostituire il GK110 per le Tesla,Quadro e Titan per il GPGPU sarebbe improponibile lanciarlo con questo PP.
Secondo, nVidia con questo GM204 si è assicurata lo scettro delle prestazioni fino ai 20nm (o 16nm) perché AMD potrà al massimo pareggiare questo chip ma con un chippone e una dual non sarà proponibile.
Terzo i chip non sono biscotti e non è che nVidia si mette a sfornarne così a caso, anche perché con questo GM204 ci guadagna bene e lavora in pace e senza fretta sul nuovo PP.

Ale55andr0
25-09-2014, 20:29
mi spieghi da cosa ti viene questo pessimismo cosmico? :stordita:

semplicemente per via del fatto che è chiaro che una nuova architettura (ripeto, nuova, non GCN 1.235977 :rolleyes: ) nemmeno è certo che esista in quei dei segreti meandri dai laboratori AMD. Nemmeno la hanno annunciata a grandissime, vaghissime, etereeissime linee, niente, nada, zero, vuoto totale nonostante questo sia il momento propizio per dar aria ai denti al riguardo (dopo il lancio dei nuovi prodotti della concorrenza) Oddio, l'aria ai denti l'hanno data eccome a ben vedere, ma non nel senso che intendevo io :asd:. Questo mi lascia pensare che vedremo la linea FX anche nel settore delle VGA...quel che mi chiedo è che cosa facciano i progettisti tutto il giorno da circa tre anni a questa parte...

mircocatta
25-09-2014, 21:18
semplicemente per via del fatto che è chiaro che una nuova architettura (ripeto, nuova, non GCN 1.235977 :rolleyes: ) nemmeno è certo che esista in quei dei segreti meandri dai laboratori AMD. Nemmeno la hanno annunciata a grandissime, vaghissime, etereeissime linee, niente, nada, zero, vuoto totale nonostante questo sia il momento propizio per dar aria ai denti al riguardo (dopo il lancio dei nuovi prodotti della concorrenza) Oddio, l'aria ai denti l'hanno data eccome a ben vedere, ma non nel senso che intendevo io :asd:. Questo mi lascia pensare che vedremo la linea FX anche nel settore delle VGA...quel che mi chiedo è che cosa facciano i progettisti tutto il giorno da circa tre anni a questa parte...

diciamo che anche la serie 7xxx non è che fu un totale successo, gran schede perchè costavano poco, giocò d'anticipo con i 28nm, ma a parità di pp subito nvidia mostrò che kepler era più efficiente, andando lievemente meno ma consumando 40watt in meno (parlo della 7970 vs gtx 680)

Littlesnitch
25-09-2014, 21:47
diciamo che anche la serie 7xxx non è che fu un totale successo, gran schede perchè costavano poco, giocò d'anticipo con i 28nm, ma a parità di pp subito nvidia mostrò che kepler era più efficiente, andando lievemente meno ma consumando 40watt in meno (parlo della 7970 vs gtx 680)

Per precisione era la 7970GhzEd che andava più della 680;)
AMD riscontrato il vantaggio uscì con le 79XX downclockate per contenere i consumi, infatti dagli 800-900Mhz salivano tutte a 1200-1250.
Ragazzi mettiamoci in testa che ad ogni lancio questi sanno già più o meno dove andranno a parare almeno nei 2 passi successivi e quindi ci giocano sopra.
Per questo GK110 è uscito rimaneggiato e downclockato, anche la versione full è downclockata visto che senza aumentare il voltaggio sali di almeno 250mhz.
Mentre GM204 è quasi al limite perché sale si di 200Mhz ma già a stock è a 1.25v.
Lasciamo i commenti di stupore all'utonto qualunque, ma noi che siamo dei mezzi nerd bisogna che leggiamo tra le righe.
AMD e nVidia sono società a scopo di lucro e dobbiamo avere ben presente che cercano sempre di "mettercelo nel :ciapet: " in un certo senso.

francisco9751
25-09-2014, 21:56
diciamo che anche la serie 7xxx non è che fu un totale successo, gran schede perchè costavano poco, giocò d'anticipo con i 28nm, ma a parità di pp subito nvidia mostrò che kepler era più efficiente, andando lievemente meno ma consumando 40watt in meno (parlo della 7970 vs gtx 680)

peccato che la 680 era inesistente nel gpgpu..mi chiedo,perchè mai doveva consumare uguale??senza dimenticarci del GB di ram in meno :stordita:

AceGranger
25-09-2014, 21:56
Direi che un GM210 a 28nm sia da escludere nel modo più assoluto.
Punto primo perché già il GM204 in GPGPU consuma quasi 300W e va oltre a GK110 nei consumi ma non lo supera in prestazioni, e siccome il GM210 deve soprattutto sostituire il GK110 per le Tesla,Quadro e Titan per il GPGPU sarebbe improponibile lanciarlo con questo PP.
Secondo, nVidia con questo GM204 si è assicurata lo scettro delle prestazioni fino ai 20nm (o 16nm) perché AMD potrà al massimo pareggiare questo chip ma con un chippone e una dual non sarà proponibile.
Terzo i chip non sono biscotti e non è che nVidia si mette a sfornarne così a caso, anche perché con questo GM204 ci guadagna bene e lavora in pace e senza fretta sul nuovo PP.

il GM200 è atteso per il Q4 2014, mi sembra strano che nVidia esca prima di AMD sul pp nuovo, solitamente è sempre avvenuto il contrario se non ricordo male.

http://wccftech.com/nvidia-geforce-gtx-980-ti-gtx-titan-x-coming/

qui lo stimano 550mm2 quindi teoricamente sarebbe compatibile con il processo a 28nm;

piacerebbe anche a me vederlo a 20nm, ma bho le tempistiche mi sembrano un po anomale.

Ali3n77
25-09-2014, 21:58
Per precisione era la 7970GhzEd che andava più della 680;)
AMD riscontrato il vantaggio uscì con le 79XX downclockate per contenere i consumi, infatti dagli 800-900Mhz salivano tutte a 1200-1250.
Ragazzi mettiamoci in testa che ad ogni lancio questi sanno già più o meno dove andranno a parare almeno nei 2 passi successivi e quindi ci giocano sopra.
Per questo GK110 è uscito rimaneggiato e downclockato, anche la versione full è downclockata visto che senza aumentare il voltaggio sali di almeno 250mhz.
Mentre GM204 è quasi al limite perché sale si di 200Mhz ma già a stock è a 1.25v.
Lasciamo i commenti di stupore all'utonto qualunque, ma noi che siamo dei mezzi nerd bisogna che leggiamo tra le righe.
AMD e nVidia sono società a scopo di lucro e dobbiamo avere ben presente che cercano sempre di "mettercelo nel :ciapet: " in un certo senso.

Straquoto! Però a sto giro in c..0 se l'han preso loro! Con volt mod e Bios mod a 1350/7400 in dayli ste nuove uscite non mi han tanto scosso , anzi....
Attendiamo il chippone vah :D

Littlesnitch
25-09-2014, 22:04
il GM200 è atteso per il Q4 2014, mi sembra strano che nVidia esca prima di AMD sul pp nuovo, solitamente è sempre avvenuto il contrario se non ricordo male.

http://wccftech.com/nvidia-geforce-gtx-980-ti-gtx-titan-x-coming/

qui lo stimano 550mm2 quindi teoricamente sarebbe compatibile con il processo a 28nm;

piacerebbe anche a me vederlo a 20nm, ma bho le tempistiche mi sembrano un po anomale.

Sarebbe darsi la zappa sui piedi farla uscire tra 2 mesi. Poi c'è il discorso sui consumi del GM204 nel GPGPU che mi fa pensare che a 28nm quel chip non sarebbe sostenibile, specie per le Tesla e Quadro. Oppure esce anche quello a 800Mhz consuma 300W e va un 15% in più del GM204, ma fossi in nVidia non avrei tutta questa fretta a meno che loro non sappiano qualcosa che noi non sappiamo su AMD.

mikael84
25-09-2014, 22:04
diciamo che anche la serie 7xxx non è che fu un totale successo, gran schede perchè costavano poco, giocò d'anticipo con i 28nm, ma a parità di pp subito nvidia mostrò che kepler era più efficiente, andando lievemente meno ma consumando 40watt in meno (parlo della 7970 vs gtx 680)

La 7970 consumava quanto la 680 ed aveva la DP 1/4, pensa che la Titan a 1/3, gk110 1/24 maxwell 1/32.
La 7970 si è spenta in parte con l'avvento della GHZ in quanto hanno imposto i fastidiosi blocchi 1,256 per la GHZ(tradotto 1175mhz) e 1,075 per la 7970(tradotto 1075mhz) e gli ultimi silici erano ridicoli con quei blocchi.
La GHZ con il voltaggio di 1,256v consumava questo si ma era praticamente una gpu in max oc, visto che il limite era di 1,3v

mikael84
25-09-2014, 22:17
Straquoto! Però a sto giro in c..0 se l'han preso loro! Con volt mod e Bios mod a 1350/7400 in dayli ste nuove uscite non mi han tanto scosso , anzi....
Attendiamo il chippone vah :D

Piu che chippone un chip pompato, vista la densità di 550mm2 ho stimato 2816/3000 cuda/96 rops e 384bit ed il rumors di oggi parla di 2560/2816.
Certo a cambio di PP sarebbe tutt'altra roba

PaulGuru
25-09-2014, 22:28
Sarebbe darsi la zappa sui piedi farla uscire tra 2 mesi.
Dubito che esca fra due mesi ma in tal caso basta chiamarla GTX 990 e offrire una fascia più alta della 980.
499$ per la 980 e 699$ per GM200

Stai a vedere se non esce il chippone, ma quando mai è successo ?

illidan2000
25-09-2014, 22:31
Ci guadagna di più a vendere... Quando satura il mercato, sforna il chippone

PaulGuru
25-09-2014, 22:34
Ci guadagna di più a vendere... Quando satura il mercato, sforna il chippone

Se Nvidia non avesse voluto sfornare il chippone non si sarebbe tenuta il margine sul TDP.

Littlesnitch
25-09-2014, 22:39
Se Nvidia non avesse voluto sfornare il chippone non si sarebbe tenuta il margine sul TDP.

Con il solo problema ,che continui a non voler vedere, che il chippone deve soddisfare anche le Tesla e Quadro e credo la Titan e se già la 980 consuma oltre 280W nel GPGPU quanto consumerà il chippone? Il margine sul TDP ce l'ha nel gaming e va benissimo, ma non basta per le schede Pro. Poi posso anche sbagliarmi ed esce prima di natale con un chippone che va il 50% in più del Gk110 consumando uguale. Tanto di guadagnato per tutti noi, ma non ci credo al momento.

mikael84
25-09-2014, 22:39
Se Nvidia non avesse voluto sfornare il chippone non si sarebbe tenuta il margine sul TDP.

Lo fa lo fa, certo non aspettiamoci sconvolgimenti, ma con un die da 551mm, vengono fuori come detto prima 2560/2816 cuda/96 rops e 384bit.:)
Il rumors uscito oggi sembra confermare, è ovviamente presto per dare dati certi ma non penso che Nvidia si fermi qua, ha chiaramente indicato gm204 come successore di gk104
http://www.tweaktown.com/news/40305/nvidia-geforce-gtx-980-ti-or-gtx-titan-x-gm200-teased/index.html

PaulGuru
25-09-2014, 22:43
Con il solo problema ,che continui a non voler vedere, che il chippone deve soddisfare anche le Tesla e Quadro e credo la Titan e se già la 980 consuma oltre 280W nel GPGPU quanto consumerà il chippone? Il margine sul TDP ce l'ha nel gaming e va benissimo, ma non basta per le schede Pro. Poi posso anche sbagliarmi ed esce prima di natale con un chippone che va il 50% in più del Gk110 consumando uguale. Tanto di guadagnato per tutti noi, ma non ci credo al momento.
Sul piano professionale a contare è più che altro il performance / watt, che se rimane invariato o migliora, anche se consumasse altri 100W in più ......

Inoltre i dati di cui parli ti ripeto che fino ad ora provengono da THG.

Techpowerup riporta questa tabella usando Furmark Stability Test che è un burner test e il risultato è veramente fin troppo distante dai 300W.

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/power_maximum.gif

illidan2000
25-09-2014, 22:53
Se il pp rimane uguale, è solo perché ATI non sforna nulla. Quindi nvidia può permettersi il lusso di fare uscire una gpu come quella descritta da mikael. Che va un 25%in più di una 980...

Littlesnitch
25-09-2014, 23:02
Sul piano professionale a contare è più che altro il performance / watt, che se rimane invariato o migliora, anche se consumasse altri 100W in più ......

Inoltre i dati di cui parli ti ripeto che fino ad ora provengono da THG.

Techpowerup riporta questa tabella usando Furmark Stability Test che è un burner test e il risultato è veramente fin troppo distante dai 300W.

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/power_maximum.gif

Se tu cercassi di essere obiettivo magari si potrebbe anche discutere.
Allora solo THG ha eseguito quel test nel GPGPU e ne ha misurato i consumi!
Mentre nel grafico di Furmark che riporti ometti che la 980 si downclocca di 300Mhz in Furmark
http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/21

AceGranger
25-09-2014, 23:17
Sarebbe darsi la zappa sui piedi farla uscire tra 2 mesi. Poi c'è il discorso sui consumi del GM204 nel GPGPU che mi fa pensare che a 28nm quel chip non sarebbe sostenibile, specie per le Tesla e Quadro. Oppure esce anche quello a 800Mhz consuma 300W e va un 15% in più del GM204, ma fossi in nVidia non avrei tutta questa fretta a meno che loro non sappiano qualcosa che noi non sappiamo su AMD.

credo che sia AMD che nVidia sappiano tutto della rispettiva rivale ben prima di noi :D.

il GM204 rispetto al chip di AMD sullo stesso pp è:

-piu piccolo
-consuma meno
-con solo 256 bit di banda riesce a fare meglio dell'avversaria con bus a 512 bit

IMHO

Maxwell doveva arrivare con le 3D Memory, ma visto quello che sono riusciti a fare hanno fatto saltare tutto a Pascal ( nuova architettura spuntata dal nulla ) passando direttamente ai 16nm;

AMD, che solitamente è sempre uscita prima con le nuove GPU, ha fatto slittare tutto per poter arrivare con i 20nm e le stacked ram perchè non in grado di competere sui 28nm; cioè... nello stesso mese nVidia è uscita con Maxwell e AMD con Tonga..... :rolleyes:; credo sia un chiaro segno del fatto che AMD sui 28 nm non ha in mano nulla di performante tanto quanto Maxwell.

se il GM200 esce a 28nm credo che nVidia sia ben conscia delle prestazioni del nuovo chip di AMD e dei 20nm, se invece sto sbagliando tutto a ha fatto una vaccata lo vedremo presto :asd:

Littlesnitch
25-09-2014, 23:26
credo che sia AMD che nVidia sappiano tutto della rispettiva rivale ben prima di noi :D.

il GM204 rispetto al chip di AMD sullo stesso pp è:

-piu piccolo
-consuma meno
-con solo 256 bit di banda riesce a fare meglio dell'avversaria con bus a 512 bit

IMHO

Maxwell doveva arrivare con le 3D Memory, ma visto quello che sono riusciti a fare hanno fatto saltare tutto a Pascal ( nuova architettura spuntata dal nulla ) passando direttamente ai 16nm;

AMD, che solitamente è sempre uscita prima con le nuove GPU, ha fatto slittare tutto per poter arrivare con i 20nm e le stacked ram perchè non in grado di competere sui 28nm; cioè... nello stesso mese nVidia è uscita con Maxwell e AMD con Tonga..... :rolleyes:; credo sia un chiaro segno del fatto che AMD sui 28 nm non ha in mano nulla di performante tanto quanto Maxwell.

se il GM200 esce a 28nm credo che nVidia sia ben conscia delle prestazioni del nuovo chip di AMD e dei 20nm, se invece sto sbagliando tutto a ha fatto una vaccata lo vedremo presto :asd:

Mi sa che la fregatura che ti ha dato intel ti ha reso molto ottimista :D
Comunque vediamo come evolve la situazione, io il gorilla l'ho azzoppato per il momento... ma è ancora vivo. 2 980 mi fanno gola!!!

AceGranger
25-09-2014, 23:29
Allora solo THG ha eseguito quel test nel GPGPU e ne ha misurato i consumi!


http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html

trovo abbastanza strano pero una differenza di ben 100 Watt fra la reference e la OC; li parlano di un piccolo drop per stare nei limiti del TDP;
il problema è che non hanno messo i valori del test del GPGPU, hanno fatto un po un test a membro di segugio, perchè senza le prestazioni della reference e della OC non si capisce se c'è una reale differenza tangibile anche nelle prestazioni o se nel GPGPU in OC è semplicemente meno efficiente.

mikael84
25-09-2014, 23:39
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html

trovo abbastanza strano pero una differenza di ben 100 Watt fra la reference e la OC; li parlano di un piccolo drop per stare nei limiti del TDP;
il problema è che non hanno messo i valori del test del GPGPU, hanno fatto un po un test a membro di segugio, perchè senza le prestazioni della reference e della OC non si capisce se c'è una reale differenza tangibile anche nelle prestazioni o se nel GPGPU in OC è semplicemente meno efficiente.

Le gigabyte hanno valori di tdp di base ben piu'alti, a quanto sembra 250 per la 970 e 300 per la 980, nelle reference il TDP taglia su questi test o killer come furmark.

Littlesnitch
25-09-2014, 23:44
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html

trovo abbastanza strano pero una differenza di ben 100 Watt fra la reference e la OC; li parlano di un piccolo drop per stare nei limiti del TDP;
il problema è che non hanno messo i valori del test del GPGPU, hanno fatto un po un test a membro di segugio, perchè senza le prestazioni della reference e della OC non si capisce se c'è una reale differenza tangibile anche nelle prestazioni o se nel GPGPU in OC è semplicemente meno efficiente.

Le gigabyte hanno valori di tdp di base ben piu'alti, a quanto sembra 250 per la 970 e 300 per la 980, nelle reference il TDP taglia su questi test o killer come furmark.

Resta il fatto che in game consumano uguali e nel GPGPU no.
Da cosa sia dipeso non lo saprei, ma il recensore parla chiaramente. La reference va in throttling, segno che quel TDP per il GPGPU è una farsa.
Peccato che nessun altro abbia fatto un test del genere mentre tutti hanno misurato i consumi nel Furmark dove la GPU scende a 932Mhz:doh:
Ma poi c'è anche questo
http://www.tomshw.it/cont/articolo/geforce-gtx-980-e-geforce-gtx-970-prestazioni-delle-top-di-gamma-nvidia-consumi-in-dettaglio/59235/16.html
http://www.tomshardware.fr/articles/maxwell-geforce-gtx-970-geforce-gtx-980,2-2341-7.html
Mentre sulla versione tedesca riportano gli stessi valori di quella inglese.... perché c'è questa discrepanza?
Boh bisognerebbe approfondire.

mikael84
25-09-2014, 23:51
Resta il fatto che in game consumano uguali e nel GPGPU no.
Da cosa sia dipeso non lo saprei, ma il recensore parla chiaramente.
Peccato che nessun altro abbia fatto un test del genere mentre tutti hanno misurato i consumi nel Furmark dove la GPU scende a 932Mhz:doh:

Il PT serve proprio a questo, l'hanno messo proprio per programmi come furmark che sparano la corrente al limite.
Quando spari furmark arrivato al limite TDP taglia di brutto per non fondere e non farti saltare qualche mosfet
Con i giochi o altri calcoli è possibile passarlo il TDP, con la 780ti arrivavo a 290watt anche con il TDP settato a 250watt

PaulGuru
26-09-2014, 00:29
Se tu cercassi di essere obiettivo magari si potrebbe anche discutere.
Allora solo THG ha eseguito quel test nel GPGPU e ne ha misurato i consumi!
Mentre nel grafico di Furmark che riporti ometti che la 980 si downclocca di 300Mhz in Furmark
http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/21
Si downclocca di 300Mhz ma la differenza in termini di consumi quanto vuoi che abbia perso con 300Mhz in meno ? Siamo comunque troppo lontani dai 300W.

Comunque sia anche se consumasse 300W ? Dove sarebbe il problema per le Tesla e le Quadro se Nvidia decidesse di sfornare una scheda che consuma ancora di più ? ( aumentando però le prestazioni ).

Le Tesla ci sono pure in versione dual GPU che di sicuro arrivano a oltre 400W come le dualgpu di THG.

Littlesnitch
26-09-2014, 06:19
Il PT serve proprio a questo, l'hanno messo proprio per programmi come furmark che sparano la corrente al limite.
Quando spari furmark arrivato al limite TDP taglia di brutto per non fondere e non farti saltare qualche mosfet
Con i giochi o altri calcoli è possibile passarlo il TDP, con la 780ti arrivavo a 290watt anche con il TDP settato a 250watt

Si infatti, e da quel che si vede in game la scheda rientra perfettamente nel suo TDP. Non lo fa nel calcolo perché viene sfruttata meglio e al limite delle sue possibilità.

Si downclocca di 300Mhz ma la differenza in termini di consumi quanto vuoi che abbia perso con 300Mhz in meno ? Siamo comunque troppo lontani dai 300W.

Comunque sia anche se consumasse 300W ? Dove sarebbe il problema per le Tesla e le Quadro se Nvidia decidesse di sfornare una scheda che consuma ancora di più ? ( aumentando però le prestazioni ).

Le Tesla ci sono pure in versione dual GPU che di sicuro arrivano a oltre 400W come le dualgpu di THG.

Con 300Mhz in meno credi che non ci siano quegli 80-90W che mancano in un burn test? Stai tranquillo che ci sono tutti. C'è il consumo nel GPGPU a confermarlo.
Io non so più come scrivertelo, dimmi quale altra lingua conosci così forse capisci, che non sto dicendo che sia un problema consumare 300W nel calcolo, anche perché va come Hawaii che consuma comunque qualcosina in più, ma che produrre un chip ancora più grosso comporterebbe consumi ancora maggiori, e una scheda single GPU che consuma 400W non è proponibile per il mercato Pro.
Perché 400W assorbiti si trasformano in 400W da smaltire per il dissipatore.
E se già si ride di fronte al dissipatore mostrato da AMD allora ,se tu non fossi schierato alla cieca, dovresti già cominciare a ridere del dissipatore che dovrebbe avere questa scheda per dissipare 400W.
Da qui i dubbi sull'uscita del GM200 a 28nm.

AceGranger
26-09-2014, 08:27
Con 300Mhz in meno credi che non ci siano quegli 80-90W che mancano in un burn test? Stai tranquillo che ci sono tutti. C'è il consumo nel GPGPU a confermarlo.


secondo me è una via di mezzo, Furmark è molto molto piu esoso in temrini di TDP e consumi rispetto al GPGPU; nella review per cio che concerne la reference parlano di un piccolo drop quindi molto probabilmente si trattera di un 50-100 MHz massimi e non di 300.

su CUDA ho trovato questo, la 980 consuma come la GTX 680 andando praticamente il doppio, purtroppo anche li i test sono stati fatti a membro di segugio e non c'è un test sui consumi in gaming per fare un confronto....

http://www.extremetech.com/computing/190463-nvidia-maxwell-gtx-980-and-gtx-970-review/4
http://www.extremetech.com/wp-content/uploads/2014/09/Litecoin.png

il GM200 teoricamente potrebbe anche essere piu efficiente per 2 fattori:

1-piu CUDA core a minor frequenza, quindi prestazioni comunque molto piu alte ma che sfruttano il punto piu alto dell'efficienza dei core grazie a frequenze meno tirate.
2- una distribuzione degli SP quasi sicuramente diversa come avvenuto per il GK110 che magari potrebbe migliorare il TDP durante i calcoli GPGPU.


poi alla fine esce a 20nm :D

comunque le cose sono 2:

o quella news è vera e uscira con circa 2800 sp a 28 nm e 550mm2
o quella news è sbagliata e uscira a 20 nm avendo ben piu cuda core nei 550mm2 o con ugual numero e minor superficie

LurenZ87
26-09-2014, 09:00
Le reference di Nvidia sotto FurMark vanno automaticamente in protezione perché riconoscono il programma come un'applicazione nociva. Controllate i consumi sotto Folding@Home e poi ne riparliamo.

Inviato dal mio OnePlus One utilizzando Tapatalk

AceGranger
26-09-2014, 09:09
Le reference di Nvidia sotto FurMark vanno automaticamente in protezione perché riconoscono il programma come un'applicazione nociva. Controllate i consumi sotto Folding@Home e poi ne riparliamo.

Inviato dal mio OnePlus One utilizzando Tapatalk

trovo solo i test di Anand ma non i consumi, hai un link ?

LurenZ87
26-09-2014, 09:12
trovo solo i test di Anand ma non i consumi, hai un link ?
Si c'era una recensione estera che aveva riportato i consumi, quando torno a casa te la posto :)

Inviato dal mio OnePlus One utilizzando Tapatalk

AceGranger
26-09-2014, 09:21
Si c'era una recensione estera che aveva riportato i consumi, quando torno a casa te la posto :)

Inviato dal mio OnePlus One utilizzando Tapatalk

thx ! perchè se sono simili a quelli sopra credo proprio che uscira a 28nm seguendo il pensiero scritto nei post precedenti.

LurenZ87
26-09-2014, 09:27
thx ! perchè se sono simili a quelli sopra credo proprio che uscira a 28nm seguendo il pensiero scritto nei post precedenti.
È possibile che esca a 28nm (se possono perché non farlo, sicuramente costerà meno che produrlo con il nuovo pp, inoltre con il 28nm le rese saranno sicuramente molto superiori). Comunque stiamo sempre paragonando una gpu nata per compiti professionali (GK110) contro una nata per il gaming (GM204), per quanto potente possa essere.

Inviato dal mio OnePlus One utilizzando Tapatalk

PaulGuru
26-09-2014, 09:35
Perché 400W assorbiti si trasformano in 400W da smaltire per il dissipatore.
E se già si ride di fronte al dissipatore mostrato da AMD allora ,se tu non fossi schierato alla cieca, dovresti già cominciare a ridere del dissipatore che dovrebbe avere questa scheda per dissipare 400W.
Da qui i dubbi sull'uscita del GM200 a 28nm.Guarda che esistono già le Tesla dual GPU come la K80 che sicuramente consumano oltre 400W in GPGPU.

Non credo sia tanto difficoltoso trovare un dissipatore dual slot che dissipi 400W.
Il caso AMD non credo centri qualcosa, hanno scelto una soluzione al limite per risparmiare sui costi.

Littlesnitch
26-09-2014, 09:41
Guarda che esistono già le Tesla dual GPU che sicuramente consumano oltre 400W in GPGPU.

Non credo sia tanto difficoltoso trovare un dissipatore dual slot che dissipi 400W.
Il caso AMD non credo centri qualcosa, hanno scelto una soluzione al limite per risparmiare sui costi.

Si ma dissipare 400W distribuiti su 2 GPU è più semplice che farlo su una sola.
Io la vedo come un'inutile soluzione al limite del fattibile.
Tanto lo scettro delle prestazioni e dei consumi se lo sono già assicurati, aspettare altri 6 mesi per far uscire il vero mostro credo sia la scelta più logica.
Poi eh se mi danno una VGA a 700€ che va ancora un 20% in più e che non esplode con un fungo atomico io non mi lamento mica :D

mikael84
26-09-2014, 09:48
Le reference di Nvidia sotto FurMark vanno automaticamente in protezione perché riconoscono il programma come un'applicazione nociva. Controllate i consumi sotto Folding@Home e poi ne riparliamo.

Inviato dal mio OnePlus One utilizzando Tapatalk

esatto

PaulGuru
26-09-2014, 09:48
Si ma dissipare 400W distribuiti su 2 GPU è più semplice che farlo su una sola.
Io la vedo come un'inutile soluzione al limite del fattibile.
Tanto lo scettro delle prestazioni e dei consumi se lo sono già assicurati, aspettare altri 6 mesi per far uscire il vero mostro credo sia la scelta più logica.
Poi eh se mi danno una VGA a 700€ che va ancora un 20% in più e che non esplode con un fungo atomico io non mi lamento mica :D
Io più che altro me l'aspetto come una serie successiva quando il mercato sarà saturo, del tipo GK104 => GK110
Magari se non è fattibile non uscirà per il mercato pro, solo su desktop che tanto hanno le DP tagliate.

AceGranger
26-09-2014, 09:52
È possibile che esca a 28nm (se possono perché non farlo, sicuramente costerà meno che produrlo con il nuovo pp, inoltre con il 28nm le rese saranno sicuramente molto superiori). Comunque stiamo sempre paragonando una gpu nata per compiti professionali (GK110) contro una nata per il gaming (GM204), per quanto potente possa essere.

Inviato dal mio OnePlus One utilizzando Tapatalk

bè pero il GM204 segue il GK104, credo che il GM200 seguira le orme del GK110; bene o male i paragoni e le supposizioni che stiamo facendo ricalcano la situazione attuale che dovrebbe riproporsi con Maxwell.


a questo punto sono molto molto curioso di vedere la 390X sui 20 nm e il GM200.

Littlesnitch
26-09-2014, 09:58
Io più che altro me l'aspetto come una serie successiva quando il mercato sarà saturo, del tipo GK104 => GK110
Magari se non è fattibile non uscirà per il mercato pro, solo su desktop che tanto hanno le DP tagliate.

Si ma il chip di una 780 liscia e di una Tesla K10 sono identici, il DP viene tagliato via BIOS.
Fare un chip del genere costa centinaia di mln, non si mettono a farlo per il gaming e vendertelo a 700€ quando con una Tesla ne ricavano 10 volte tanto.
Sarebbe un'idiozia, soprattutto dopo che hai la certezza di poter mettere 2 GM204 anche in versione 970 su una dual, incassare 1000€ e prendere a calci in :ciapet: la concorrenza.

PaulGuru
26-09-2014, 10:05
Si ma il chip di una 780 liscia e di una Tesla K10 sono identici, il DP viene tagliato via BIOS.
Fare un chip del genere costa centinaia di mln, non si mettono a farlo per il gaming e vendertelo a 700€ quando con una Tesla ne ricavano 10 volte tanto.
Sarebbe un'idiozia, soprattutto dopo che hai la certezza di poter mettere 2 GM204 anche in versione 970 su una dual, incassare 1000€ e prendere a calci in :ciapet: la concorrenza.
Sicuro ? Pensavo fossero tagliati con laser cut. :confused:

AceGranger
26-09-2014, 10:16
Sicuro ? Pensavo fossero tagliati con laser cut. :confused:

no è un blocco software, vedasi le Titan che non lo hanno e hanno i calcoli DP abilitabili dal pannello driver di nVidia; le Titan costano tanto ma 1/3 delle Tesla perchè mancano del controllo errore ECC e di alcune feature per il Cluster Computing disponibili solo con i driver delle Tesla ed indispensabili per alcuni ambiti;

quindi diciamo che ogni fascia di utilizzo ora ha la sua bella GPU con il relativo costo in base alle feature.

appleroof
26-09-2014, 10:28
980m, notevole se fosse come la desktop

videocardz.com/52802/nvidia-geforce-gtx-980m-has-2048-cuda-cores

PaulGuru
26-09-2014, 10:47
980m, notevole se fosse come la desktop

videocardz.com/52802/nvidia-geforce-gtx-980m-has-2048-cuda-cores
E' molto vicina, vuol dire che come efficienza c'è ancora del margine rispetto a quanto presentato con GM204.
Ironicamente l'avevo detto che ancora un po' ed era da mobile ..... detto-fatto :D

mikael84
26-09-2014, 11:12
980m, notevole se fosse come la desktop

videocardz.com/52802/nvidia-geforce-gtx-980m-has-2048-cuda-cores

Pazzesco il lavoro di Nvidia,se pensiamo che una 880m è una 680 Desktop fortemente decurtata sulle frequenze

ombramortale
26-09-2014, 13:14
Le reference di Nvidia sotto FurMark vanno automaticamente in protezione perché riconoscono il programma come un'applicazione nociva. Controllate i consumi sotto Folding@Home e poi ne riparliamo.

Inviato dal mio OnePlus One utilizzando Tapatalk

Ahah, si saran rotti le scatole di tutti gli Rma dovuti a furmark&simili

LurenZ87
26-09-2014, 14:36
thx ! perchè se sono simili a quelli sopra credo proprio che uscira a 28nm seguendo il pensiero scritto nei post precedenti.

ecco qua quello che ti dicevo :) (scusate se spagino un pò)

http://www.tomshw.it/cont/articolo/geforce-gtx-980-e-geforce-gtx-970-prestazioni-delle-top-di-gamma-nvidia-consumi-sguardo-complessivo/59235/17.html

http://www.tomshw.it/files/2014/09/immagini_contenuti/59235/102-overview-power-consumption-gaming-w-600_t.png http://www.tomshw.it/files/2014/09/immagini_contenuti/59235/103-overview-power-consumption-torture_t.png

in gioco, dove il controllo dell'alimentazione di Nvidia può regolarsi a piacimento la tensione e le frequenze fà consumare davvero poco la vga, mentre sul GPGPU dove è richiesto sempre il 100% della vga si scoprono le carte...

...e sinceramente è abbastanza inquietante vedere la GTX 980 che consuma 27W in più della GTX Titan Black :fagiano:

http://www.gifsforum.com/images/gif/wtf/grand/wtf-eccbc87e4b5ce2fe28308fd9f2a7baf3-2510.gif http://www.movingimage.us/images/exhibitions/media/reaction_gif/dramatic-chipmunk.gif

eXeS
26-09-2014, 15:05
ecco qua quello che ti dicevo :) (scusate se spagino un pò)

in gioco, dove il controllo dell'alimentazione di Nvidia può regolarsi a piacimento la tensione e le frequenze fà consumare davvero poco la vga, mentre sul GPGPU dove è richiesto sempre il 100% della vga si scoprono le carte...

Il controllo del consumo agisce a prescindere, evidentemente in situazioni di utilizzo contemporaneo di tutti i cuda core il divario cala perchè quelli di GM204 consumano in proporzione di più rispetto ai cuda core di GK1XX, ma alla fine quel dato non ha nessuna rilevanza se preso in un contesto nel quale non misuriamo anche le prestazioni, e se i risultati sono questi

http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/20

a chi frega se la 980 in ambito gpu computing consuma il 10% in più di Titan, se va, sparo un numero a caso, il 30% in piu ?

appleroof
26-09-2014, 15:11
in quella rece di Tom's poi non capisco che programma usano per fare quello stress test, sarebbe utile lo indicassero per capire se è uno scenario reale nel gpgpu o una specie di Furmark....o non lo trovo io?

AceGranger
26-09-2014, 15:26
ecco qua quello che ti dicevo :) (scusate se spagino un pò)

CUT

in gioco, dove il controllo dell'alimentazione di Nvidia può regolarsi a piacimento la tensione e le frequenze fà consumare davvero poco la vga, mentre sul GPGPU dove è richiesto sempre il 100% della vga si scoprono le carte...

...e sinceramente è abbastanza inquietante vedere la GTX 980 che consuma 27W in più della GTX Titan Black :fagiano:

http://www.gifsforum.com/images/gif/wtf/grand/wtf-eccbc87e4b5ce2fe28308fd9f2a7baf3-2510.gif http://www.movingimage.us/images/exhibitions/media/reaction_gif/dramatic-chipmunk.gif

:mbe: 3 grafici e 3 comportamenti differenti :asd:

su toms.it consuma tanto
su toms.com consuma tanto la OC e normale la Reference con un "piccolo" Drop
su quello che ho linkato io sembrerebbe consumare il "normale" ma è un test CUDA

quindi o dipende dal tipo di calcolo o CUDA potrebbe far lavorare meglio l'architettura per cio che concerne i consumi

Littlesnitch
26-09-2014, 15:28
Il controllo del consumo agisce a prescindere, evidentemente in situazioni di utilizzo contemporaneo di tutti i cuda core il divario cala perchè quelli di GM204 consumano in proporzione di più rispetto ai cuda core di GK1XX, ma alla fine quel dato non ha nessuna rilevanza se preso in un contesto nel quale non misuriamo anche le prestazioni, e se i risultati sono questi

http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/20

a chi frega se la 980 in ambito gpu computing consuma il 10% in più di Titan, se va, sparo un numero a caso, il 30% in piu ?

No tutto il discorso riferito ai consumi nel GPGPU è per valutare la fattibilità di un GM200 a 28nm visto che deve essere il chip anche per il segmento Pro.
Il valore assoluto del potenziale di GM204 credo che nessuno sano di mente lo possa mettere in discussione!

eXeS
26-09-2014, 15:42
No tutto il discorso riferito ai consumi nel GPGPU è per valutare la fattibilità di un GM200 a 28nm visto che deve essere il chip anche per il segmento Pro.
Il valore assoluto del potenziale di GM204 credo che nessuno sano di mente lo possa mettere in discussione!
Una 980 reference con quello stress test consuma 30W in meno rispetto ad una 680, andando nettamente più forte, nel grafico sulla versione italiana di toms mancano i dati delle versioni reference, manco lo avessero fatto apposta :D

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

Quindi non vedo perché un GM200 non dovrebbe essere soggetto alle stesse ottimizzazioni che hanno consentito a GM204 di abbattere i consumi sia in ambito gaming che gpu computing

Littlesnitch
26-09-2014, 16:09
Una 980 reference con quello stress test consuma 30W in meno rispetto ad una 680, andando nettamente più forte, nel grafico sulla versione italiana di toms mancano i dati delle versioni reference, manco lo avessero fatto apposta :D

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

Quindi non vedo perché un GM200 non dovrebbe essere soggetto alle stesse ottimizzazioni che hanno consentito a GM204 di abbattere i consumi sia in ambito gaming che gpu computing

Veramente a meno che tu non li ometta di proposito, nella versione italiana la reference consuma anche di più di quella in OC. Anche perché il recensore spiega che la gigabyte è basata su un chip Low Leakage, almeno questo è quello che sostiene la casa costruttrice.
Le recensioni andrebbero lette e non visti solo grafici alla svelta.

PaulGuru
26-09-2014, 16:21
Senza offesa per nessuno ma quelli sono grafici provenienti da THG ...... come far analizzare una proposta di legge al trota !

LurenZ87
26-09-2014, 16:38
:mbe: 3 grafici e 3 comportamenti differenti :asd:

su toms.it consuma tanto
su toms.com consuma tanto la OC e normale la Reference con un "piccolo" Drop
su quello che ho linkato io sembrerebbe consumare il "normale" ma è un test CUDA

quindi o dipende dal tipo di calcolo o CUDA potrebbe far lavorare meglio l'architettura per cio che concerne i consumi

ah vabbè allora alzo le mani :asd:

se mi capita una GTX 9xx sotto mano faccio una prova, ma sinceramente non ho intenzione di comprarne una visto l'attuale panorama videoludico (ed i prezzi).

PaulGuru
26-09-2014, 16:40
ah vabbè allora alzo le mani :asd:

se mi capita una GTX 9xx sotto mano faccio una prova, ma sinceramente non ho intenzione di comprarne una visto l'attuale panorama videoludico (ed i prezzi).
The Witcher 3 ?

Capozz
26-09-2014, 17:35
The Witcher 3 ?
Uscirà tra 5 mesi...

albero77
26-09-2014, 17:38
Uscirà tra 5 mesi...

FORSE

albero77
26-09-2014, 17:39
ah vabbè allora alzo le mani :asd:

se mi capita una GTX 9xx sotto mano faccio una prova, ma sinceramente non ho intenzione di comprarne una visto l'attuale panorama videoludico (ed i prezzi).

ma allora che ci fai qui?

LurenZ87
26-09-2014, 18:01
ma allora che ci fai qui?
Io passavo per caso ed ho visto questo thread... È da poco che ho scoperto il mondo dei pc e delle schede video, mi sono interessato all'argomento e cercavo di capirci qualcosa... E tu??? :)

Inviato dal mio OnePlus One utilizzando Tapatalk

°Phenom°
26-09-2014, 18:10
Io passavo per caso ed ho visto questo thread... È da poco che ho scoperto il mondo dei pc e delle schede video, mi sono interessato all'argomento e cercavo di capirci qualcosa... E tu??? :)

Inviato dal mio OnePlus One utilizzando Tapatalk

:rotfl: :asd:

albero77
26-09-2014, 18:24
Io passavo per caso ed ho visto questo thread... È da poco che ho scoperto il mondo dei pc e delle schede video, mi sono interessato all'argomento e cercavo di capirci qualcosa... E tu??? :)

Inviato dal mio OnePlus One utilizzando Tapatalk

a me sembra sempre la solita storiella della volpe che non arriva all'uva e dice che è acerba

Luca T
26-09-2014, 18:25
Io passavo per caso ed ho visto questo thread... È da poco che ho scoperto il mondo dei pc e delle schede video, mi sono interessato all'argomento e cercavo di capirci qualcosa... E tu??? :)

Inviato dal mio OnePlus One utilizzando Tapatalk

:rotfl: :rotfl:

illidan2000
26-09-2014, 18:26
Io passavo per caso ed ho visto questo thread... È da poco che ho scoperto il mondo dei pc e delle schede video, mi sono interessato all'argomento e cercavo di capirci qualcosa... E tu??? :)

Inviato dal mio OnePlus One utilizzando Tapatalk

che scheda hai ora? mi sono perso... :D
il monitor, ricordo un 1440p bypassato, che non ricorderò mai il nome pero :(

ironman72
26-09-2014, 18:27
a me sembra sempre la solita storiella della volpe che non arriva all'uva e dice che è acerba

Sei fuori strada completamente ;)

Luca T
26-09-2014, 18:32
che scheda hai ora? mi sono perso... :D
il monitor, ricordo un 1440p bypassato, che non ricorderò mai il nome pero :(

Io ero rimasto ad una 750ti se non sbaglio ma sai sono passati alcuni giorni! :asd:

LurenZ87
26-09-2014, 18:34
a me sembra sempre la solita storiella della volpe che non arriva all'uva e dice che è acerba

hai ragione :)

che scheda hai ora? mi sono perso... :D
il monitor, ricordo un 1440p bypassato, che non ricorderò mai il nome pero :(

adesso una Gigabyte GTX 750Ti OC (vga stupenda :D ), il monitor è un 3DView PCBank PB2700 SUPER, ma siamo OT ;)

PaulGuru
26-09-2014, 18:34
Uscirà tra 5 mesi...
Si perchè fra 5 mesi ci sarà una nuova generazione ?

Raven
26-09-2014, 18:39
ma allora che ci fai qui?

Mica è vietato postare in un thread, se non si ha la componente di cui in oggetto, eh... ;)
Sai... c'è anche altro: opinioni, richieste, domande, idee, discussioni costruttive, etc etc....

eXeS
26-09-2014, 18:39
Veramente a meno che tu non li ometta di proposito, nella versione italiana la reference consuma anche di più di quella in OC. Anche perché il recensore spiega che la gigabyte è basata su un chip Low Leakage, almeno questo è quello che sostiene la casa costruttrice.
Le recensioni andrebbero lette e non visti solo grafici alla svelta.
Il recensore presume che... ma i minori consumi possono anche dipendere dalle minori temperature, e la fisica non è un'opinione.

Ho letto sia la review originale che quella tradotta, ed ho postato il link a quella originale perché è quella che da risultati più coerenti con il tdp dichiarato delle reference, come ben saprai superato questo limite la gpu downclocca e downvolta, qundi è semplicemente impossibile che una scheda con un tdp di 170-180w, arrivi a consumarne 100 in più.

maurilio968
26-09-2014, 19:07
a me sembra sempre la solita storiella della volpe che non arriva all'uva e dice che è acerba

fai parte del forum dal 2007 e non conosci lurenZ87 ? E neppure i suoi post in questi anni ti hanno mai fatto sospettare chi è?

Nuuuuoo, scusate :sofico: occasione troppo ghiotta, allora


1- è un consolaro con i brufoli invidioso di chi ha il pc

2- è un ex ciclista in pensione invioso di chi la il motorino

3- è un velista d'altura invidioso di chi ha il motoscafo

4- è uno che ha tanta uva da farci il vino :stordita:

attenzione che questa è sottile, ti consiglio l'aiuto del pubblico o la telefonata a casa.

GIAN.B
26-09-2014, 19:09
http://www.nexthardware.com/news/prime-indiscrezioni-su-gtx-980-ti-e-titan-x-6405/

Simedan1985
26-09-2014, 19:58
http://www.nexthardware.com/news/prime-indiscrezioni-su-gtx-980-ti-e-titan-x-6405/

Interessante questo spunto a fine articolo :

Di carne al fuoco ce n'è davvero tanta, ma soldi da spendere sempre meno ..

cmq ho appena ordinato 2 970 (venivo da 2 770 4g).....in 2k dovrei star bello tranquillo ancora per un po :)

albero77
26-09-2014, 20:05
fai parte del forum dal 2007 e non conosci lurenZ87 ? E neppure i suoi post in questi anni ti hanno mai fatto sospettare chi è?

Nuuuuoo, scusate :sofico: occasione troppo ghiotta, allora


1- è un consolaro con i brufoli invidioso di chi ha il pc

2- è un ex ciclista in pensione invioso di chi la il motorino

3- è un velista d'altura invidioso di chi ha il motoscafo

4- è uno che ha tanta uva da farci il vino :stordita:

attenzione che questa è sottile, ti consiglio l'aiuto del pubblico o la telefonata a casa.

ammazza oh quanti lecchini che ridono e sghignazzano....e chi sarà mai?!una doccetta di umiltà no eh?!

Luca T
26-09-2014, 20:23
ammazza oh quanti lecchini che ridono e sghignazzano....e chi sarà mai?!una doccetta di umiltà no eh?!

Non é una questione di lecchinaggio ma semplicemente ci hai fatto parecchio ridere, visto che Lurenz cambia più vga che mutande!

LurenZ87
26-09-2014, 20:26
Basta ragazzi con gli OT su :)

Inviato dal mio OnePlus One utilizzando Tapatalk

Pelvix
26-09-2014, 20:26
Non é una questione di lecchinaggio ma semplicemente ci hai fatto parecchio ridere, visto che Lurenz cambia più vga che mutande!

ammazza che schifo!! :D :D :D

maurilio968
26-09-2014, 21:54
ammazza oh quanti lecchini che ridono e sghignazzano....e chi sarà mai?!una doccetta di umiltà no eh?!

vedo che la telefonata a casa non è servita :D ... per il resto vale la mia firma.

Littlesnitch
26-09-2014, 22:18
Il recensore presume che... ma i minori consumi possono anche dipendere dalle minori temperature, e la fisica non è un'opinione.

Ho letto sia la review originale che quella tradotta, ed ho postato il link a quella originale perché è quella che da risultati più coerenti con il tdp dichiarato delle reference, come ben saprai superato questo limite la gpu downclocca e downvolta, qundi è semplicemente impossibile che una scheda con un tdp di 170-180w, arrivi a consumarne 100 in più.

Appunto, c'è una discrepanza e se ne discuteva sopra.
Quindi o il recensore di Toms italiano ha scritto una stupidaggine e ha taroccato la recensione, oppure ci sono situazioni che la fanno consumare come ha mostrato nel test.
Spero che tra un paio di giorni ne sapremo di più...;)

albero77
27-09-2014, 09:22
vedo che la telefonata a casa non è servita :D ... per il resto vale la mia firma.

quello in firma vallo a dire a qualche tuo parente o mentre ti guardi allo specchio;)

mircocatta
27-09-2014, 09:46
sempre più convinto che chi, come me, vuole puntare al gm210, debba stare lontano dalle gm204 e puntare su gk110 usate..

Goofy Goober
27-09-2014, 09:46
Ebbasta!!!! Ma è cosi divertente portare ogni belinata discussione sul personale?

E sfumate ogni tanto!

francisco9751
27-09-2014, 10:02
sempre più convinto che chi, come me, vuole puntare al gm210, debba stare lontano dalle gm204 e puntare su gk110 usate..

si,sarebbe il momento migliore per comprare,ma le con i prezzi sul mercatino qnche no..ci sono le 970 a 300 euro...e vedo gente che vuole rifilare le 780 a 300 euro...ne ho addirittura vista una a 350 euro lol

tapatalked with LG G2

Ale55andr0
27-09-2014, 10:07
ammazza oh quanti lecchini che ridono e sghignazzano....e chi sarà mai?!una doccetta di umiltà no eh?!

non c'entra il lecchinaggio, ma semplicemente lurenz qua dentro è probabilmente l'utente che cambia più schede di tutti per puro diletto, e parliamo anche e soprattutto di schede di fascia alta (non far caso alla sua firma attuale :asd: )
Inoltre se ben ricordo si occupa di recensioni delle stesse in altro sito, ergo è chiaro che se dici "la volpe e l'uva" riguardo a lui non parli con cognizione, semplicemente, perchè non lo conosci (non perchè qui sia Dio o chissà chi :asd: )

LurenZ87
27-09-2014, 10:25
non c'entra il lecchinaggio, ma semplicemente lurenz qua dentro è probabilmente l'utente che cambia più schede di tutti per puro diletto, e parliamo anche e soprattutto di schede di fascia alta (non far caso alla sua firma attuale :asd: )
Inoltre se ben ricordo si occupa di recensioni delle stesse in altro sito, ergo è chiaro che se dici "la volpe e l'uva" riguardo a lui non parli con cognizione, semplicemente, perchè non lo conosci (non perchè qui sia Dio o chissà chi :asd: )
Dai ragazzi lasciate perdere... Non credevo di creare un simile casino, chiedo venia :)

Inviato dal mio OnePlus One utilizzando Tapatalk

Legolas84
27-09-2014, 11:42
sempre più convinto che chi, come me, vuole puntare al gm210, debba stare lontano dalle gm204 e puntare su gk110 usate..

E' proprio quello che ho intenzione di fare anche io.

Andrò avanti con la mitica 780 liscia + schermo full-hd fino a che non esce una fantomatica 980 Ti.... e a quel punto gli abbinerò un monitor 2k.... ;)

Ale55andr0
27-09-2014, 12:15
Dai ragazzi lasciate perdere... Non credevo di creare un simile casino, chiedo venia :)

Inviato dal mio OnePlus One utilizzando Tapatalk

mica il casino lo hai creato tu ;)

vabò /OT :O :)

Capozz
27-09-2014, 12:38
Si perchè fra 5 mesi ci sarà una nuova generazione ?
Può essere.
Una cosa è sicura: comprare hardware in prospettiva futura non è mai una scelta saggia, si acquista oggi per le esigenze di oggi

eXeS
27-09-2014, 13:05
Appunto, c'è una discrepanza e se ne discuteva sopra.
Quindi o il recensore di Toms italiano ha scritto una stupidaggine e ha taroccato la recensione, oppure ci sono situazioni che la fanno consumare come ha mostrato nel test.
Spero che tra un paio di giorni ne sapremo di più...;)

Se dai una letta alla review originale, c'è un aggiornamento con il quale il recensore dice che i test sul consumo della 980 reference sono stati rifatti a causa di un bug nel bios installato e che la faceva consumare di più, e i nuovi risultati sono stati riportati nei grafici. Credo quindi che la versione italiana sia stata tradotta da quella originale, ma prima che venissero aggiornati i dati sul consumo della 980 reference.

Inviato con il mio smartphone, utilizzando Tapatalk

PaulGuru
27-09-2014, 14:07
Può essere.
Una cosa è sicura: comprare hardware in prospettiva futura non è mai una scelta saggia, si acquista oggi per le esigenze di oggi
Se compro una VGA oggi non la compro per i giochi di oggi, un minimo di prospettiva ci deve essere a meno che tu non stia giocando oggi con una VGA non idonea.

Teox82
27-09-2014, 17:09
Se compro una VGA oggi non la compro per i giochi di oggi, un minimo di prospettiva ci deve essere a meno che tu non stia giocando oggi con una VGA non idonea.

Soprattutto vista l'alba della next-gen. Di sicuro,io che devo fare il cambio verso gennaio-febbraio,aspetterò il momento

Trokji
27-09-2014, 17:18
Devo ancora capire perché fanno solo versioni custom occate che degradano il rapporto performance/watt .. sarebbe bello invece vedrer delle custom con componenti di qualità più alta, efficienza più elevata e che disperdono meno calore.. in modo da avere qualche custom con un rapporto performance/watt ancora più elevato. Su alcune schede di qualche generazione fa c'erano delle versioni simili, per esempio mi pare una 6850 di powercolor.. ma poi non ho più visto nulla

Telstar
27-09-2014, 17:25
Devo ancora capire perché fanno solo versioni custom occate che degradano il rapporto performance/watt .. sarebbe bello invece vedrer delle custom con componenti di qualità più alta, efficienza più elevata e che disperdono meno calore.. in modo da avere qualche custom con un rapporto performance/watt ancora più elevato. Su alcune schede di qualche generazione fa c'erano delle versioni simili, per esempio mi pare una 6850 di powercolor.. ma poi non ho più visto nulla

Se ti riferisci alle 970/980 non lo fanno perché è... inutile :) Il GM204 è così efficiente di suo che puntando ancora su quello perderebbero la gara dei benchmark con i concorrenti e sarebbe un suicidio commerciale.

Littlesnitch
27-09-2014, 17:34
Se dai una letta alla review originale, c'è un aggiornamento con il quale il recensore dice che i test sul consumo della 980 reference sono stati rifatti a causa di un bug nel bios installato e che la faceva consumare di più, e i nuovi risultati sono stati riportati nei grafici. Credo quindi che la versione italiana sia stata tradotta da quella originale, ma prima che venissero aggiornati i dati sul consumo della 980 reference.

Inviato con il mio smartphone, utilizzando Tapatalk

Allora come diceva Ace senza risultati prestazionali in quello stress test il tutto è fatto a membro di segugio. Perchè se la ref consuma 100W in meno, allora deve anche andare meno per forza, visto che bene per il bug del BIOS della ref ma la custom consuma di più!

PaulGuru
27-09-2014, 18:32
Devo ancora capire perché fanno solo versioni custom occate che degradano il rapporto performance/watt .. sarebbe bello invece vedrer delle custom con componenti di qualità più alta, efficienza più elevata e che disperdono meno calore.. in modo da avere qualche custom con un rapporto performance/watt ancora più elevato. Su alcune schede di qualche generazione fa c'erano delle versioni simili, per esempio mi pare una 6850 di powercolor.. ma poi non ho più visto nulla
Del consumo frega niente a nessuno, delle prestazioni frega a tutti.
Il rapporto prestazioni / consumo su desktop non vale niente, senza contare che come efficienza Maxwell è già OK, quindi quell'aspetto è archiviato a priori.

francisco9751
27-09-2014, 19:17
Del consumo frega niente a nessuno, delle prestazioni frega a tutti.
Il rapporto prestazioni / consumo su desktop non vale niente, senza contare che come efficienza Maxwell è già OK, quindi quell'aspetto è archiviato a priori.

peccato che all'uscita delle 970/980 tutto il forum la menava con sta storia del consumo :stordita: :stordita: :stordita:

siluro85
27-09-2014, 19:20
Del consumo frega niente a nessuno, delle prestazioni frega a tutti.
Il rapporto prestazioni / consumo su desktop non vale niente, senza contare che come efficienza Maxwell è già OK, quindi quell'aspetto è archiviato a priori.
Ma LOL!!!!!!!!

HeatLaSfida
27-09-2014, 20:16
salve

ci sono informazioni per la geforce GTX960?
si sa nulla del bus, il quantitativo della ram ed il numero della stream processor ?

GIAN.B
28-09-2014, 03:46
Altre news su GM 200

http://www.hwsetup.it/news/reader.php?objid=21677

appleroof
28-09-2014, 09:06
salve

ci sono informazioni per la geforce GTX960?
si sa nulla del bus, il quantitativo della
ram ed il numero della stream processor ?

Se non mi sono perso qualcosa questi sono gli ultimi rumors wccftech.com/nvidia-geforce-gtx-960-track-release-month-simulated-benchmarks-surface/

fireradeon
28-09-2014, 11:00
Mi iscrivo di nuovo e raccolgo la bava con lo straccio

BMWZ8
28-09-2014, 11:28
Dillo a me... La mia ex, la gloriosa 580, prende credo un 3x dalla 980 in oc... Che salto! Ma siccome x lavoro non ho il tempo di giocare, mi godo la scena, voglio vedere con i veri mattoni next gen come vanno queste schede. Meravigliose schede, amd auguri, speriamo abbiano un asso da calare...

PaulGuru
28-09-2014, 14:59
peccato che all'uscita delle 970/980 tutto il forum la menava con sta storia del consumo :stordita: :stordita: :stordita:No con sta storia del TDP !
Che non solo è diverso ma era na menata a scopi differenti, per evidenziare soltanto quanto Nvidia si fosse trattenuta e quanto Maxwell sarebbe potuto andare più forte.

Amph
28-09-2014, 16:39
Del consumo frega niente a nessuno, delle prestazioni frega a tutti.
Il rapporto prestazioni / consumo su desktop non vale niente, senza contare che come efficienza Maxwell è già OK, quindi quell'aspetto è archiviato a priori.

a me frega del consumo, soprattutto se incide come ora, con quello che risparmi ti compri la vga successiva

PaulGuru
28-09-2014, 16:46
a me frega del consumo, soprattutto se incide come ora, con quello che risparmi ti compri la vga successiva
E quanto pensi di risparmiare fra una 290x e una 980 ?
Sei fortunato se arrivi a 10€ a fine anno ( sottolineo "se sei fortunato" ).

Il consumo di un singolo personal computer è ai limiti della rilevanza, 1 sola ora al giorno di aspirapolvere o forno a micro onde o scalda bagno può consumare più di mezza giornata di PC in full load.

Il mio PC con una 770 non arriva manco a 300W giocando a BF, se avessi una 780Ti quanto pensi che farei ? 360-380W ? Ridicolo, farebbe ridere più di Colorado e Zelig, visto che pure alcuni televisori consumano altrettanto e oltre, specie chi ha ancora i CRT.

Fra una reference ed una custom quanto vuoi che cambi ? 20W ? Non te ne accorgi manco se fai l'ossessionato.
Anzi guardando la tua firma persino la minor efficienza del tuo alimentatore rispetto agli ultimi 80+ platinum è già più notabile della differenza che avresti con una custom.

muppo
28-09-2014, 18:02
a me frega del consumo, soprattutto se incide come ora, con quello che risparmi ti compri la vga successiva

5 ore al giorno per 5 giorni la settimana, tra una 980 e una 780ti (che è quella che consuma di più delle vecchie) risparmieresti 10, 15 euro. ovviamente sempre in full load, le 5 ore.

Forza_G
28-09-2014, 19:13
a me frega del consumo, soprattutto se incide come ora, con quello che risparmi ti compri la vga successiva

ma si anche 2 .... :sofico:

E quanto pensi di risparmiare fra una 290x e una 980 ?
Sei fortunato se arrivi a 10€ a fine anno ( sottolineo "se sei fortunato" ).

Il consumo di un singolo personal computer è ai limiti della rilevanza, 1 sola ora al giorno di aspirapolvere o forno a micro onde o scalda bagno può consumare più di mezza giornata di PC in full load.

Il mio PC con una 770 non arriva manco a 300W giocando a BF, se avessi una 780Ti quanto pensi che farei ? 360-380W ? Ridicolo, farebbe ridere più di Colorado e Zelig, visto che pure alcuni televisori consumano altrettanto e oltre, specie chi ha ancora i CRT.

Fra una reference ed una custom quanto vuoi che cambi ? 20W ? Non te ne accorgi manco se fai l'ossessionato.
Anzi guardando la tua firma persino la minor efficienza del tuo alimentatore rispetto agli ultimi 80+ platinum è già più notabile della differenza che avresti con una custom.

quoto e quoto tutto.

ra-mta
28-09-2014, 19:14
E quanto pensi di risparmiare fra una 290x e una 980 ?
Sei fortunato se arrivi a 10€ a fine anno ( sottolineo "se sei fortunato" ).

Il consumo di un singolo personal computer è ai limiti della rilevanza, 1 sola ora al giorno di aspirapolvere o forno a micro onde o scalda bagno può consumare più di mezza giornata di PC in full load.

Il mio PC con una 770 non arriva manco a 300W giocando a BF, se avessi una 780Ti quanto pensi che farei ? 360-380W ? Ridicolo, farebbe ridere più di Colorado e Zelig, visto che pure alcuni televisori consumano altrettanto e oltre, specie chi ha ancora i CRT.

Fra una reference ed una custom quanto vuoi che cambi ? 20W ? Non te ne accorgi manco se fai l'ossessionato.
Anzi guardando la tua firma persino la minor efficienza del tuo alimentatore rispetto agli ultimi 80+ platinum è già più notabile della differenza che avresti con una custom.

certo si vede proprio che te oltre il tuo pc per giocare non vai.. hai mai visto pc che non siano usati come giocattoli? Il rapporto prestazioni/consumo è fondamentale in diversi ambiti, in particolare se i dati da macinare sono molti, ma sicuramente una differenza di consumo rilevante non comporta più calore, psu maggiorate, gruppi maggiorati, impianto di climatizzazione maggiorato e via dicendo :muro: :rolleyes:

Raven
28-09-2014, 19:43
con quello che risparmi ti compri la vga successiva

Come ti han fatto notare, il consumo di una VGA non incide che per pochi euro all'anno... nessuna VGA nuova insomma... ;)



.... ah beh... una S3 Virge forse forse ce ne esce, eh! :O

PaulGuru
28-09-2014, 19:54
certo si vede proprio che te oltre il tuo pc per giocare non vai.. hai mai visto pc che non siano usati come giocattoli? Il rapporto prestazioni/consumo è fondamentale in diversi ambiti, in particolare se i dati da macinare sono molti, ma sicuramente una differenza di consumo rilevante non comporta più calore, psu maggiorate, gruppi maggiorati, impianto di climatizzazione maggiorato e via dicendo :muro: :rolleyes:
Il rapporto consumo / prestazioni è fondamentale nei servers o supercomputers o altre configurazioni multi processore, quindi in ambito GPGPU, peccato che questo settore abbia come prodotti la linea Tesla e non GeForce.

Il personal computer difficilmente è un sistema così complesso, di solito hanno 1 CPU e 1 VGA, quindi cosa vuoi che consumi una cosa del genere ? Ah te usi l'impianto di climatizzazione per il tuo PC ? :rolleyes:

Usare il PC per giocare non è un utilizzo serio ? Il gaming è uno dei pochi ambiti che permettono di sfruttare l'hardware dei PC su più fronti, non di certo con applicativi da ufficio.

appleroof
28-09-2014, 21:08
Il rapporto consumo / prestazioni è fondamentale nei servers o supercomputers o altre configurazioni multi processore, quindi in ambito GPGPU, peccato che questo settore abbia come prodotti la linea Tesla e non GeForce

Si ma le gpu Nvidia le progetta una volta, poi le piazza su Tesla/Quadro/GeForce, forse è per questo che hanno puntato sull'efficienza, e direi che potremmo pure togliere il forse...

Cmq a prescindere da discorsi generali del tipo che siamo bersagliati, giustamente, da tutte le parti verso il risparmio energetico etc etc, anche in ambito casalingo qualche watt risparmiato (unito a quelli delle lampade a basso consumo, elettrodomestici classe a+ etc) male non fa... Io sono contento di questo andazzo sinceramente, per esempio se gm200 consumerà quanto o addirittura meno di gk110 andando di più di certo non mi strapperò i capelli.

appleroof
28-09-2014, 21:27
Intanto i 16nm cominciano a fare capolino www.fudzilla.com/home/item/35869-first-tsmc-16nm-finfet-product-announced

E se queste sono le premesse.... TSMC said the new process has twice the gate density of the company’s old 28nm HPM process. It operates about 40 percent faster in the same power envelope and reduces total power consumption by 60 percent.

°Phenom°
28-09-2014, 21:30
Ottimo, ne vedremo delle belle con i 16nm :)

appleroof
28-09-2014, 21:33
Ottimo, ne vedremo delle belle con i 16nm :)

Dubito però che gm200 sia a 16nm, anzi allo stato delle cose che leggo direi impossibile :(

°Phenom°
28-09-2014, 21:54
Dubito però che gm200 sia a 16nm, anzi allo stato delle cose che leggo direi impossibile :(

Sisi, ovviamente intendevo per le future gpu a 16nm,il full maxwell imho sarà ancora a 28nm o al massimo a 20nm.

AceGranger
28-09-2014, 22:16
Si ma le gpu Nvidia le progetta una volta, poi le piazza su Tesla/Quadro/GeForce, forse è per questo che hanno puntato sull'efficienza, e direi che potremmo pure togliere il forse...


il TDP cosi basso è una conseguenza del rimanere sul processo produttivo a 28nm, non credo proprio che sia voluto.

il GK104 ha un die size di 294mq
il GM204 ha un die size di ben 400mq

il GK110 ha un die size di 550mq
il GM200 è stimato avere 550mq

il GM204 è gia fin troppo grosso;

IMHO, nVidia ha visto che sarebbe servito un bel die size, ha calcolato la dimensione massima "commeriale" per guadagnarci ed avere le prestazioni che gli interessavano e poi il TDP è stato una conseguenza.
se fossero arrivati con i 20nm probabilmente avrebbero messo piu sp perchè tanto il nuovo pp avrebbe permesso di mantenere comunque un buon die size, cosa che i 28nm non permettono.

Le Tesla e le Quadro devono si consumare poco, pero devono anche avere un'ottima densita di elaborazione, specialmente le Tesla;

l'attuale sitazione la vedo piu come un obbligo piuttosto che una volonta.

ra-mta
28-09-2014, 22:58
Il rapporto consumo / prestazioni è fondamentale nei servers o supercomputers o altre configurazioni multi processore, quindi in ambito GPGPU, peccato che questo settore abbia come prodotti la linea Tesla e non GeForce..
prendi ad esempio uno studio di animazione con la piccola farm interna, credi davvero che usino le tescla? Se come no, siamo tutti la pixar

Il personal computer difficilmente è un sistema così complesso, di solito hanno 1 CPU e 1 VGA, quindi cosa vuoi che consumi una cosa del genere ? Ah te usi l'impianto di climatizzazione per il tuo PC ? :rolleyes: Appunto visto che parli solo di personal non vai oltre il giardino di casa tua :doh: Poi questo è un sito generalista, non mi sembra che si parli solo di pc per giocare (per fortuna! e aggiungo che a tempo perso qualche gioco lo provo anche io).. Causa budget ripiegherò su un sistema con un procio e due vga ma è in preventivo nello step successivo di prendere 4 nodi aggiuntivi. Quindi come vedi non sempre il tuo caso è lo standard.
E' per la cronaca anche in un ced abbastanza semplice spesso si necessita di climatizzazione :rolleyes: Nel mio caso potrei averne bisogno forse con l'arrivo dei nodi, ad oggi comunque oltre che il pc ho un piccolo classe A che scalda da morire.

Usare il PC per giocare non è un utilizzo serio ? Il gaming è uno dei pochi ambiti che permettono di sfruttare l'hardware dei PC su più fronti, non di certo con applicativi da ufficio.
ah già te eri quello del gioco tutto a massimo ad ogni costo e chi non la pensa così non può essere definito progamer :rotfl: Appena smetto di ridere ti confermo che ce ne sono moltissimi altri di fronti dove spremi i componenti molto più di un videogioco e per la cronaca, per me è più seria l'attività da ufficio che svolgo con il portatile o il lavoro con la ws che il giocare che appunto è un passatempo..ma avendo a mente i tuoi post credo sia chiedere troppo cercare di capire queste cose ed evitare magari di pensare che l'universo pc ruoti attorno ai giochi, parte rilassante e integrante ma non di certo preponderante.

Detto questo, sarei proprio curioso di vedere le nuove schedozze alle prese con qualche motore di render..L'adobe ancora non le inserisce fra le schede certificate, almeno non sul sito italiano

francisco9751
28-09-2014, 23:38
ragazzi son d'accordo sui discorsi dei consumi in altri ambiti ecc ecc, ma qua si parla di gaming..e come detto gia sopra in questo contesto il consumo è relativo,o almeno era così e dovrebbe esserlo,non ricordo che con le 580 si facevano tutti sti problemi, o com le 780,mentre ora che le 970/80 consumano meno,tutti a menarla con sta storia, come già detto, quei 60W risparmiati inciderannno si e no su un 15 euro annuo di bolletta..voglio vedere quanti di quelli che ora predicano,su sto benedetto consumo ridotto, daranno contro a nvidia quando farà uscire il chippone, o se tutti zitti zitti se lo compreranno dimenticando i consumi, suvvia, un po di coerenza...
ripeto,parliamo di gaming,quindi non ha molto senso tirare in mezzo altri ambiti,per sostenere la propria tesi

tapatalked with LG G2

ra-mta
29-09-2014, 00:26
Per coerenza ti dico che ho saltato la serie 4 e 5 della nvidia (che mi tirava parecchio per cuda) per i consumi :D
Comunque è difficile che non darò addosso mai ad nvidia, ho posseduto ati e amd in rapporto 5-1 rispetto ad nvidia, semplicemente facendo la conta dei fattori propendo dove c'è il prodotto che meglio si avvicina alle mie esigenze.
Fra l'altro non immagini quanti studi medio-piccoli e professionisti usino le schede da gioco per lavoro, se la mettiamo nel proporzionale sono molto più i professionisti che usano nvidia che i giocatori (chiaramente numericamente parlando son più i giocatori)

appleroof
29-09-2014, 06:18
il TDP cosi basso è una conseguenza del rimanere sul processo produttivo a 28nm, non credo proprio che sia voluto.

il GK104 ha un die size di 294mq
il GM204 ha un die size di ben 400mq

il GK110 ha un die size di 550mq
il GM200 è stimato avere 550mq

il GM204 è gia fin troppo grosso;

IMHO, nVidia ha visto che sarebbe servito un bel die size, ha calcolato la dimensione massima "commeriale" per guadagnarci ed avere le prestazioni che gli interessavano e poi il TDP è stato una conseguenza.
se fossero arrivati con i 20nm probabilmente avrebbero messo piu sp perchè tanto il nuovo pp avrebbe permesso di mantenere comunque un buon die size, cosa che i 28nm non permettono.

Le Tesla e le Quadro devono si consumare poco, pero devono anche avere un'ottima densita di elaborazione, specialmente le Tesla;

l'attuale sitazione la vedo piu come un obbligo piuttosto che una volonta.

Non sono d'accordo: se vai a rivedere le vecchie roadmap, già prima di Kepler avevano indicato che l'efficienza sarebbe via via aumentata, l'obiettivo dichiarato è migliorare costantemente il rapporto performance/Watt per cui credo proprio che sia il contrario, ossia che per colpa del salto dei 20nm hanno dovuto limitare le prestazioni, pur raggiungendo livelli ottimi rispetto a gk104, nonostante die size più grande, ma hanno comunque centrato l'obiettivo di tenersi entro tdp più bassi o almeno uguali (980/680) della precedente architettura aumentandone le prestazioni.

Non capisco cosa intendi per densità di elaborazione...

mircocatta
29-09-2014, 07:50
preoccupante?
www.hwupgrade.it/forum/showpost.php?p=41583207&postcount=41730

francisco9751
29-09-2014, 08:11
può essere, ma bisogna aspettare ad avere più titoli per discuterne

tapatalked with LG G2

Simoasd
29-09-2014, 08:11
preoccupante?
www.hwupgrade.it/forum/showpost.php?p=41583207&postcount=41730

Driver non adatti?

Lo sli praticamete non c'è, due 780 vanno come una.

noiman
29-09-2014, 08:38
Driver non adatti?

Lo sli praticamete non c'è, due 780 vanno come una.

infatti..è preoccupante...per il fatto che lo sli sembra inutile...ed una r9 280 va di più di una 780 ti...per chi come me acquista questi porting non è bello ....fa riflettere...

belta
29-09-2014, 08:39
infatti..è preoccupante...per il fatto che lo sli sembra inutile...ed una r9 280 va di più di una 780 ti...per chi come me acquista questi porting non è bello ....fa riflettere...

fa riflettere? fa c@g@re addosso ._. roba da gettare il Pc nel cassone dell'umido

mircocatta
29-09-2014, 08:46
Come dicono di la, il problema è che nvidia tarderà ad ottimizzare, solo ora stanno pensando a hitman che era un altro titolo pro amd, uscitò parecchio tempo fa


e fa pensare che le console next gen sono con hardware amd, e quindi magari non è questione di driver, ma proprio programmati per far rendere al meglio GCN delle GPU AMD

noiman
29-09-2014, 08:48
da questi grafici si evince che è inutile consigliare le nuove nvidia...basta una 290,stai apposto e risparmi pure...

°Phenom°
29-09-2014, 08:56
Comunque per dead rising e wolfenstein, ci azzecca il fatto che sembrerebbero essere ottimizzati per gcn, perché se notate la 6970 continua a stare comunque sotto la 580, mentre tutte le vga con arch gcn hanno performance maggiori. Su The Vanishing invece la 6970 va quanto la 680, e la 6970 non é gcn.

noiman
29-09-2014, 09:03
credo che manchino driver ottimizzati per questi giochi..non posso credere che lo sli sia così inutile

belta
29-09-2014, 09:06
Come dicono di la, il problema è che nvidia tarderà ad ottimizzare, solo ora stanno pensando a hitman che era un altro titolo pro amd, uscitò parecchio tempo fa


e fa pensare che le console next gen sono con hardware amd, e quindi magari non è questione di driver, ma proprio programmati per far rendere al meglio GCN delle GPU AMD


ma Hitman è un titolo Physx? come fa ad essere "pro Amd"? :asd:

°Phenom°
29-09-2014, 09:10
Hitman non ha phsyx, se non erro usa Havoc come motore per la fisica, che funziona sia su amd che nvidia.

TyrionRevenge
29-09-2014, 09:38
preoccupante?
www.hwupgrade.it/forum/showpost.php?p=41583207&postcount=41730

penso che in futuro ci saranno giochi che gireranno meglio o con feature esclusive sulle nvidia es:
http://www.neogaf.com/forum/showthread.php?t=897833
(e ce ne stanno anche altri)

ed altri sulle amd.

come sempre insomma

illidan2000
29-09-2014, 10:05
ma Hitman è un titolo Physx? come fa ad essere "pro Amd"? :asd:
a me hitman girava una favola con 2x680...
penso che in futuro ci saranno giochi che gireranno meglio o con feature esclusive sulle nvidia es:
http://www.neogaf.com/forum/showthread.php?t=897833
(e ce ne stanno anche altri)

ed altri sulle amd.

come sempre insomma
quotone

mircocatta
29-09-2014, 10:13
penso che in futuro ci saranno giochi che gireranno meglio o con feature esclusive sulle nvidia es:
http://www.neogaf.com/forum/showthread.php?t=897833
(e ce ne stanno anche altri)

ed altri sulle amd.

come sempre insomma
ok, ci starebbe se la 780ti anziché andare un 35% in più della 280x come generalmente è, andasse solo il 20% in più, causa titolo ottimizzato AMD
ma qui si sta parlando di titoli in cui la 280x sta sopra alla 780ti

se mi tirate in ballo pcars non fa testo, è in beta e amd non ha ancora tirato fuori driver per ottimizzarlo, ci sta che sia un titolo pro nvidia ma non così tanto com'è attualmente

AceGranger
29-09-2014, 10:15
Non sono d'accordo: se vai a rivedere le vecchie roadmap, già prima di Kepler avevano indicato che l'efficienza sarebbe via via aumentata, l'obiettivo dichiarato è migliorare costantemente il rapporto performance/Watt per cui credo proprio che sia il contrario, ossia che per colpa del salto dei 20nm hanno dovuto limitare le prestazioni, pur raggiungendo livelli ottimi rispetto a gk104, nonostante die size più grande, ma hanno comunque centrato l'obiettivo di tenersi entro tdp più bassi o almeno uguali (980/680) della precedente architettura aumentandone le prestazioni.

Non capisco cosa intendi per densità di elaborazione...

allora ho inteso male io, stiamo dicendo la stessa cosa, pero credo che il loro limite piu grosso attualmente sia stata la dimensione del die size; se le GPU avessero avuto 200W e piu sp avrebbero comunque mantenuto la stessa efficienza, ma il die size sarebbe stato troppo grande.

TyrionRevenge
29-09-2014, 10:33
ok, ci starebbe se la 780ti anziché andare un 35% in più della 280x come generalmente è, andasse solo il 20% in più, causa titolo ottimizzato AMD
ma qui si sta parlando di titoli in cui la 280x sta sopra alla 780ti


e ci sono titoli in cui ho visto una GTX770 che era li con la 290X.. uno che mi viene in mente è Assassin's Creed... per esempio.

francisco9751
29-09-2014, 10:40
ac è pro-nvidia..lo sanno pure i muri

tapatalked with LG G2

TyrionRevenge
29-09-2014, 10:46
ac è pro-nvidia..lo sanno pure i muri

tapatalked with LG G2

e quindi in definitiva per il futuro ci saranno sia giochi pro nvida e pro amd.

muppo
29-09-2014, 10:53
ac è pro-nvidia..lo sanno pure i muri

tapatalked with LG G2

ac è pro nvidia, ma unity è programmato su apu amd (ed è il primo con engine nuovo). Quindi non darei per scontato che gira meglio su nvidia a sto giro, e nemmeno che premii cpu multicore.

devil_mcry
29-09-2014, 10:56
Probabilmente nei prossimi anni AMD acquisirà sempre più un vantaggio vista la presenza di console che integrano gli stessi core nelle proprie GPU.

Vedere una 280x che va meglio di una 780Ti la dice lunga su quello che è il trend...

Boh... Forse conviene prendere una 290x piuttosto che una nuova nVidia... mmm

francisco9751
29-09-2014, 10:59
e quindi in definitiva per il futuro ci saranno sia giochi pro nvida e pro amd.

si ma non si parlava di giochi pro-nvidia o pro-amd...ma giochi "neutri" porting da console,che girano meglio su amd,comprendi??(giochi pro-verdi e pro-rosse,lo sappiamo che ci sono sempre stati)

comunque, imho, è presto per trarne delle conclusioni...3 giochi non possono fare testo..se fra 6 mesi, 9 giochi su 10 andranno meglio.su una,allora ok...comunque l'ho sempre detto,nvidia non doveva perdere il treno "console"...chi vivrà, vedrà :3

tapatalked with LG G2

illidan2000
29-09-2014, 11:00
allora ho inteso male io, stiamo dicendo la stessa cosa, pero credo che il loro limite piu grosso attualmente sia stata la dimensione del die size; se le GPU avessero avuto 200W e piu sp avrebbero comunque mantenuto la stessa efficienza, ma il die size sarebbe stato troppo grande.

l'abbattimento dei consumi è condizione prioritaria per lo sviluppo di queste tecnologie.
se ci si fosse fermati ai tempi delle 8800, oggi avremmo dovuto avere chissà quanti watt per alimentare una gpu odierna per alimentare tutti i transistor che ci stanno (lasciando stare il die size, che comunque sarebbe stato quello attuale con la diminuzione del pp)

devil_mcry
29-09-2014, 11:01
credo che manchino driver ottimizzati per questi giochi..non posso credere che lo sli sia così inutile

Il problema è che le console sono GCN
Un gioco ottimizzato a bomba su console portato su PC girerà probabilmente meglio su AMD visto che la GPU potenza a parte è la stessa come architettura...

Non la vedo tanto bene per nVidia, fino ad oggi tutti i giochi sono stati fatti in misura delle console quindi questo trend potrebbe ora come ora obbligare l'acquisto di VGA AMD per giocare bene fintanto che nVidia non proponga GPU nettamente più performanti della controparte per compensare l'ottimizzazione

AceGranger
29-09-2014, 11:25
l'abbattimento dei consumi è condizione prioritaria per lo sviluppo di queste tecnologie.
se ci si fosse fermati ai tempi delle 8800, oggi avremmo dovuto avere chissà quanti watt per alimentare una gpu odierna per alimentare tutti i transistor che ci stanno (lasciando stare il die size, che comunque sarebbe stato quello attuale con la diminuzione del pp)

guarda che dai tempi delle 8800 i TDP sono aumentati ( e quindi i relativi consumi )... la 8800 Ultra aveva 175W, le attuali TOP ne hanno 250 ( tralasciando le Dual GPU ); il GM200 molto probabilmente manterra questo TDP.

La priorita non è tanto abbattere i consumi in valore assoluto, che bene o male rimarranno sempre quelli, ma è migliorare l'efficienza, che è una cosa ben diversa; a meno di nuovi pp miracolosi non ci smuoveremo dai 250W delle top.

il limite oramai diventera soltanto il die size per ottenere determinate prestazioni.

illidan2000
29-09-2014, 11:39
guarda che dai tempi delle 8800 i TDP sono aumentati ( e quindi i relativi consumi )... la 8800 Ultra aveva 175W, le attuali TOP ne hanno 250 ( tralasciando le Dual GPU ); il GM200 molto probabilmente manterra questo TDP.

La priorita non è tanto abbattere i consumi in valore assoluto, che bene o male rimarranno sempre quelli, ma è migliorare l'efficienza, che è una cosa ben diversa; a meno di nuovi pp miracolosi non ci smuoveremo dai 250W delle top.

il limite oramai diventera soltanto il die size per ottenere determinate prestazioni.

si, certo intendevo quello ovviamente :sofico:

AceGranger
29-09-2014, 11:41
si, certo intendevo quello ovviamente :sofico:

:fagiano: va bè, è meglio che vado a prendermi da mangiare che tendo a capire poco questa mattina :stordita:

PaulGuru
29-09-2014, 12:02
prendi ad esempio uno studio di animazione con la piccola farm interna, credi davvero che usino le tescla? Se come no, siamo tutti la pixar
La "Tescla" no di certo

Ma comunque sia quante persone comprano la GeForce per usarle come Tesla ?
GeForce è per desktop, se uno fa il furbo per risparmiare non può di certo lamentarsi se il modello non è idoneo a tal fine.
Senza contare che GeForce ha le unità a DP disabilitate, quindi bisogno proprio essere ignoranti forte. :rolleyes:


Appunto visto che parli solo di personal non vai oltre il giardino di casa tua :doh: Poi questo è un sito generalista, non mi sembra che si parli solo di pc per giocare
Ah quindi secondo te è un caso che nelle recensioni delle GeForce si testino solo giochi ? Apri gli occhi va ! Geforce è la linea di gioco per desktop.
Se tu le usi per altro non ti puoi lamentare.

ah già te eri quello del gioco tutto a massimo ad ogni costo e chi non la pensa così non può essere definito progamer :rotfl: Appena smetto di ridere ti confermo che ce ne sono moltissimi altri di fronti dove spremi i componenti molto più di un videogioco e per la cronaca, per me è più seria l'attività da ufficio che svolgo con il portatile o il lavoro con la ws che il giocare che appunto è un passatempo.Giocare è un passatempo per te, quì il 90% degli utenti non usa il PC principalmente per lavorare ( io lavoro nel mio posto di lavoro, se tu lavori nel tuo tempo libero sei proprio messo male ) e le pretese HW sono per giocare.

Molti altri ambiti spremono di più ? Si ma di certo non sono ambiti da Geforce.

Detto questo, sarei proprio curioso di vedere le nuove schedozze alle prese con qualche motore di renderLe GeForce sono fatte per giocare, altro che Adobe !
Hai mai visto fra le reviews delle GeForce i test con gli applicativi ? O per te è solo un caso che ci siano solo giochi ?
Se non hai la grana per prenderti i prodotti adatti fai gli straordinari e te li compri o lasci perdere.

appleroof
29-09-2014, 12:29
Non mi fascerei la testa, anche Pcars (che peraltro ha una complessità ben maggiori dei tre titoli prima citati da mikael) sembra andare meglio sulle verdi www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Technik-Test-Benchmarks-1136058/#a1, il prossimo mattone come tw3 sarà un altro banco di prova, visto che si preannuncia anche esso molto pesante

Insomma come detto credo che si avranno giochi ottimizzati Rossi e verdi non più di quanto avvenuto finora, poi chissà

egounix
29-09-2014, 12:30
Basta farsi un hybrid sli-fire X 2 way con virtu

Goofy Goober
29-09-2014, 12:48
Basta farsi un hybrid sli-fire X 2 way con virtu

http://www.tabulerase.it/wp-content/uploads/2012/07/supercazzola.jpg

egounix
29-09-2014, 12:51
Mi scusi ma lei ha clacsonato? :asd:

Ma qualcuno mai ha provato l'astrusa soluzione proposta dal virtu, d'accoppiare nvidia+amd? Seriamente?
Almeno per placare le "palle" sui giochi pro/contro.

TyrionRevenge
29-09-2014, 13:01
Non mi fascerei la testa, anche Pcars (che peraltro ha una complessità ben maggiori dei tre titoli prima citati da mikael)

eh si.
sempre il solito unreal engine 3, manco dx11 ma dx9, ed idtech5

lol.

ma tirate fuori i giochi con l'unreal engine 4 azzo

Goofy Goober
29-09-2014, 13:08
Mi scusi ma lei ha clacsonato? :asd:

Ma qualcuno mai ha provato l'astrusa soluzione proposta dal virtu, d'accoppiare nvidia+amd? Seriamente?
Almeno per placare le "palle" sui giochi pro/contro.

:asd: :asd: :asd:

una frase che è un ossimoro...

Muoro :asd:

No dai, torniamo SERI, sul serio, che è meglio :read:

mikael84
29-09-2014, 13:14
Non mi fascerei la testa, anche Pcars (che peraltro ha una complessità ben maggiori dei tre titoli prima citati da mikael) sembra andare meglio sulle verdi www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Technik-Test-Benchmarks-1136058/#a1, il prossimo mattone come tw3 sarà un altro banco di prova, visto che si preannuncia anche esso molto pesante

Insomma come detto credo che si avranno giochi ottimizzati Rossi e verdi non più di quanto avvenuto finora, poi chissà

Non è questione di essere complesso ma se un gioco viene programmato su GCN su PC saranno tante queste situazioni.

Unreal engine e idtech 5 in questo caso erano fortemente Nvidia

ac è pro nvidia, ma unity è programmato su apu amd (ed è il primo con engine nuovo). Quindi non darei per scontato che gira meglio su nvidia a sto giro, e nemmeno che premii cpu multicore.

Concordo bisogna vede a sto giro, sicuramente pro Nvidia sarà Farcry 4.

devil_mcry
29-09-2014, 13:14
Non mi fascerei la testa, anche Pcars (che peraltro ha una complessità ben maggiori dei tre titoli prima citati da mikael) sembra andare meglio sulle verdi www.pcgameshardware.de/Project-CARS-PC-238576/Specials/Technik-Test-Benchmarks-1136058/#a1, il prossimo mattone come tw3 sarà un altro banco di prova, visto che si preannuncia anche esso molto pesante

Insomma come detto credo che si avranno giochi ottimizzati Rossi e verdi non più di quanto avvenuto finora, poi chissà

Si ma quel gioco usa un motore aggiornato ma vecchio (quello di NFS) ed è uno dei giochi ottimizzati per nVidia, ma l'elenco dei giochi conta davvero pochi pochi titoli...

appleroof
29-09-2014, 13:52
Non è questione di essere complesso ma se un gioco viene programmato su GCN su PC saranno tante queste situazioni..

Vedremo mikael, credo sia presto per affermare quanto dici, un bilancio potrebbe essere tratto tra un annetto magari, quando si avranno più giochi scritti con vari motori per stilare una media

Per ora la vedo una coincidenza/frutto di qualche collaborazione, nulla di nuovo sotto il sole

Si ma quel gioco usa un motore aggiornato ma vecchio (quello di NFS) ed è uno dei giochi ottimizzati per nVidia, ma l'elenco dei giochi conta davvero pochi pochi titoli...

Pure ue3 e idtech5 non sono motori studiati ad hoc per le nuove console, anzi, quindi dipende molto da come le swh ottimizzano i giochi per l'una o per l'altra e quindi siamo sempre al punto di partenza

TyrionRevenge
29-09-2014, 13:59
ac è pro nvidia, ma unity è programmato su apu amd (ed è il primo con engine nuovo). Quindi non darei per scontato che gira meglio su nvidia a sto giro, e nemmeno che premii cpu multicore.

NVIDIA GameWorks To Enhance Assassin’s Creed Unity, Far Cry 4, The Crew & Tom Clancy’s The Division
http://www.geforce.com/whats-new/articles/nvidia-gameworks-to-enhance-upcoming-ubisoft-games

per scontato no ma potrebbe essere sulla buona strada



Pure ue3 e idtech5 non sono motori studiati ad hoc per le nuove console, anzi, quindi dipende molto da come le swh ottimizzano i giochi per l'una o per l'altra e quindi siamo sempre al punto di partenza

infatti sono engine cross platform, nati per girare sulle console di vecchia gen e pc

mikael84
29-09-2014, 14:02
Vedremo mikael, credo sia presto per affermare quanto dici, un bilancio potrebbe essere tratto tra un annetto magari, quando si avranno più giochi scritti con vari motori per stilare una media

Per ora la vedo una coincidenza/frutto di qualche collaborazione, nulla di nuovo sotto il sole





La mia Apple non era un'affermazione ma una piccola riflessione su giochi pensati principalmente per GCN che insomma fa pensare in quanto questi potrebbero essere sempre di piu'man mano che si procede.
Se oggi sono 3, potrebbero aumentare di gran numero e qua non parliamo del classico caso una va piu'dell'altra ma di un'architettura completamente avanti.:)

PaulGuru
29-09-2014, 14:02
Guardate che il fatto che i motori siano originariamente ottimizzati o meno per le console è una baggianata, i motori grafici in generale sono una cosa, l'ottimizzazione è un altra cosa.

Senza contare che i motori grafici si realizzano sui PC e non sulle console.

Tutti i giochi PC convertiti dalla console fino ad ora venivano dall'Xbox360 che se non sbaglio monta AMD, compresi i pro Nvidia.

L'ottimizzazione su console viene eseguita tramite gli appositi SDK che però poi di certo non ti ritroverai sulle versioni PC.

PaulGuru
29-09-2014, 14:04
Guardate che il fatto che i motori siano originariamente ottimizzati o meno per le console è una baggianata, i motori grafici in generale sono una cosa, l'ottimizzazione è un altra cosa.
Quando si parla di nuovi motori per le nuove console vuol dire semplicemente che introducono le nuove features delle attuali librerie grafiche che prima l'hardware delle vecchie console non sosteneva.

Senza contare che i motori grafici si realizzano sui PC e non sulle console.

Tutti i giochi PC convertiti dalla console fino ad ora venivano dall'Xbox360 che se non sbaglio monta AMD, compresi i pro Nvidia.

L'ottimizzazione su console viene eseguita tramite gli appositi SDK che però poi di certo non ti ritroverai sulle versioni PC.

appleroof
29-09-2014, 14:12
La mia Apple non era un'affermazione ma una piccola riflessione su giochi pensati principalmente per GCN che insomma fa pensare in quanto questi potrebbero essere sempre di piu'man mano che si procede.
Se oggi sono 3, potrebbero aumentare di gran numero e qua non parliamo del classico caso una va piu'dell'altra ma di un'architettura completamente avanti.:)

Si si ma infatti rispondevo alla riflessione riflettendo a mia volta che è troppo presto per prevedere una situazione stabile, occorre un numero ben maggiore di titoli per dire che il fatto che le console montano HW amd vorrà dire sicuramente che su vga per PC amd i giochi andranno meglio

Considera pure che non è detto che le vga amd manterranno l'architettura GCN per tutto il ciclo di vita delle console, o quantomeno offriranno evoluzioni profonde mentre quella delle console rimarrà fissa per tutto il ciclo di vita delle stesse.

devil_mcry
29-09-2014, 14:23
Si si ma infatti rispondevo alla riflessione riflettendo a mia volta che è troppo presto per prevedere una situazione stabile, occorre un numero ben maggiore di titoli per dire che il fatto che le console montano HW amd vorrà dire sicuramente che su vga per PC amd i giochi andranno meglio

Considera pure che non è detto che le vga amd manterranno l'architettura GCN per tutto il ciclo di vita delle console, o quantomeno offriranno evoluzioni profonde mentre quella delle console rimarrà fissa per tutto il ciclo di vita delle stesse.


Tutte le schede di prossima generazione (e quindi immagino fino al 2016 considerando che usciranno l'anno prox) saranno GCN 1.2 credo e probabilmente continueranno su questa strada.

Anche la precedente architettura se la sono portata avanti per 4 generazioni di VGA e non era chissà che roba.

TyrionRevenge
29-09-2014, 14:26
Tutte le schede di prossima generazione (e quindi immagino fino al 2016 considerando che usciranno l'anno prox) saranno GCN 1.2 credo e probabilmente continueranno su questa strada.
non credo. più facile ci sarà un gcn 1.3, 1.4 ecc.
Anche la precedente architettura se la sono portata avanti per 4 generazioni di VGA e non era chissà che roba.

e se non sbaglio la xbox 360 derivava da quella architettura.ed anche allora la gente pensava che i futuri giochi, a causa di questo, sarebbero andati meglio sulle amd.
e non è successo.

PaulGuru
29-09-2014, 14:27
Tutte le schede di prossima generazione (e quindi immagino fino al 2016 considerando che usciranno l'anno prox) saranno GCN 1.2 credo e probabilmente continueranno su questa strada.

Anche la precedente architettura se la sono portata avanti per 4 generazioni di VGA e non era chissà che roba.
Che rimangano con tale architettura è ai limiti dell'improbabile, dopo che Nvidia ha tirato fuori Maxwell con tutta quell'efficienza, AMD a pari PP dovrà fare un miracolo o cambia radicalmente architettura.

TyrionRevenge
29-09-2014, 14:33
Che rimangano con tale architettura è ai limiti dell'improbabile, dopo che Nvidia ha tirato fuori Maxwell con tutta quell'efficienza, AMD a pari PP dovrà fare un miracolo o cambia radicalmente architettura.

quoto.

e speriamo siano una bomba, altrimenti la prox nvidia tocca pagarla 2000€ :sbonk:

Trokji
29-09-2014, 14:34
Se ti riferisci alle 970/980 non lo fanno perché è... inutile :) Il GM204 è così efficiente di suo che puntando ancora su quello perderebbero la gara dei benchmark con i concorrenti e sarebbe un suicidio commerciale.

Non credo.. io per esempio pagherei qualche decina di euro in più per avere una VGA più efficiente, stessa cosa farebbero sicuramente quelli che le usano per le farm di calcolo. Maxwell è efficiente ora e relativamente al momento attuale, ma sicuramente usando componenti di qualità più alta sul pcb come venne fatto in passato su alcune custom sarebbe possibile abbassare di altri 10 W o qualcosa del genere il tdp. Basti pensare poi ai miglioramenti di efficienza fatti sul mobile con K1 (che tra l'altro usa ancora Kepler)

Goofy Goober
29-09-2014, 14:36
non ho mai tifato tanto AMD come in questi ultimi anni...

spero di vedere tantissimi giochi che girano da schifo sulle nvidia e spero che vadano a 20 fps a 1080p no AA sulle mie Titan in SLI :asd:

illidan2000
29-09-2014, 14:37
Giocare è un passatempo per te, quì il 90% degli utenti non usa il PC principalmente per lavorare ( io lavoro nel mio posto di lavoro, se tu lavori nel tuo tempo libero sei proprio messo male ) e le pretese HW sono per giocare.


+1
a lavoro uso un portatile per programmare... a casa, 90% gaming
Guardate che il fatto che i motori siano originariamente ottimizzati o meno per le console è una baggianata, i motori grafici in generale sono una cosa, l'ottimizzazione è un altra cosa.
Quando si parla di nuovi motori per le nuove console vuol dire semplicemente che introducono le nuove features delle attuali librerie grafiche che prima l'hardware delle vecchie console non sosteneva.

Senza contare che i motori grafici si realizzano sui PC e non sulle console.

Tutti i giochi PC convertiti dalla console fino ad ora venivano dall'Xbox360 che se non sbaglio monta AMD, compresi i pro Nvidia.

L'ottimizzazione su console viene eseguita tramite gli appositi SDK che però poi di certo non ti ritroverai sulle versioni PC.
certo, però se alla costruzione del motore partecipano gli ingegneri AMD, è ovvio che possano tirare l'acqua al loro mulino.
e non voglio parlare di mazzette sottobanco, per far girare i motori meglio su una piattaforma invece che un'altra!

TyrionRevenge
29-09-2014, 14:40
Basti pensare poi ai miglioramenti di efficienza fatti sul mobile con K1 (che tra l'altro usa ancora Kepler)

si, è una bomba.
stavo pensando di prendermi lo Xiaomi tablet 7.9 con il k1
(shield mi piace tanto ma costa troppo :fagiano: :muro: )

Ale55andr0
29-09-2014, 15:49
Considera pure che non è detto che le vga amd manterranno l'architettura GCN per tutto il ciclo di vita delle console.


per come stanno messi in AMD non ci contare, per la serie "GCN 9.x tra 10 anni :asd:

Ale55andr0
29-09-2014, 15:51
Senza contare che i motori grafici si realizzano sui PC e non sulle console.

Tutti i giochi PC convertiti dalla console fino ad ora venivano dall'Xbox360 che se non sbaglio monta AMD, compresi i pro Nvidia.

L'ottimizzazione su console viene eseguita tramite gli appositi SDK che però poi di certo non ti ritroverai sulle versioni PC.


è totalmente diverso il discorso però al giorno d'oggi: allora le console erano eterogenee davvero e un multpiatta era multipiatta nel vero senso della parola vista la totale differenza fra 360 (power pc + amd) e Play 3 (cell + nvidia), e nessuna delle due x86 come oggi. Ora sono interamente AMD, e persino nell'architettura (jaguar + GCN) con la sola differente gestione della memoria, per quel che sappiamo (comunque immensamente più simili fra loro che non 360/ps3)
...anche se certo, da sola questa cosa non significa nulla, ci mancherebbe :)

TyrionRevenge
29-09-2014, 15:54
NVIDIA shows off Fable Legends running in DirectX 12 ( gtx 980 )

http://www.tweaktown.com/news/40235/nvidia-shows-off-fable-legends-running-in-directx-12/index.html

appleroof
29-09-2014, 16:20
per come stanno messi in AMD non ci contare, per la serie "GCN 9.x tra 10 anni :asd:

Stai a vedere che ti disperavi invece è un punto di forza :asd:

Comunque non lo so, per quanto mi riguarda ribadisco che è presto per avere certezze in un senso o nell'altro, si vedrà :boh:

TyrionRevenge
29-09-2014, 16:40
Stai a vedere che ti disperavi invece è un punto di forza :asd:

Comunque non lo so, per quanto mi riguarda ribadisco che è presto per avere certezze in un senso o nell'altro, si vedrà :boh:

contano troppi fattori


Nvidia ha GameWorks ,che non è una caxxatella, perchè mette in comunicazione diretta gli sviluppatori con il team software della Nvidia fornendo ai primi dei veri e propri tool che facilitano l'inserimento delle tecnologia proprietarie nei loro giochi.

" EPIC Games ha scelto di supportare i GameWorks development tools apertamente all'interno dell' Unreal Engine 4"

poi c'è il discorso dx12 blablabla...
faranno a darsele vedrai. e non credo ci saranno grossi svantaggi per una rispetto all'altra. il tutto imho.

Ali3n77
29-09-2014, 16:45
contano troppi fattori


Nvidia ha GameWorks ,che non è una caxxatella, perchè mette in comunicazione diretta gli sviluppatori con il team software della Nvidia fornendo ai primi dei veri e propri tool che facilitano l'inserimento delle tecnologia proprietarie nei loro giochi.

" EPIC Games ha scelto di supportare i GameWorks development tools apertamente all'interno dell' Unreal Engine 4"

poi c'è il discorso dx12 blablabla...
faranno a darsele vedrai. e non credo ci saranno grossi svantaggi per una rispetto all'altra. il tutto imho.

Chi non muore si rivede :asd:

appleroof
29-09-2014, 17:13
visto che qualche giorno fà se ne parlava, trovo interessante postare questo:

http://www.hwupgrade.it/articoli/skvideo/4158/gpu_computing_luxmark.png

http://www.hwupgrade.it/articoli/skvideo/4158/gpu_computing_arion_benchmark.png

http://www.hwupgrade.it/articoli/skvideo/4158/asus-geforce-gtx-970-strix-maxwell-alla-seconda-prova_15.html