View Full Version : G-Sync: da Nvidia una soluzione ai problemi di Stutter, Lag e Tearing
Redazione di Hardware Upg
25-10-2013, 13:08
Link all'Articolo: http://www.gamemag.it/articoli/3808/g-sync-da-nvidia-una-soluzione-ai-problemi-di-stutter-lag-e-tearing_index.html
In questo articolo riepiloghiamo tutte le novità annunciate da Nvidia all'evento The Way It’s Meant To Be Played tenutosi la scorsa settimana a Montreal. Si parla, quindi, di G-Sync, ma anche di GameStream, Shadowplay, Flex, GI Works e Flame Works. All'interno trovate anche un'intervista esclusiva a John Carmack.
Click sul link per visualizzare l'articolo.
POSITIVO: E' una ottima tecnologia
NEGATIVO: E' proprietaria
NEGATIVO: Ci vuole un hardware apposito nel video.
Peccato :(
Ma basta con queste soluzioni proprietarie! @.@
Finirà nel dimenticatoio, adesso dobbiamo anche comprare aggeggi da attaccare alla Tv oppure schermi che già la integrano... ma per favore va...
PConly92
25-10-2013, 13:44
lol
proprio oggi che sono uscite le recensioni della 290x.. :fiufiu:
Genialata il g-sync imho!
Già con le nvidia e il settaggio del vsync su adattivo ci s'era ormai dimenticati del tearing...questo è un ulteriore passo avanti, dato che i giochi, a partià di fps, saranno molto più fluidi.
Costa è vero, ma anche una nuova vga che permette di giocare più fluido costa! :D Inoltre questa tecnologia funziona con tutti i giochi, fin da subito.
AceGranger
25-10-2013, 14:02
Finirà nel dimenticatoio, adesso dobbiamo anche comprare aggeggi da attaccare alla Tv oppure schermi che già la integrano... ma per favore va...
son prodotti come le VGA TOP gamma; uno che spende 400-500 o piu, per una VGA o piu VGA, di certo non ha problemi ad investire anche in un monitor da gamer, ed è a loro che è rivolto principalmente.
Dovrebbero invece sviluppare un v-sync adattivo
ma non c'è gia ?
soluzione troppo complicata da realizzare e troppo costosa: bisogna cambiare monitor (e solo quello costa un 300 euro) comprare una scheda video nvidia di punta (almeno 340 euro) la scheda giusta per il monitor che non so quanto costi ma qialcosa costerà spendendo un 800-1000 euro, ripresentandosi il problema non appena si vuole fare un cambio di monitor...sarà una soluzione relegata a una nicchia poco consistente del mercato
PaulGuru
25-10-2013, 14:05
Finirà nel dimenticatoio, adesso dobbiamo anche comprare aggeggi da attaccare alla Tv oppure schermi che già la integrano... ma per favore va...
Ma stiamo scherzando ? ad oggi giorno se non hai un frame rate fisso e sincronizzato si nota la differenza in termini di fluidità da quando smette di esserlo, io se non gioco a 60 fissi per me non è più così liscio, senza vsynch anche a frames alto ma soprattutto se è poco più basso noto di brutto la differenza, è ballerino e non c'è sincronia fra un frame e l'altro, con questa tecnologia permetterebbe di adattare la funzionalità di Vsynch al frame rate.
Il fatto che abbia hardware dedicato vuol dire che non è la solita solfa via software che funziona a metà o che non funziona proprio, vuol dire che è qualcosa di serio e che forse risolverà quel grosso fastidio che affligge molti puristi.
Ed è piuttosto logorante il fatto che questa tecnologia debba essere screditata perchè proprietaria, semmai bisognerebbe sperare che anche AMD sappia replicare.
Per il discorso dell'attaccarlo alla TV, non è roba per consolari, il gaming pc lo attacchi al monitor e anche se fosse il kit han detto che sarà fornito in stand alone.
son prodotti come le VGA TOP gamma; uno che spende 400-500 o piu, per una VGA o piu VGA, di certo non ha problemi ad investire anche in un monitor da gamer, ed è a loro che è rivolto principalmente.
ma non c'è gia ?
Il progresso dovrebbe essere per tutti, non per nicchie. Se lo integravano direttamente nelle vga era un conto ma così lo avranno in 4, come del resto l'ultima loro tavanata, lo Shield...
PaulGuru
25-10-2013, 14:12
Il progresso dovrebbe essere per tutti, non per nicchie. Se lo integravano direttamente nelle vga era un conto ma così lo avranno in 4, come del resto l'ultima loro tavanata, lo Shield...
Se la tecnologia è di Nvidia cosa dovrebbero fare ? estenderla anche alla concorrente ?
Il progresso veramente è prima di tutto per chi paga, a tutti può estendersi in seguito semmai.
Tutti sti discorsi negativi solo per il rosiko dei possessori AMD che fan finta di trovare altre scuse lascia il tempo che trova.
Stai a vedere che per alcuni adesso AMD tirerà fuori Mantle anche per Nvidia per il solo motivo di estendere il progresso a tutti quanti.
Non è colpa di nessuno se AMD non tira fuori molto e quello che tira fuori è ricercatamente open source non perchè è buona e amica di noi utenti ( per chi crede nelle favole ) ma perchè sà che le sue soluzioni sono meno supportate economicamente e quindi chiaramente cerca altre forme di incentivazioni.
Se la tecnologia è di Nvidia cosa dovrebbero fare ? estenderla anche alla concorrente ?
Il progresso veramente è prima di tutto per chi paga, a tutti può estendersi in seguito semmai.
Tutti sti discorsi negativi solo per il rosiko dei possessori AMD ?
Per tutte le prossime schede nVidia... era ovvio.
Quale rosiko scusa ? adesso dare un parere equivale a rosicare ? annamo bene :rolleyes:
soluzione troppo complicata da realizzare e troppo costosa: bisogna cambiare monitor (e solo quello costa un 300 euro) comprare una scheda video nvidia di punta (almeno 340 euro) la scheda giusta per il monitor che non so quanto costi ma qialcosa costerà spendendo un 800-1000 euro, ripresentandosi il problema non appena si vuole fare un cambio di monitor...sarà una soluzione relegata a una nicchia poco consistente del mercato
in realtà non è così.
ci saranno dei monitor che lo hanno già integrato. per gli altri ci sarà solo da acquistare quel componente esterno (almeno così hanno detto).
Ovviamente bisogna avere nel case una vga nvidia, mi sembra logico.
Secondo me fanno il botto!
PaulGuru
25-10-2013, 14:18
Per tutte le prossime schede nVidia... era ovvio.
Quale rosiko scusa ? adesso dare un parere equivale a rosicare ? annamo bene :rolleyes:
E' supportata da tutte le GTX c'è scritto quindi presumo anche le attuali ed anche i modelli minori.
E' una feature opzionale chi la vuole se la comprerà, chi non la vuole no, non vedo perchè tutta sta polemica.
A me la cosa interessa parecchio se dovesse funzionare e sto appunto aspettando a comprare il VG248QE in attesa dell'uscita del modello col kit integrato.
sto g-sync pare spettacolare... spero vivamente che lo mettano in vendita come accrocchio esterno da attaccare ai monitor già esistenti... per i monitor 1440p come il mio sarebbe la manna dal cielo :)
cire92cry
25-10-2013, 14:37
A me piace sto G-SYNC sopratutto per la stabilità dei frame sotto ai 60HZ perchè è veramente difficile mantenere sempre gli fps sopra a 60 con giochi pesanti e filtri , però con questo G-SYNC scendere tipo a 50 fps non dovrebbe dare alcun tipo di problema.
in realtà non è così.
ci saranno dei monitor che lo hanno già integrato. per gli altri ci sarà solo da acquistare quel componente esterno (almeno così hanno detto).
Ovviamente bisogna avere nel case una vga nvidia, mi sembra logico.
Secondo me fanno il botto!
bisogna capire quali monitor hanno la possibilità di integrare il componente esterno, non tutti sicuramente vedrai che il monitor comunque lo fan cambiare....
Bo... io non ho mai giocato con il v-sync attivo. Mi ricordo che attivavo il triple buffering...non mi ricordo più neanche il perchè (e se c'entra qualcosa)!
ma siete tutti ubriachi ?
quello che si vede nelle slide è ESATTAMENTE quello che fa il vsync+buffering triplo da 20 anni a questa parte, l'unica differenza che "l'innovativo" g-sync soffrirà di una latenza aggiuntiva
implementazione di G-sync -> pipeline allungata da un buffer a valle del back buffer
triple buffering -> 2 back buffer scritti alternativamente
ergo G-sync farà le stesse cose ma sarà sempre indietro di un frame (meglio non poteva fare dato il triple buffering è matematicamente la soluzione ottima)
l'unico vantaggio (si fa per dire) di G-sync è il risparmio di qualche MB di memoria video
Questi articoli dovrebbero essere scritti da che capisce almeno un minimo dell'argomento trattato
:asd: si certo...:asd:
da quanto in qua il triple-buffering abbassava gli hz del monitor? :rotfl:
PaulGuru
25-10-2013, 15:31
ma siete tutti ubriachi ?
quello che si vede nelle slide è ESATTAMENTE quello che fa il vsync+buffering triplo da 20 anni a questa parte, l'unica differenza che "l'innovativo" g-sync soffrirà di una latenza aggiuntiva
implementazione di G-sync -> pipeline allungata da un buffer a valle del back buffer
triple buffering -> 2 back buffer scritti alternativamente
ergo G-sync farà le stesse cose ma sarà sempre indietro di un frame (meglio non poteva fare dato il triple buffering è matematicamente la soluzione ottima)
l'unico vantaggio (si fa per dire) di G-sync è il risparmio di qualche MB di memoria video
Questi articoli dovrebbero essere scritti da che capisce almeno un minimo dell'argomento trattato
Eh si guarda, arrivato l'esperto.
Peccato che il triple buffering esiste da anni e non risolve nulla, usa più vram ed aumenta di molto l'input lag e oltretutto serve solo ad evitare un taglio di frames che a me sinceramente è capito forse mai, mi sà che non hai proprio capito che cosa fa questo G-Synch.
A casa mia quando non fai i 60 fissi ( anche facendo solo 59 ) perdi la sincronizzazione che non centra nulla con il taglio di frames ma poco importa visto che perderai fluidità. Giocare a 30fps sul mio PC ti assicuro che per me va da fare skifo, giocarci su console decisamente meglio cosa ti sei mai chiesto il perchè ? Così come su console si notano i cali quando scendono dai prerogativi 60 o 30.
mirkonorroz
25-10-2013, 16:00
Nell'articolo c'e' scritto che non e' una soluzione definitiva. Riduce ma non annulla.
Se puo' essere inserito dentro il monitor, ma stare anche fuori, non potrebbe essere integrato nella vga? O il cavo serve corto? O e' grande?
Sono anni che si parla di refresh del monitor veramente adattivo o on-demand. Questo sembra un passo avanti.
PS: quello sw nvidia e' detto "vsync dinamico".
PPS: ma la foto con Carmack e' riciclata? :D
freedzer
25-10-2013, 16:04
Venderanno a vagonate? :D :D :D
Ma state bene? :D E' una nicchia della nicchia nella nicchia :asd:
Faranno giusto due prodotti per Nerd Gamerz UBER-POWA® dal solito look inguardabile color arancio tubo PVC che compreranno tre persone per compiacere John Carmack.
Dai ragazzi siamo realisti :asd:
mirkonorroz
25-10-2013, 16:27
Non capisco una cosa pero' (tra le tante): se un frame n+1 ci mette un bel po' ad essere renderizzato il frame n rimane a schermo fino alla fine del rendering dell'n+1? Cioe' a me sembra un po' strano che elimini anche lo stuttering.
AceGranger
25-10-2013, 16:58
Il progresso dovrebbe essere per tutti, non per nicchie. Se lo integravano direttamente nelle vga era un conto ma così lo avranno in 4, come del resto l'ultima loro tavanata, lo Shield...
come cambi VGA puoi anche cambiare monitor.
come cambi VGA puoi anche cambiare monitor.
Non credo che un uomo marketing, davanti ad una platea di possibili fruitori, userebbe questa frase come leva.
Se si deve cambiare mezzo sistema si finisce per farne tranquillamente a meno, e finirà così ;)
Si ma bisogna vedere i monitor con questa tecnologia:
A- quanti saranno
B- quanto costeranno più di quelli senza questa tecnologia
Perché se fanno solo 3 modelli dal costo proibitivo tanto vale che manco li fanno.
Di certo saranno 3 in croce, e sovvenzionati da nVidia...
TwinDeagle
25-10-2013, 17:32
non riesco a capire in che modo dovrebbe impedire lo stuttering..se la scheda video non è costante nella creazione dei fotogrammi, come dovrebbe risolvere il problema questo apparecchio?
Cico the SSJ
25-10-2013, 17:48
tutti sti casini.. dopo anni e anni con vsync disattivo manco me ne accorgo piu del tearing. sai che me frega.
piuttosto mi chiedo tutte ste mirabolanti novità per fisia, fuoco, illuminazione etc etc come pensano che verranno implementate nei giochi visto che ormai il 90% dei giochi viene prima fatto per console e che le console hanno gpu amd?
su console andranno? se poi su pc amd me le bloccano mi metto a ridere.
sempre peggio nvidia, piano piano a forza di chiusure si ritroverà chiusa fuori casa. Per strada..
PaulGuru
25-10-2013, 18:04
tutti sti casini.. dopo anni e anni con vsync disattivo manco me ne accorgo piu del tearing. sai che me frega.
Anche per i consolari i giochi sono lisci a 15-20fps e sono belli graficamente nonostante siano totalmente scalati e senza filtri e non vedono nulla di nulla, stai pur certo che a loro interessa anche meno di te.
Per altre persone invece la qualità conta indipendentemente dal fatto che sia di nicchia o meno o che sia roba esclusiva, se questa soluzioni mi permette di non stare perennemente a 60fps per mantenere una fluidità perfetta è da comprare.
Venderanno a vagonate? :D :D :D
Ma state bene? :D E' una nicchia della nicchia nella nicchia :asd:
Faranno giusto due prodotti per Nerd Gamerz UBER-POWA® dal solito look inguardabile color arancio tubo PVC che compreranno tre persone per compiacere John Carmack.
Dai ragazzi siamo realisti :asd:
Cosa ci interessa delle vendite ? Sarà anche di nicchia ma la soluzione sembra grandiosa e chi è interessato la comprerà senza farsi troppe pippe e senza preoccuparsi che sia libera o meno, basta che funzioni a chi l'ha comprata, degli altri chissenefrega giustamente.
pincapobianco
25-10-2013, 18:49
Questo G-Sync è una grande cazzata che non comprerà nessuno, come pure nessuno comprerà quell'altra mega-cazzata di console Nvidia chiamata Shield :asd:
La verità è che AMD a questo giro polverizzerà completamente Nvidia, sia perché ha in mano il monopolio dei chip grafici del mercato console next-gen di entrambe PS4 e Xbox one, sia perché Nvidia si è voluta ostinare a chiudersi nel solo mercato PC (mercato videoludico periferico e di nicchia dagli utili stagnanti) mentre l'economia insegna che chi si chiude perde e chi si apre e differenzia vince.
Già da ora la AMD 290x è un'ottima scheda, tecnologicamente molto più avanzata di Titan, con bus a 512 bit, molto più veloce in tutti i giochi di Titan, e costa quasi la metà di Titan :D
Direi che Nvidia questa volta si è data da sola la zappa sui piedi :asd:
P.S. fatemi fare solo un breve inciso: ho provato un paio d'ore il nuovissimo Batman Arkham Origins con la mia GTX 690 e che dire, a parte il fatto che è un gioco pessimo (il peggiore di tutta la saga Batman Arkham), graficamente siamo tornati indietro alle texture di 4-5 anni fa, i colori spenti e sbiaditi, il gameplay generico e prevedibile...però c'è un però: con 3D Vision si vede una favola! E' spettacolare in 3D, è l'unica cosa buona per cui vale la pena comprare il gioco. Per il resto, delusione fortissima. Chiuso l'inciso. Buon weekend ragazzuoli :D
PaulGuru
25-10-2013, 18:56
Questo G-Sync è una grande cazzata che non comprerà nessuno, come pure nessuno comprerà quell'altra mega-cazzata di console Nvidia chiamata Shield :asd:
La verità è che AMD a questo giro polverizzerà completamente Nvidia, sia perché ha in mano il monopolio dei chip grafici del mercato console next-gen di entrambe PS4 e Xbox one, sia perché Nvidia si è voluta ostinare a chiudersi nel solo mercato PC (mercato videoludico periferico e di nicchia dagli utili stagnanti) mentre l'economia insegna che chi si chiude perde e chi si apre e differenzia vince.
Già da ora la AMD 290x è un'ottima scheda, tecnologicamente molto più avanzata di Titan, con bus a 512 bit, molto più veloce in tutti i giochi di Titan, e costa quasi la metà di Titan :D
Direi che Nvidia questa volta si è data da sola la zappa sui piedi :asd:
P.S. fatemi fare solo un breve inciso: ho provato un paio d'ore il nuovissimo Batman Arkham Origins con la mia GTX 690 e che dire, a parte il fatto che è un gioco pessimo (il peggiore di tutta la saga Batman Arkham), graficamente siamo tornati indietro alle texture di 4-5 anni fa, i colori spenti e sbiaditi, il gameplay generico e prevedibile...però c'è un però: con 3D Vision si vede una favola! E' spettacolare in 3D, è l'unica cosa buona per cui vale la pena comprare il gioco. Per il resto, delusione fortissima. Chiuso l'inciso. Buon weekend ragazzuoli :D
certo che le spari grosse :rolleyes:
appleroof
25-10-2013, 19:05
Il progresso dovrebbe essere per tutti, non per nicchie. cut
vallo a dire ai tuoi amici in Amd e a quel mega cheat che è mantle ;)
pincapobianco
25-10-2013, 19:08
certo che le spari grosse :rolleyes:
è l'unica cosa che sai dire, perché non sai cosa rispondere :asd:
PaulGuru
25-10-2013, 19:20
è l'unica cosa che sai dire, perché non sai cosa rispondere :asd:
No no sono io che rido :ciapet:
Legionarius
25-10-2013, 19:41
Trovo il G-Sync una ottima cosa. Aspetto le recensioni dei primi monitor con questa tecnologia per valutarne o meno l'acquisto.
Se ne parlava già su Guru3D la settimana scorsa, se volete approfondire Hilbert spiega benissimo: http://www.guru3d.com/articles_pages/nvidia_g_sync_preview_article,1.html
Se ho ben capito i primi prodotti dovrebbero arrivare presto (fine 2013) ed Hilbert stima un costo aggiuntivo di circa 75 EUR/USD per monitor (fa l'esempio del VG248QE che integrerà a breve il G-Sync). Cito dall'articolo:
"What will prices be like ?
That is not yet disclosed, but we think you can expect a 75 EUR/USD price premium per monitor for this solution. But after such an upgrade, even a Geforce GTX 760 running 30+ Hz/FPS would result into a very nice visual gaming experience. We learned that Asus will release the VG248QE (used in the demo) in a G-Sync-Enhanced version for 399 U.S. dollars ."
pincapobianco
25-10-2013, 20:12
ma le hai viste le recensioni? la 290x non va meglio di titan, va fondamentalmente uguale, gioco più gioco meno ed in versione reference è troppo calda. Che titan in sue certe versioni costi il doppio siamo d'accordo, ma bisogna dire le cose giuste, in ogni caso ci sono le 780 custom che costano quasi uguale ed hanno prestazioni analoghe.
350 eur di differenza per prestazioni identiche se non superiori della 290x sono tante :asd: nei giochi testati da hwupgrade la 290x è superiore alla Titan in Far Cry 3, Tomb Raider, Metro Last Light, Grid 2. E' leggermente inferiore solo in Bioshock Infinite e Crysis 3. In 4 giochi su 6 la 290x la fa da padrona ad un prezzo che è quasi la metà della Titan :asd:
appleroof
25-10-2013, 20:14
ma è gratis mantle :rolleyes:
ma davvero fai? :rolleyes:
Obrigado
25-10-2013, 20:14
noto da certi commenti che molti non leggono gli articoli/non sanno leggere
appleroof
25-10-2013, 20:33
spiegami, non capisco :confused:
È chiarissimo, cosa c'è da spiegare? Si attacca una soluzione proprietaria perchè è di un'azienda che sta antipatica (!) e se ne difende un'altra perché la fa una azienda amata (!).
La circostanza che il gsync lo paghi sul monitor mentre mantle non lo paghi tu (apparentemente) non cambia una virgola del fatto che se critichi una soluzione proprietaria lo fai sempre, con l'aggravante, per quanto ne penso io, che il gsync se uno vuole lo compra e ne gode senza nulla togliere ad altri, mantle POTENZIALMENTE impatta negativamente sull'intero mondo del gaming pc, volente o nolente.
Se hai voglia di approfondire il mio punto di vista qui trovi i miei post sull'argomento http://hwupgrade.it/forum/showthread.php?t=2597900&page=12
Fermo restando che qui criticavo quell'utente che attaccava il gsync con argomentazioni a mio modo di vedere assolutamente pretestuose.
AceGranger
25-10-2013, 20:51
Non credo che un uomo marketing, davanti ad una platea di possibili fruitori, userebbe questa frase come leva.
Se si deve cambiare mezzo sistema si finisce per farne tranquillamente a meno, e finirà così ;)
stiamo qui a parlare di una cosa che interessa i gamer che cambiano VGA come se fossero mutande, e la meni per cambiare un monitor, che gia sono inclini a sostituire per avere il 120 o 144 Hz ?
il punto sara solo quanto costeranno i monitor e quanti modelli faranno.
TwinDeagle
25-10-2013, 22:06
Se la scheda video genera 30 frame al secondo c'è poco da fare.
Ma con il vsync normale se la scheda genera 55 frame per secondo a schermo ne vedrai 30 perché aspetta sempre il refresh del monitor per cambiare fotogramma e se il fotogramma non è pronto resta quello vecchio.
In questo modo se il fotogramma non è pronto è il monitor ad attendere che il fotogramma sia pronto.
Così se la scheda genera 55 fps vedi 55fps e non 30.
a ok, lo stavo confondendo con il micro-stuttering, è per questo che non riuscivo a capire come poteva eliminare il problema. Grazie della risposta
Non capisco una cosa pero' (tra le tante): se un frame n+1 ci mette un bel po' ad essere renderizzato il frame n rimane a schermo fino alla fine del rendering dell'n+1? Cioe' a me sembra un po' strano che elimini anche lo stuttering.
Era quello che mi chiedevo anche io, ed infatti non va ad eliminare quel tipo di stuttering (micro-stuttering), ma elimina quello causato dalla "selezione" dei fotogrammi fatta dal vsinc. Se una scheda genera, come l'esempio fatto da bivvoz, 55 fps, questa frequenza non è multipla di quella che viene inviata allo schermo. Ne segue che quando è il momento di inviare il fotogramma al monitor, può succedere che quel fotogramma è già stato creato, o deve essere ancora creato e quindi un fotogramma rimane a video per più tempo. Almeno questo è quello che ho capito xD
PaulGuru
25-10-2013, 22:39
È chiarissimo, cosa c'è da spiegare? Si attacca una soluzione proprietaria perchè è di un'azienda che sta antipatica (!) e se ne difende un'altra perché la fa una azienda amata (!).
La circostanza che il gsync lo paghi sul monitor mentre mantle non lo paghi tu (apparentemente) non cambia una virgola del fatto che se critichi una soluzione proprietaria lo fai sempre, con l'aggravante, per quanto ne penso io, che il gsync se uno vuole lo compra e ne gode senza nulla togliere ad altri, mantle POTENZIALMENTE impatta negativamente sull'intero mondo del gaming pc, volente o nolente.
Se hai voglia di approfondire il mio punto di vista qui trovi i miei post sull'argomento http://hwupgrade.it/forum/showthread.php?t=2597900&page=12
Fermo restando che qui criticavo quell'utente che attaccava il gsync con argomentazioni a mio modo di vedere assolutamente pretestuose.
Quoto.
Spostano le argomentazioni in base a cosa gli fa più comodo, quindi la critica è sul fatto che si paga o sul fatto che è proprietaria ?
Perchè se è su un piano economico posso anche capire ma se è sull'altro piano anche Mantle è proprietario e nessuno si è lamentato.
Mantle poi sull'effettiva funzionalità sono proprio curioso di vedere che miglioramenti porterà e se ne porterà, visto che prima di tutto è solo un pacchetto software, secondo è da vedere in quante SH decideranno di implementarlo ed abbinare le parole supporto e ATI è come abbinare piatti d'alta cucina a mcdonald.
Questo GSynch invece implica una parte hardware e agirà fuori dall'applicativo a meno che qualcuno quì non voglia insinuare che quella scheda non sia interamente finta.
75$ ? Si e no 60€, il prezzo di un bel videogioco in versione DVD, oh dio è proprio uno scandalo allora ! Di certo non è per gli utenti di basse pretese.
CraigMarduk
26-10-2013, 02:01
350 eur di differenza per prestazioni identiche se non superiori della 290x sono tante :asd: nei giochi testati da hwupgrade la 290x è superiore alla Titan in Far Cry 3, Tomb Raider, Metro Last Light, Grid 2. E' leggermente inferiore solo in Bioshock Infinite e Crysis 3. In 4 giochi su 6 la 290x la fa da padrona ad un prezzo che è quasi la metà della Titan :asd:
Uh, certo, e ti alza la temperatura interna del case di 20 gradi provocando tutta una serie di fantastici freeze e shutdown nel bel mezzo di una sessione di gioco, salvo buttare lo schifoso dissi reference nel pattume e metterla sotto liquido, il che richiede competenze tecniche specifiche e un costo aggiuntivo. La Titan costa decisamente di più ma ha un dissi reference talmente efficiente che non solo è stabilissima, ma la overclocchi tranquillamente con quello, e con margini di overclock anche interessanti. Non insulto la tua intelligenza andandoti a spiegare che in conseguenza dell'overclock la 290x, che tra l'altro in overclock fa pietà, mangia la polvere.
A me la nuova scheda AMD pare come tutte le Radeon che ho usato in passato: scalda come un forno, instabile, drivers penosi, ottima nei benchmark ma FPS minimi mediocri e fluttuazioni anche notevoli nel framerate, supera le prestazioni delle geffo a effetti spenti ma con effetti maxati soffre molto. In poche parole, fantastica sulla carta, ma nell'uso reale non altrettanto.
E' un'ottima scheda per rapporto prezzo-prestazioni, ma se non guardiamo al prezzo la Titan la prende a bastonate nei denti in lungo e in largo. La cosa migliore della scheda AMD è che probabilmente farà scendere il prezzo della Titan.
rockroll
26-10-2013, 04:35
Ma stiamo scherzando ? ad oggi giorno se non hai un frame rate fisso e sincronizzato si nota la differenza in termini di fluidità da quando smette di esserlo, io se non gioco a 60 fissi per me non è più così liscio, senza vsynch anche a frames alto ma soprattutto se è poco più basso noto di brutto la differenza, è ballerino e non c'è sincronia fra un frame e l'altro, con questa tecnologia permetterebbe di adattare la funzionalità di Vsynch al frame rate.
Il fatto che abbia hardware dedicato vuol dire che non è la solita solfa via software che funziona a metà o che non funziona proprio, vuol dire che è qualcosa di serio e che forse risolverà quel grosso fastidio che affligge molti puristi.
Ed è piuttosto logorante il fatto che questa tecnologia debba essere screditata perchè proprietaria, semmai bisognerebbe sperare che anche AMD sappia replicare.
Per il discorso dell'attaccarlo alla TV, non è roba per consolari, il gaming pc lo attacchi al monitor e anche se fosse il kit han detto che sarà fornito in stand alone.
Stiamo scherzando? forse si. Qualcuno ha detto che siamo tutti ubriachi: senza voler offendere messuno, comincio a pensarlo.
Ma è mai possibile che per far "giocare" la gente bisogna arrivare a questi limiti estremi, degni di miglior causa?
Mi rivolgo a te, che appari il più integralista dei puristi (oltre che il più partigiano pro Nvidia), ma vale per tutti i malati di gioco estremo.
Ma non è che stiamo perdendo il senso stesso del significato di "gioco", confondendo improbabili e surreali effetti grafici in ultra HD ultraFPS (se no che giocatori professionisti saremmo?) con la logica e l'interoperabilità del gioco stesso, che dovrebbe essere alla base del piacere, pur non primario, di svagarsi interagendo con games computerizzate, per raggiungere il quale basta ed avanza una grafica vettoriale stilizzata?
Sono capitato qui per curiosità, attratto da terminologie srane come Stutter, Lag, Tearing ed altre a piacere, che niente dovrebbero avere a che fare con la logica operativa di un game piacevole a giocarsi (forse lo chiamate "giocablità") e magari entusiasmante, e mi sono ritrovato in mezzo a cultori ad oltranza di un mondo che se spinto a questi livelli a mio avviso più vuoto e assurdo non può essere. Ma vi rendete conto che state dedicando il vostro tempo e ancor peggio le vostre aspirazioni ai dei mattoni, dei macigni sempre più ponderosi, che richiedendo potenze di calcolo fine e sé stesso di migliaia di volte superiori a quanto è bastato per farci arrivare sulla Luna 44 anni or sono..., e per che cosa... per giocare...
Mi sento fuoti posto, sono un pesce fuor d'acqua, sparatemi pure addosso, me lo sarò meritato, del resto se questo ramo del consumismo informatico muove tanto interesse e tanti interessi (come del resto in altri campi droga, prostituzione, giochi d'azzardo...), evidentemente sono io a non aver capito una cippa, non solo del gioco ma della vita intera.
O non si tratterà per caso di involuzione? Sarebbero queste "le magnifiche sorti e progressive" dell'umanità cui alludeva il Leopardi?
Mettetemi al rogo, lo accetto, ma almeno ho avuto il piacere di dire quello che da tempo volevo dire e forse non volevate sentirvi dire.
I miei me lo dicevano che il gioco è un brutto vizio, ma per fortuna ne sono guarito dopo qualche nottate su Apple Invaders, che almeno era divertente...
sintopatataelettronica
26-10-2013, 05:26
L'idea sarebbe anche interessante.. è l'implementazione che non lo è affatto.
E ' troppo costosa e macchinosa per quello che offre, le cose che funzionano alla fine solo quelle semplici (e magari "open"..)
Qualcuno ha scritto in qualche post che è una soluzione riservata ai gamers incalliti, che "cambiano scheda video come le mutande" : beh.. proprio per questo fatto mi sembra che la soluzione NVidia non possa avere tutta questa appetibilità, in quanto sei costretto ad investire denaro in un monitor dedicato (riducendo la scelta di monitor a tua disposizione a modelli specifici) che poi se ritorni ad ATI/AMD (i gamers incalliti guardano le prestazioni, non la marca.. quelli che guardano la marca sono i fanboys ) non sfrutterai nemmeno più.
E tutta questa complicazione per avere cosa ? Uno strumento che ti permette di risolvere una minima parte dei problemi esistenti.. in giochi comunque in cui il framerate garantito dalla tua gpu non scenda sotto una certa soglia, perché voglio vedere alla fine che beneficio avresti in fluidità se con un gioco che ha un framerate minimo di 25 fps il g-sync ti abbassasse il refresh del monitor a 25 hz per 3 o 4 frames :D
Niente tearing, certo: ma il gioco non risulterebbe fluido comunque..
Per cui credo sarà un bel floppone.. che (come altre "invenzioni rivoluzionarie" analoghe) finirà solo nella casa di qualche "maniaco" ..
Mi pare di capire che il motivo principale di questa tecnologia è l'eliminazione del judder, che perfino il Triple Buffering (per quanto molto utile) non può risolvere quando si scende sotto i 60fps.
Siccome la frequenza di aggiornamento del monitor è fissa a 60hz, se la scheda video genera diciamo 50fps, ciò che il TB fa è riusare un buffer quando quello successivo non è ancora pronto, e il risultato è che 1 frame su 6 sta su schermo il doppio del tempo rispetto agli altri. A seconda della persona che guarda, questa differenza si può notare oppure no.
Con il Gsync in teoria non dovrebbe accadere, visto che il refresh del monitor viene adattato ai frame generati. Naturalmente questa tecnologia serve solo a quelli che notano problemi anche col TB. Presumo comunque che complessivamente la qualità visiva sarebbe migliore per tutti, magari impercettibilmente. Quelli che l'hanno provato a DF sono rimasti decisamente sorpresi, dicono.
Anche se mi chiedo come facciano a risolvere la questione del lag. Presumo che l'adattamente del refresh del monitor non sia assolutamente istantaneo. Inoltre, avendo un refresh minimo di 40hz, un gioco che va a meno di 40fps dovrebbe comunque usare un qualche tipo di Vsync.
Comunque... dovevo immaginarlo che adesso AMD e Nvidia si faranno battaglia a suon di tecnologie proprietarie.
PaulGuru
26-10-2013, 09:26
Stiamo scherzando? forse si. Qualcuno ha detto che siamo tutti ubriachi: senza voler offendere messuno, comincio a pensarlo.
Ma è mai possibile che per far "giocare" la gente bisogna arrivare a questi limiti estremi, degni di miglior causa?
Mi rivolgo a te, che appari il più integralista dei puristi (oltre che il più partigiano pro Nvidia), ma vale per tutti i malati di gioco estremo.
Ma non è che stiamo perdendo il senso stesso del significato di "gioco", confondendo improbabili e surreali effetti grafici in ultra HD ultraFPS (se no che giocatori professionisti saremmo?) con la logica e l'interoperabilità del gioco stesso, che dovrebbe essere alla base del piacere, pur non primario, di svagarsi interagendo con games computerizzate, per raggiungere il quale basta ed avanza una grafica vettoriale stilizzata?
Sono capitato qui per curiosità, attratto da terminologie srane come Stutter, Lag, Tearing ed altre a piacere, che niente dovrebbero avere a che fare con la logica operativa di un game piacevole a giocarsi (forse lo chiamate "giocablità") e magari entusiasmante, e mi sono ritrovato in mezzo a cultori ad oltranza di un mondo che se spinto a questi livelli a mio avviso più vuoto e assurdo non può essere. Ma vi rendete conto che state dedicando il vostro tempo e ancor peggio le vostre aspirazioni ai dei mattoni, dei macigni sempre più ponderosi, che richiedendo potenze di calcolo fine e sé stesso di migliaia di volte superiori a quanto è bastato per farci arrivare sulla Luna 44 anni or sono..., e per che cosa... per giocare...
Mi sento fuoti posto, sono un pesce fuor d'acqua, sparatemi pure addosso, me lo sarò meritato, del resto se questo ramo del consumismo informatico muove tanto interesse e tanti interessi (come del resto in altri campi droga, prostituzione, giochi d'azzardo...), evidentemente sono io a non aver capito una cippa, non solo del gioco ma della vita intera.
O non si tratterà per caso di involuzione? Sarebbero queste "le magnifiche sorti e progressive" dell'umanità cui alludeva il Leopardi?
Mettetemi al rogo, lo accetto, ma almeno ho avuto il piacere di dire quello che da tempo volevo dire e forse non volevate sentirvi dire.
I miei me lo dicevano che il gioco è un brutto vizio, ma per fortuna ne sono guarito dopo qualche nottate su Apple Invaders, che almeno era divertente...
Non è un discorso estremo, è un discorso da buon gamers, e nemmeno così tanto esigente visto che gioco sempre con configurazioni single GPU con modelli di fascia non-enthusiast e per il momento con monitors da 60Hz, mentre un estremo come lo definisci tu ha almeno un multi-GPU e gioca con 120-144fps fissi.
Ti rendi conto che stai dando al alcuni utenti degli ubriachi e ossessionati solo perchè sei un utente dalle basse pretese ? E stai discutendo in un thread relativo ad un prodotto dedicato ai puristi ?
Non tutti hanno la stessa percezione e sensibilità, io giocare sotto certi limiti non sono in grado perchè ho pesanti fastidi tali da compromettere tutto il gameplay del gioco, così come giocare senza filtri uguale, se tu non noti niente di tutto questo buon per te, si vede che non ha mai visto la qualità nella tua vita, beata l'ignoranza.
Boscagoo
26-10-2013, 09:43
Molto interessante, bisogna vedere anche il costo. Se non è eccessivamente esagerato, potrebbe diventare alla portata di molti...
Hulk9103
26-10-2013, 10:07
Da pro AMD mi vien da dire che la soluzione non è affatto male, anzi è molto interessante però, perchè c'è un bel però: sono assolutamente contro tutte ste cose proprietarie del ciufolo (e nvidia ne ha troppe) e poi scusate ma se vorrei sfruttare questo G-Sync devo per forza di cose comprare una vga top gamma nvidia e IL monitor che m'imporranno loro??
Io credo che sono completamente partiti di testa.
Imho anche se l'idea di eliminare stutter, lag e tutte quelle cose oscene mi tocca SICURAMENTE non mi affiderò a questa tecnologia, avessero fatto una soluzione hardware integrata nelle vga o software ci poteva ancora ancora stare ma questa è una mossa di MARKETING bella e buona (come è successo per Titan, ovvero rifilarti uno scarto delle Quadro a 1000 euro) per rifilarti un loro prodotto e farci soldi AGGIUNTIVI alle vga che vendono.
Sempre più contento di essere passato all'altra sponda.
PaulGuru
26-10-2013, 11:32
Da pro AMD mi vien da dire che la soluzione non è affatto male, anzi è molto interessante però, perchè c'è un bel però: sono assolutamente contro tutte ste cose proprietarie del ciufolo (e nvidia ne ha troppe) e poi scusate ma se vorrei sfruttare questo G-Sync devo per forza di cose comprare una vga top gamma nvidia e IL monitor che m'imporranno loro??
Io credo che sono completamente partiti di testa.
Imho anche se l'idea di eliminare stutter, lag e tutte quelle cose oscene mi tocca SICURAMENTE non mi affiderò a questa tecnologia, avessero fatto una soluzione hardware integrata nelle vga o software ci poteva ancora ancora stare ma questa è una mossa di MARKETING bella e buona (come è successo per Titan, ovvero rifilarti uno scarto delle Quadro a 1000 euro) per rifilarti un loro prodotto e farci soldi AGGIUNTIVI alle vga che vendono.
Sempre più contento di essere passato all'altra sponda.
Tecnologia compatibile con "tutte le GTX".
Il kit sarà disponibile anche in stand alone quindi lo potrai usare anche su altri monitor.
Il fatto che sia proprietaria che cosa vuol dire scusa ? Cioè la sviluppano loro e la dovrebbero consegnare pure ad ATI ?
Nvidia ha troppe tecnologie proprietarie ? Anche se fosse ? Se compri Nvidia le avrai tutte quante mica una alla volta.
http://www.youtube.com/watch?v=UIkOUncshSk
Mercuri0
26-10-2013, 11:37
- Sulle console non potevano farlo perché devono funzionare su tutti i monitor
- I giochi devono essere ottimizzati per console
-> non porta vantaggi agli sviluppatori
-> rimane per una utenza di nicchia.
Peccato, a mio avviso. Il framerate fisso dei monitor è in fondo solo un vecchio retaggio.
Hulk9103
26-10-2013, 11:42
Tecnologia compatibile con "tutte le GTX".
Il kit sarà disponibile anche in stand alone quindi lo potrai usare anche su altri monitor.
Il fatto che sia proprietaria che cosa vuol dire scusa ? Avrebbe dovuto renderla aperta a tutti secondo te ?
Cioè la sviluppano loro e la consegnano pure ad ATI ?
Nvidia ha troppe tecnologie proprietarie e quindi ? Se compri Nvidia le avrai tutte in una volta sola.
1) Ok kit stand alone ma sono sempre soldi in più da sborsare, ora non venirmi a dire che non era possibile non implementarlo via hardware direttamente sulla vga, come lo puoi mettere sul monitor puoi metterlo dove ti pare. Diciamo che hanno optato questa via per spillare altri soldi. Facciamo gli onesti.
2) Non darò mai l'appoggio per tecnologie proprietarie e che rovinano il mercato videoludico, io devo essere libero di giocare a QUALSIASI gioco a prescindere dalla vga che ho, e questo grazie soprattutto ad nvidia non è possibile.
3) Come sopra: devo riuscire a poter giocare con qualsiasi scheda video compro a prescindere dal marchio e dal titolo in questione e ribadisco che soprattutto grazie ad nvidia questo è stato terribilmente cambiato nel corso del tempo.
4) Su queste basi per me nvidia può diventare monopolista, probabile che smetterò di giocare. :)
5) Secondo te io finanzio nvidia perchè inventa tecnologie proprietarie di nicchia?? Ma per favore ;)
Poi il giorno in cui anche amd diventerà come nvidia se ne riparlerà, per il momento parliamo di un'azienda (amd) che sta puntando all'opensource e di un'azienda che continua a proporre cose proprietarie per eliminare l'opensource ed tutti i rivali sul mercato.
PaulGuru
26-10-2013, 11:46
1) Ok kit stand alone ma sono sempre soldi in più da sborsare, ora non venirmi a dire che non era possibile non implementarlo via hardware direttamente sulla vga, come lo puoi mettere sul monitor puoi metterlo dove ti pare. Diciamo che hanno optato questa via per spillare altri soldi. Facciamo gli onesti.
2) Non darò mai l'appoggio per tecnologie proprietarie e che rovinano il mercato videoludico, io devo essere libero di giocare a QUALSIASI gioco a prescindere dalla vga che ho, e questo grazie soprattutto ad nvidia non è possibile.
3) Come sopra: devo riuscire a poter giocare con qualsiasi scheda video compro a prescindere dal marchio e dal titolo in questione e ribadisco che soprattutto grazie ad nvidia questo è stato terribilmente cambiato nel corso del tempo.
4) Su queste basi per me nvidia può diventare monopolista, probabile che smetterò di giocare. :)
5) Secondo te io finanzio nvidia perchè inventa tecnologie proprietarie di nicchia?? Ma per favore ;)
Poi il giorno in cui anche amd diventerà come nvidia se ne riparlerà, per il momento parliamo di un'azienda (amd) che sta puntando all'opensource e di un'azienda che continua a proporre cose proprietarie per eliminare l'opensource ed tutti i rivali sul mercato.
No scusa come fai a dire che si poteva implementare nella VGA se la scheda deve interagire col refresh del monitor in tempo reale ?
La scheda va montata internamente al monitor e non esternamente, anche perchè poi così facendo dovresti anche alimentarlo.
http://cdn.slashgear.com/wp-content/uploads/2013/10/nvidia_g-sync_3-580x387.jpg
Ma anche se fosse possibile, inserirlo nelle vga come prima cosa avrebbe posticipato l'attesa ai futuri modelli e non mi riferisco ai maxwell ma a quelli successivi ancora, e di conseguenza avrebbe tagliato fuori tutti quelli attuali.
Inoltre è a pagamento ovviamente ma non sei mica obbligato, quindi il problema dove stà ?
Se il discorso deve ridursi alla volpe che non può arrivare all'uva allora è un altra questione.
Dire che smetteresti di giocare se Nvidia diventasse monopolista è da fanboy sfegatati.
Anche io preferisco Nvidia generalmente ma le ultime 290x mi attraggono e non ho problemi a dirlo e se devo comprare un ATI per via delle circostanze, la compro senza troppe storie. Queste soluzioni proprietarie disturbano solo i possessori della casa concorrente e basta non di certo chi ha un prodotto della casa in questione.
Credo sia impossibile una cosa del genere via driver o semplicemente via scheda. La tecnologia cambia proprio la frequenza di refresh del monitor (range variabile da 40hz a 120hz, mi pare di capire), mentre molti monitor attuali supportano solo i 60hz (o 120hz per il 3D).
Comunque questa tecnologia sarebbe molto più apprezzabile se venisse supportata anche da schede AMD, ma credo che non succederà, così come non vedremo mai diffondersi il PhysX, probabilmente il Mantle, etc.
Per me poi le compagnie sbagliano a non fare un supporto totale. Finora, le tecnologie che funzionano solo con certe schede non hanno quasi mai avuto successo.
Attenzione che Mantle dovrebbe essere open.
Ha un refresh minimo di 40Hz?
Mi era sfuggita questa cosa.
Se ha un refresh minimo mi sembra comunque abbastanza inutile, in sostanza abbasserebbe la soglia problematica da 60fps a 40fps.
Utile in certi casi si, ma non così tanti da giustificare addirittura una componentistica hw apposita.
Non so, mi sembrava di aver letto 40hz minimo, ma a pensarci bene non sono sicuro. Forse intendevano dire che sotto i 40fps cominciano a non esserci più vantaggi evidenti (nel senso che il gioco non è fluido di suo).
PaulGuru
26-10-2013, 13:15
Attenzione che Mantle dovrebbe essere open.
Open ma solo di AMD e solo per certe architetture.
Ha un refresh minimo di 40Hz?
Mi era sfuggita questa cosa.
Il refresh minimo è di 30Hz non di 40.
http://images.anandtech.com/doci/7436/GEFORCE-G-SYNC-Performance_Chart_575px.jpg
Ha abbassato la soglia sì ti pare poco ? A me la maggior parte dei problemi con i giochi me li dà da ad incominciare 59 fino ai 55-50, e più incisivamente 45-40.
Ovviamente un frame non sincronizzato, lo scopo non è quello di far rimanere l'immagine perfettamente fluida come a 60 fissi anche quando cala perchè è impossibile, se un frames balla sarà sempre ballerino ma verrà comunque pulito prima di tutto dalle imperfezioni e secondo apparirà appunto più limpido.
Di quanto ? Sinceramente questo non lo sò, sarebbe proprio la cosa interessante da vedere.
Non è un discorso estremo, è un discorso da buon gamers, e nemmeno così tanto esigente visto che gioco sempre con configurazioni single GPU con modelli di fascia non-enthusiast e per il momento con monitors da 60Hz, mentre un estremo come lo definisci tu ha almeno un multi-GPU e gioca con 120-144fps fissi.
Ti rendi conto che stai dando al alcuni utenti degli ubriachi e ossessionati solo perchè sei un utente dalle basse pretese ? E stai discutendo in un thread relativo ad un prodotto dedicato ai puristi ?
Non tutti hanno la stessa percezione e sensibilità, io giocare sotto certi limiti non sono in grado perchè ho pesanti fastidi tali da compromettere tutto il gameplay del gioco, così come giocare senza filtri uguale, se tu non noti niente di tutto questo buon per te, si vede che non ha mai visto la qualità nella tua vita, beata l'ignoranza.
quoto
e il 3d vision no
e il gsync no
e il multi gpu no
e il 120hz no
e risoluzioni sopra 1920x1080 no, già non si può parlare di 2560, figuriamoci di surround...
almeno sono tecnoligie fruibili e funzionanti, altro che il mantello d'aria fritta ;)
:asd:
slide1965
26-10-2013, 16:24
Vedo che non ci siamo privati dei soliti commenti fuffa pro amd o pro nvidia.
Allora:
1-gsync l'ha inventato Nvidia ed è ovvio che funziona su gpu nvidia, non amd.
2-che sia di nicchia o non di nicchia c'e ne frega poco
3-che sia open ancora meno
4-nessuno è obbligato a comprarlo
5- chi ha una scheda amd è vorrebbe il gsync non dovrà far altro che vendere la sua amd e prendere un nvidia.
Non gli sta bene?
Perfetto, resta dov'è e si gode la sua amd e le mirabolanti performance offerte da mantle.
quindi:
se il gsync fa quello che dicono è una vera figata e se è una vera figata chi vuole dotarsi di tale figata lo fa, mentre chi non vuole, per qualsivoglia motivo, lascia perdere e continua a giocare come sempre ha fatto col suo bel vsync e relativo lag, magari con l'aggiunta del tb e ancora un po di lag o direttamente senza vsync e relativo tearing.
Fine della fiera, il problema è risolto.
Io spero solo in una cosa:
27 pollici 2560x1440 IPS con Gsync a 120hz
Buon weekend;)
Hulk9103
26-10-2013, 16:34
Vedo che non ci siamo privati dei soliti commenti fuffa pro amd o pro nvidia.
E fortuna che hai iniziato il post dicendo questo, altrimenti mi sarei preoccupato.
Meglio editare và.
AceGranger
26-10-2013, 16:42
E fortuna che hai iniziato il post dicendo questo, altrimenti mi sarei preoccupato.
Meglio editare và.
stai qui a lamentarti della cattivona nVidia per le tecnologie proprietarie dopo che l'amicona AMD ha presentato Mantle :asd: ?
molte volte è meglio una tecnologia proprietaria che FUNZIONA, piuttosto che averle Open e lasciate li a prendere la muffa e vederle implementate male.
la cosa è interessante, ma funziona anche per il multiplayer?
da quanto ho capito, mentre attualmente (mettiamo a 60fps fissi per facilità) hai 600 frame visualizzati in 10 secondi, con questa rivoluzione avresti tutti i frame renderizzati effettivamente visualizzati (cioè, se fai 30fps ne visualizzi 300, se fai 60 fps ne visualizzi 600).
In questo caso, però, non sarai con una sorta di slow-motion? altrimenti hai comunque dei salti tra due frame adiacenti.
probabilmente però l' ho capita male.
Hulk9103
26-10-2013, 17:20
stai qui a lamentarti della cattivona nVidia per le tecnologie proprietarie dopo che l'amicona AMD ha presentato Mantle :asd: ?
molte volte è meglio una tecnologia proprietaria che FUNZIONA, piuttosto che averle Open e lasciate li a prendere la muffa e vederle implementate male.
Io non mi sono mai lamentato, non mettermi parole in bocca, grazie :)
Ho solo detto che non mi piacciono le tecnologie proprietarie, rovinano il mercato e questo che ti piaccia o no è la realtà se poi non t'interessa e compri nvidia buon per te, non vengo certo a criticare il tuo acquisto.
Poi funziona, che ridere, ma la hai già provata? Poi vengo a fare un giro nella macchina del tempo. Mi ci porti??? :sofico:
slide1965
26-10-2013, 17:46
Ma secondo te un forum a cosa serve?
A discutere delle cose e a sentire le opinioni degli altri.
Se non vuoi discutere e sentire il parere degli altri limitati a leggere la notizia e salta i commenti.
A parte la fuffa pro amd e pro nvidia su cui hai ragione, è perfettamente normale discutere della cosa e confrontarla con le altre offerte sul mercato, magari a qualcuno interessa meglio capire come funzionano le cose anche nell'ottica di un futuro acquisto.
discutere è normale ed è anche utile e il forum è qui per questo;) , ma mi sembra un po meno utile, o se preferisci "fuffa", discutere se il gysnc è o non è di nicchia o se è o non è aperto.
ma che ci frega?
E' ovvio che se io, Nvidia, invento qualcosa di accattivante, cerco di venderla, avere l'esclusiva e recepire clientela in più.
Faresti così anche tu, non è una onlus.
Il discorso se è o non è di nicchia che senso ha?
La qualità è una nicchia?
si...e allora?
avere pc performanti in un mondo che viaggia a console da 4 soldi e tablet è di nicchia?
si, e allora?
Chissenefrega di discutere se gsync è o meno di nicchia dato che è ovvio che è di nicchia dato che la massa gioca su console e per i più, non sanno neanche qual'è la risoluzione della tv in cui giocano , possono essere interessati secondo te ad una finezza come il gsync?
Certo che no.
E' allora?
Cioè non riesco a capire l'interesse nell'affrontare certi discorsi.
E' evidente che l'utente interessato ai benefici del gsync non è certo il casual gamer o quello che si fa la partitella a fifa per natale e pasqua, parliamo di gamer assidui, esigenti e attenti alle evoluzioni del mercato, ovvero una nicchia ed è per questo ovvio che il gsync sia destinato a tale utenza.
L'unica cosa su cui,imho,ha senso discutere, è su come funziona questo gsync e sul costo di installazione.
PaulGuru
26-10-2013, 17:57
Cosa vuol dire solo di AMD?
Se è open può implementarla chiunque, probabilmente sarà AMD che rilascerà Mantle ma chiunque può sviluppare hw compatibile esattamente come sia AMD che Nvidia sviluppano HW compatibile con directx o OpenGL che sono comunque di altri.
.Ma stiamo skerzando ? Mantle per Nvidia ?
Mi sà che non hai chiaro cosa si intende per "Open", vuol dire semplicemente open-source ovvero con codice sorgente accessibile a tutti non che sia estendibile a tutti i prodotti. :doh:
Le API sono specifiche dell'architettura SI di AMD.
slide1965
26-10-2013, 17:58
Guarda non sono io che ho tirato fuori il discorso "nichia" e sinceramente frega poco.
Però è comunque una informazione utile, magari uno vuole comprarlo però se lo comprano in 10 nel mondo morirà presto e saranno soldi buttati acquistare un monitor compatibile.
É solo un esempio, per farti capire che non sei tua a dover dire agli altri di cosa devono discutere.
Poi confesso che un po' frangiavano la fava pure a me, ma non è questo il modo di farli smettere :D
ehmmm....rendiamoci conto che in giro c'è ancora gente che non sa e non si accorge che attivando il vsync si introduce lag e qui si è discusso del perchè il gsync è di nicchia.:doh:
la fiera dell'ovvio
PaulGuru
26-10-2013, 18:01
Io non mi sono mai lamentato, non mettermi parole in bocca, grazie :)
Ho solo detto che non mi piacciono le tecnologie proprietarie, rovinano il mercato e questo che ti piaccia o no è la realtà se poi non t'interessa e compri nvidia buon per te, non vengo certo a criticare il tuo acquisto.
Poi funziona, che ridere, ma la hai già provata? Poi vengo a fare un giro nella macchina del tempo. Mi ci porti??? :sofico:
Scusa ma non hai visto i video dimostrativi ? A funzionare funziona e non c'è bisogno del supporto ludico perchè agisce esternamente agli applicativi.
Io invece di Mantle non ho visto ancora nulla.
slide1965
26-10-2013, 18:05
Scusa ma non hai visto i video dimostrativi ? A funzionare funziona e non c'è bisogno del supporto ludico perchè agisce esternamente agli applicativi.
Io invece di Mantle non ho visto ancora nulla.
scusate,ma poi che ci azzeca discutere di mantle e di gsync, che non c'entrano una fava?:confused:
mantle promette di essere un api close to metal che fornirà (per il momento a detta dell'ufficio marketing di amd) ai possessori di gpu amd prestazioni da brivido supermegaottimizzate sui giochi che le supportano (poi voglio vedere quanto saranno close to metal queste api considerando che il 99,9999999% dei giochi su pc sono porting da console dove non si usa mantle ma altre api)
gsync è una tecnologia che va "tarare" monitor e framerate in realtime è serve solo (si fa per dire) a rendere il gaming piu fluido e il meno scattoso possibile e con meno latenza possibile
PaulGuru
26-10-2013, 18:09
Secondo me non è tanto se una tecnologia è proprietaria o meno, dipende dalla tecnologia.
In questo caso è una tecnologia proprietaria che coinvolge l'hw (oltre alla vga ovviamente) per usarla devo comprare un monitor più costoso e se mai decidessi di comprare un'altra vga non nvidia sarebbero soldi buttati.
Quando servono particolari requisiti HW come in questo caso, imho sarebbe preferibile uno standard che può essere usato da tutti.
Poi se Nvidia usa g-synch e AMD inventa pippo-synch che è differente e funziona in modo leggermente diverso frega poco, ma il monitor deve essere compatibile con entrambi.
Il tutto ribadisco imho :)
Se Nvidia ha sviluppato una soluzione e AMD no dimmi come dovrebbe fare il produttore di monitor a renderlo compatibile con entrambi. :confused:
Anche 3D Vision è esclusiva Nvidia e i monitor da 120-144Hz sono al 99% compatibili con esso e nemmeno l'ombra di uno compatibile con l'HD3D di AMD.
Soldi buttati ? basta che continui a comprare Nvidia e vedi che non li butti e se non vuoi comprare Nvidia vendi il monitor ad un prezzo superiore visto che effettivamente varrà di più.
Se non ti piace tutto ciò, stai con AMD che nessuno ti dice nulla.
Gsynch funziona già ora con i video dimostrativi e porterà i vantaggi subito, appena esce e non si dovrà affidare alla pietà di qualche SH o alla speranza che qualcuno di buona fede lo adoperi e il tutto a tempo del tutto indeterminato, quindi do sta il problema ?
Che AMD non l'ha sviluppato ? Che cosa dovrebbe fregare ad Nvidia ?
Cico the SSJ
26-10-2013, 18:44
Comunque le critiche contro mantle non hanno nulla di nulla a che fare contro le critiche al gsync/physix o altro chiuso di nvidia.
sono 2 cose totalmente diverso. mantle non è come physix.
Mantle è una possibilità che da amd agli sviluppatori volenterosi di poter riscrivere il loro codice in un altro linguaggio che dialoga meglio con la scheda video e quindi ha performance migliori.
tutto quello che fai su mantle con velocità un po migliore lo puoi fare in normale dx.
Non sono cose che bloccano nvidia.
Detto questo comunque anche da ipotetico sfegatato della perfezione di ogni minima righetta in un gioco ( che poi se un gioco mi prende me ne sbatto di vedere una righetta, anzi non me ne accorgo proprio... qui mi sa che ormai abbiamo (avete) veramente perso il concetto di giocare, come diceva qualcuno un paio di pagine fa.. ) a sto punto preferirei investire quei ~50,60,70,..,100 euro che saranno invece che in kit o in monitor munito, in una scheda che mi assicura i 60 o+ fps. se poi voglio me li limito io via software (non via vsync) a 60 e mi tolgo anche il 99% dei difetti visivi.
Per cui continuo a vederla una cosa inutile.. boh
AceGranger
26-10-2013, 18:49
Poi funziona, che ridere, ma la hai già provata? Poi vengo a fare un giro nella macchina del tempo. Mi ci porti??? :sofico:
era in generale, non riferito esplicitamente al g-sync
Hulk9103
26-10-2013, 18:50
Scusa ma non hai visto i video dimostrativi ? A funzionare funziona e non c'è bisogno del supporto ludico perchè agisce esternamente agli applicativi.
Io invece di Mantle non ho visto ancora nulla.
Si certo ci mancherebbe che alla presentazione di una nuova tecnologia la mostrano non o semi funzionante, eddai è la fiera dell'ovvio quello che vai dicendo. Io lo voglio vedere sul lato pratico dell'utenza, delle review e di video fatti da utenti come me o come te che fanno test e differenze con o senza gsync, poi valuterò.
Non si può paragonare il gsync a mantle sono cose completamente diverse, la vedrai su BF4.
Una cosa è sicuro, amd non la fa pagare, nvidia si e su questo non si discute, come se non avesse già spillato abbastanza soldi con i suoi scarti.
PS. Mi ricordo che alla presentazione di W8 si parlava di retrocompatibilità estrema e invece su molti processori non vecchissimi, anni 2006-2007, sono incompatibili con W8. Questo uno dei tanti esempi di vantare, presentare e far vedere funzionare una cosa che poi invece non è stato. Non dico che sto coso sarà uguale, ma aspettare di vederlo in azione mi sembra molto lecito. ;)
Si certo ci mancherebbe che alla presentazione di una nuova tecnologia la mostrano non o semi funzionante, eddai è la fiera dell'ovvio quello che vai dicendo. Io lo voglio vedere sul lato pratico dell'utenza, delle review e di video fatti da utenti come me o come te che fanno test e differenze con o senza gsync, poi valuterò.
Non si può paragonare il gsync a mantle sono cose completamente diverse, la vedrai su BF4.
Una cosa è sicuro, amd non la fa pagare, nvidia si e su questo non si discute, come se non avesse già spillato abbastanza soldi con i suoi scarti.
PS. Mi ricordo che alla presentazione di W8 si parlava di retrocompatibilità estrema e invece su molti processori non vecchissimi, anni 2006-2007, sono incompatibili con W8. Questo uno dei tanti esempi di vantare, presentare e far vedere funzionare una cosa che poi invece non è stato. Non dico che sto coso sarà uguale, ma aspettare di vederlo in azione mi sembra molto lecito. ;)
ma cosa vai dicendo... se amd per un eyefinity a 60hz, richiede almeno l'acquisto di un adattatore - se non prendi una vga di un partner che ne includa uno
per quello a 120hz sono quasi €100 ad adattatore dp/minidp to dvi dual link, che non ti include mai nessuno
dato che ti ritrovi con una vga con 1 dvi, 1 hdmi, 1 dp, e una mini dp
i miei monitor non hanno minidp o dp?
oh cavolo... mi attacco! :asd: grande amd
nvidia con una vga, surround a 60hz, infili 2 dvi e un hdmi... provaci con una vga amd e vedrai che bel freeze...
oltre al fatto di non avere problemi con sli e surround, mentre amd ti fa pagare gli adattatori, metti 2 vga e poi vai alla sagra dello stutter se va bene :asd:
hd3d con amd?
hai un monitor compatibile? no... allora ti attacchi...
poi vorresti un gsync preparato da nvidia, compatibile con tutte le vga...
ma dai su, fai il serio.
AceGranger
26-10-2013, 19:35
sono 2 cose totalmente diverso. mantle non è come physix.
Mantle è una possibilità che da amd agli sviluppatori volenterosi di poter riscrivere il loro codice in un altro linguaggio che dialoga meglio con la scheda video e quindi ha performance migliori.
tutto quello che fai su mantle con velocità un po migliore lo puoi fare in normale dx.
Non sono cose che bloccano nvidia.
anche PhysX è una possibilita che da nVidia agli sviluppatori volenterosi di inserire effetti migliori in un'altro linguaggio che dialoga meglio con la scheda video.... non prendiamoci in giro... sono esattamente la stessa cosa.
Sono entrambe 2 tipologie di ottimizzazioni riservate a 2 architetture differenti, una si occupa di aumentare le prestazioni in generale e una si occupa di aumentare e ottimizzare gli effetti speciali e la fisica ( riferito alle nuove tecnologie presentate assieme al G-sync ), ed entrambe sono RISERVATE alle rispettive VGA delle ideatrici del codice.
poi "Volenterosi" fa abbastanza ridere, senza la vagonata di soldi che avra pagato AMD per fargli mettere Mantle ( che sono gli stessi che paga nVidia per le sue cose ) con il cavolo che quelli di DICE si sarebbero messi a fare la Patch per BF4.
PaulGuru
27-10-2013, 08:09
Ma è semplice, bisognerebbe che quanto riguarda la compatibilità non sia proprietario, cioè basterebbe che il protocollo (anche se non credo sia il termine corretto) con cui la vga comunica con il monitor sia usabile liberamente.Tutti i brand di gaming monitor hanno annunciato la partnership con Nvidia per sfornare una versione dei loro modelli con sto kit.
Prendiamo per esempio la Asus che farà uscire il VG248QE col kit, come dovrebbe fare la Asus a rendere questo "protocollo" usabile anche per AMD se il supporto arriva solo dal produttore ? Cos'è si mette ad hackerare il firmware per predisporlo ad un funzionamento con AMD che fra l'altro non ha nemmeno il supporto nei driver e quindi non andrebbe comunque ?
Senza contare che il modulo Gsynch si tratta di un processore Nvidia + 256MB di RAM.
Si certo ci mancherebbe che alla presentazione di una nuova tecnologia la mostrano non o semi funzionante, eddai è la fiera dell'ovvio quello che vai dicendo. Io lo voglio vedere sul lato pratico dell'utenza, delle review e di video fatti da utenti come me o come te che fanno test e differenze con o senza gsync, poi valuterò.Scusa ma si vede chiaramente che il tearing è sparito per davvero rispetto alla soluzione con Vsynch, e lo stesso vale anche sul gioco Tomb Raider, questo fisicamente è impossibile che sia una farsa o un semi funzionamento.
Non si può paragonare il gsync a mantle sono cose completamente diverse, la vedrai su BF4.
Una cosa è sicuro, amd non la fa pagare, nvidia si e su questo non si discute, come se non avesse già spillato abbastanza soldi con i suoi scarti.
Nemmeno Nvidia ha fatto pagare l'adaptive Vsynch, 3D surround e Physx, roba su piano software non c'è nulla da pagare ma spesso c'è ben poco anche che funziona.
Di quali scarti e di quali soldi parti ? Fino ad ora le tecnologie proprietarie sono state tutte gratis a parte il 3D Vision che devi per forza pagare gli occhialini e per giunta sono anche opzionali, o per caso pretendevi che fossero in regalo ?
PS. Mi ricordo che alla presentazione di W8 si parlava di retrocompatibilità estrema e invece su molti processori non vecchissimi, anni 2006-2007, sono incompatibili con W8.Cosa centra Windows con Nvidia ?
Comunque sia parlare di modelli del 2006 come NON-VECCHI è una bestemmia, la retrocompatibilità è sempre stata una spina nel fianco dell'ottimizzazione e anche io non la prediligo ma anche se non centrasse nulla con essa, roba del 2006 a casa mia dire che sono obsoleti è un complimento, l'Atom Bay Trail va quanto un E2120 e quindi di più anche degli Athlon64 e ci lamentiamo di ciò ? Se facessimo retro compatibilità a vita poi chi incentiva l'aggiornamento dei componenti ? In giro ci sono ancora persone col P4 e XP ci rendiamo conto ?
sintopatataelettronica
27-10-2013, 08:35
anche PhysX è una possibilita che da nVidia agli sviluppatori volenterosi di inserire effetti migliori in un'altro linguaggio che dialoga meglio con la scheda video.... non prendiamoci in giro... sono esattamente la stessa cosa.
Non dici il vero.
Con PhysX molti giochi hanno effetti in più che senza non puoi visualizzare, non si tratta solo di ottimizzazioni delle performance ottenute migliorando la comunicazione tra GPU e CPU (come mantle) .. in assenza del quale il gioco gira comunque alla stessa maniera su piattaforma Nvidia/INTEL (non sfruttando queste ottimizzazioni)
sintopatataelettronica
27-10-2013, 08:48
Per cui continuo a vederla una cosa inutile.. boh
Più che assolutamente inutile G-Sync ha un'utilità molto limitata in relazione alle complicazioni (e costi aggiuntivi) che comporta.
L'unica cosa CERTA della tecnologia è che eliminerà di fatto il tearing (sincronizzando il refresh del monitor con i fotogrammi generati dalla scheda video).. a patto che il framerate non scenda MAI sotto i 30 FPS (altrimenti il tearing ci sarebbe comunque, visto che il limite minimo per il refresh è stato fissato ai 30 hz)
Chi si aspetta invece che eliminerà lag e stuttering non ci ha capito molto, secondo me, o è troppo ottimista, in quanto, perché ciò accada, il framerate più di tanto deve mantenersi stabile e avere oscillazioni contenute.
Perché voglio vedere se per 2 o 3 secondi il refresh mi passa a 30hz e poi a 60 e poi ritorna per qualche secondo (o più!) a 30.. che razza di fluidità posso avere xD
Se non costasse niente e non comportasse il discorso del monitor dedicato (o dispositivo dedicato) sarebbe una piccola cosa con la sua (limitata) utilità.. ma per quella che è l'implementazione e il rapporto complicazione/benefici per me flopperà alla grande .. come tante altre soluzioni che un po' utili lo sono (ma non abbastanza)..
AceGranger
27-10-2013, 08:50
Non dici il vero.
Con PhysX molti giochi hanno effetti in più che senza non puoi visualizzare, non si tratta solo di ottimizzazioni delle performance ottenute migliorando la comunicazione tra GPU e CPU (come mantle) .. in assenza del quale il gioco gira comunque alla stessa maniera su piattaforma Nvidia/INTEL (non sfruttando queste ottimizzazioni)
il che vuol dire che non gira uguale; se Mantle fara quello che ha promesso dovrebbe permettere di far girare il gioco a parita di frame con impostazioni grafiche migliori.
nella forma sono 2 ottimizzazioni differenti, ma nella sostanza sono e rimangono 2 ottimizzazioni proprietarie, che senza, di certo, non fanno gridare allo scandalo in nessuno dei 2 casi.
PaulGuru
27-10-2013, 09:02
Più che assolutamente inutile G-Sync ha un'utilità molto limitata in relazione alle complicazioni (e costi aggiuntivi) che comporta.
L'unica cosa CERTA della tecnologia è che eliminerà di fatto il tearing (sincronizzando il refresh del monitor con i fotogrammi generati dalla scheda video).. a patto che il framerate non scenda MAI sotto i 30 FPS (altrimenti il tearing ci sarebbe comunque, visto che il limite minimo per il refresh è stato fissato ai 30 hz)
Chi si aspetta invece che eliminerà lag e stuttering non ci ha capito molto, secondo me, o è troppo ottimista, in quanto, perché ciò accada, il framerate più di tanto deve mantenersi stabile e avere oscillazioni contenute.
Perché voglio vedere se per 2 o 3 secondi il refresh mi passa a 30hz e poi a 60 e poi ritorna per qualche secondo (o più!) a 30.. che razza di fluidità posso avere xD
Se non costasse niente e non comportasse il discorso del monitor dedicato (o dispositivo dedicato) sarebbe una piccola cosa con la sua (limitata) utilità.. ma per quella che è l'implementazione e il rapporto complicazione/benefici per me flopperà alla grande .. come tante altre soluzioni che un po' utili lo sono (ma non abbastanza)..
Questa è bella !!!
Per stuttering si intendono i tempi con i quali i frames sono distribuiti all'interno di un intervallo preciso ( in questo caso 1 sec ), ovvero dove anche quando hai un frame rate elevato il gioco viene visualizzato come se ne facesse molti di meno ed a causarlo sono gli intervalli irregolari a cui si susseguono i frames, a me quando scende sotto i 60 non è mai passato a 30-20-15, è sempre sceso a tutti i valori intermedi senza nessun problema in quanto il triple buffering c'è su tutti i titoli già da parecchio e a chi non funziona ha qualche problema suo.
A me sinceramente non è mai capitata una cosa del genere, i famigerati tagli di cui alcuni ancora parlano non li ho mai visti in vita mia nè con ATI nè con Nvidia e nè ho mai utilizzato programmini di terze parti come molti han il vizio di fare e forse origine del tutto.
E parlare dicendo che sotto i 30 non funziona fa alquanto ridere, io se scendo a 30 il tearing e lo stuttering sono l'ultimo dei problemi, già a 45 a me il gioco gira da skifo, a 30 è una sequenza di fotografie, quindi di discorsi inerenti a giocare sotto i 30 non sono nemmeno concepiti.
Parliamoci chiaro un frame che balla da 56-58-59-60-55-57 ecc non sarà mai come un 60 fisso e sincronizzato ma il tearing che sia o meno visibile lo spezzone o meno viene percepito come scatto in quanto gli spezzoni passano da un frame all'altro saltando quelli intermedi, e quindi oltre a compromettere visivamente aggiungono scattosità assieme anche al ghosting a tutta la riproduzione.
PaulGuru
27-10-2013, 09:12
preferisco investire quei ~50,60,70,..,100 euro che saranno invece che in kit o in monitor munito, in una scheda che mi assicura i 60 o+ fps. se poi voglio me li limito io via software (non via vsync) a 60 e mi tolgo anche il 99% dei difetti visivi. Si peccato che il kit lo compri 1 volta sola, le schede col plus prestazionale dovrai comprarle più volte man mano che si aggiornano.
E inoltre è un affermazione inutile, ti compri sia la scheda più potente che il kit assieme, non è che c'è uno o l'altro, non è un prodotto destinato a chi cerca compromessi.
Non si può paragonare il gsync a mantle sono cose completamente diverse, la vedrai su BF4.
INCREDIBILE !!!
Ah no è dietro ;)
http://media.bestofmicro.com/Y/Q/404306/original/Ultra-1920.png
Test del 14 ottobre con ultimi drivers.
Dimonios
27-10-2013, 09:15
INCREDIBILE !!!
Ah no è dietro ;)
http://media.bestofmicro.com/Y/Q/404306/original/Ultra-1920.png
Test del 14 ottobre con ultimi drivers.
Mi sa che non hai capito come e quando verrà implementato Mantle. ;)
PaulGuru
27-10-2013, 09:23
Mi sa che non hai capito come e quando verrà implementato Mantle. ;)
Infatti non ho un idea chiara ma mi è stato detto nel thread della 290x che è implementato direttamente nel motore grafico.
Se vuoi spiegarmelo cortesemente te sarei molto curioso a riguardo ;)
PaulGuru
27-10-2013, 09:37
Ma non è certo il produttore di monitor che deve fare questo.
Poteva farlo Nvidia, facendo esattamente quello che ha fatto ma dando la possibilità anche ad altri produttori di poter usare questo "protocollo".
Insomma banalmente poteva proporre il "protocollo" con cui la vga comunica con il monitor uno standard open.
Bivvoz guarda che siamo il 27 Ottobre non il 25 Dicembre, la casa produttrice in questione ha un nome ed è "NVIDIA" e non "BABBO NATALE", mi sà che hai sbagliato azienda. ;)
Ogni azienda quando tira fuori qualcosa di innovativo se lo tiene per sè come esclusiva dei propri prodotti allo scopo di incentivarne la vendita, se si mette a fare un prodotto anche per la rivale dove sarebbe il vantaggio per loro ? E poi i soldi investiti nello sviluppo da dove li riguadagnerebbe ? Non l'han mica sfornata gratis sta roba, cioè non è che un dipendente un giorno l'ha sognato e il CEO l'ha sviluppata nello sgabuzzino di casa.
Inoltre il nostro sistema economico è basato su un regime chiamato "CAPITALISTA", ci sarà un motivo no ? ;)
PS : Mantle non a caso è ESCLUSIVA PROPRIETARIA BLINDATA per le schede ATI.
Dimonios
27-10-2013, 09:51
Infatti non ho un idea chiara ma mi è stato detto nel thread della 290x che è implementato direttamente nel motore grafico.
Se vuoi spiegarmelo cortesemente te sarei molto curioso a riguardo ;)
Ad oggi Mantle non è integrato nell'engine di BF4. Sarà aggionato a questo con una patch a dicembre. Fino ad allora le schede AMD utilizzeranno le directx come le schede nVidia. ;)
PaulGuru
27-10-2013, 10:30
Ad oggi Mantle non è integrato nell'engine di BF4. Sarà aggionato a questo con una patch a dicembre. Fino ad allora le schede AMD utilizzeranno le directx come le schede nVidia. ;)
Quindi Mantle non influenzerà l'intero motore grafico ma dipenderà da singolo gioco in gioco.
Dimonios
27-10-2013, 10:55
Quindi Mantle non influenzerà l'intero motore grafico ma dipenderà da singolo gioco in gioco.
Poiché il motore di gioco di BF4 sarà scritto anche per Mantle, qualsiasi gioco che sfrutti il FB3 potrà utilizzare Mantle senza troppi problemi. Si parla di oltre 15 giochi, la maggior parte tripla A. Per altri motori grafici si vedrà.
Cico the SSJ
27-10-2013, 11:00
il che vuol dire che non gira uguale; se Mantle fara quello che ha promesso dovrebbe permettere di far girare il gioco a parita di frame con impostazioni grafiche migliori.
nella forma sono 2 ottimizzazioni differenti, ma nella sostanza sono e rimangono 2 ottimizzazioni proprietarie, che senza, di certo, non fanno gridare allo scandalo in nessuno dei 2 casi.
Ancora, è una cosa diversa!
Ora non ho seguito con precisione giochi con physix attivo, non avendo in questi anni avuto una scheda che lo supportasse, per cui l'esempio che ti riporto è vecchio e in questo caso molto limitato, ma andremo ad esagerarlo:
Ho in mente l'immagine di uno dei primi giochi che supportavano Physix, Mirror's Edge. c'era una bellissima immagine comparativa in cui con nvidia lungo un corridoio vi erano delle bandiere o delle tende che svolazzavano a mezz'aria oscurando la visione di cosa ci fosse dietro. su amd il corridoio era vuoto.
Ora c'è una notevole differenza (AMMETTENDO, non era il caso, che il giocatore potesse nascondersi dietro una tenda per non farsi vedere..) se in un gioco su una scheda hai un elemento di gameplay in più rispetto all'altra, piuttosto che avere lo stesso elemento su entrambe ma in una con dettaglio grafico maggiorato.
Mi pare facile da capire
Che poi il 99% delle volte anche physix serva solo per abbellire acqua, mantelli o cose così,è ok, paragonabile a mantle. ma mantle si ferma qui. Quando invece P. va a modificarmi la fisica di un barile che cerco di buttare giu da un dirupo per colpire qualcuno(o come l'esempio di prima), a quel punto mi cambia il gioco a seconda della scheda. li non mi va piu bene.
PaulGuru
27-10-2013, 11:07
Ancora, è una cosa diversa!
Ora non ho seguito con precisione giochi con physix attivo, non avendo in questi anni avuto una scheda che lo supportasse, per cui l'esempio che ti riporto è vecchio e in questo caso molto limitato, ma andremo ad esagerarlo:
Ho in mente l'immagine di uno dei primi giochi che supportavano Physix, Mirror's Edge. c'era una bellissima immagine comparativa in cui con nvidia lungo un corridoio vi erano delle bandiere o delle tende che svolazzavano a mezz'aria oscurando la visione di cosa ci fosse dietro. su amd il corridoio era vuoto.
Ora c'è una notevole differenza (AMMETTENDO, non era il caso, che il giocatore potesse nascondersi dietro una tenda per non farsi vedere..) se in un gioco su una scheda hai un elemento di gameplay in più rispetto all'altra, piuttosto che avere lo stesso elemento su entrambe ma in una con dettaglio grafico maggiorato.
Mi pare facile da capire
Che poi il 99% delle volte anche physix serva solo per abbellire acqua, mantelli o cose così,è ok, paragonabile a mantle. ma mantle si ferma qui. Quando invece P. va a modificarmi la fisica di un barile che cerco di buttare giu da un dirupo per colpire qualcuno(o come l'esempio di prima), a quel punto mi cambia il gioco a seconda della scheda. li non mi va piu bene.
Con Physx Nvidia aggiunge opzionalmente effetti visivi che con AMD non puoi.
Con Mantle AMD aggiunge opzionalmente plus prestazionali e visivi che con Nvidia non puoi.
Quindi ?
Stai solo dicendo che reputi il vantaggio prestazionale più utile di quello visivo, ma che sia opinionabile o meno alla fine il concetto è lo stesso.
slide1965
27-10-2013, 11:09
L'unica cosa CERTA della tecnologia è che eliminerà di fatto il tearing (sincronizzando il refresh del monitor con i fotogrammi generati dalla scheda video).. a patto che il framerate non scenda MAI sotto i 30 FPS (altrimenti il tearing ci sarebbe comunque, visto che il limite minimo per il refresh è stato fissato ai 30 hz)
certo che il limite minimo è 30hz, anche perchè se il gioco scende sotto i 30 i problemi sono altri, ovvero bisogna aggiornare il pc.
Chi si aspetta invece che eliminerà lag e stuttering non ci ha capito molto, secondo me, o è troppo ottimista, in quanto, perché ciò accada, il framerate più di tanto deve mantenersi stabile e avere oscillazioni contenute.
Perché voglio vedere se per 2 o 3 secondi il refresh mi passa a 30hz e poi a 60 e poi ritorna per qualche secondo (o più!) a 30.. che razza di fluidità posso avere xD
io invece credo che tu non ci abbia capito molto ,dato che l'eliminazione dello stuttering e del lag non è una diretta conseguenza del gysnc ma avviene di conseguenza.
Il lag te lo da il vsync e il tb, che grazie al gsync si potran abbandonare.
Se non costasse niente e non comportasse il discorso del monitor dedicato (o dispositivo dedicato) sarebbe una piccola cosa con la sua (limitata) utilità.. ma per quella che è l'implementazione e il rapporto complicazione/benefici per me flopperà alla grande .. come tante altre soluzioni che un po' utili lo sono (ma non abbastanza)..
Se non costasse niente?
guarda che quelli di nvidia non sono una onlus.
siamo seri....su
Non si può paragonare il gsync a mantle sono cose completamente diverse, la vedrai su BF4.
vediamo, cosa dovremmo vedere su bf4?
Dimonios
27-10-2013, 11:16
A mio parere avrebbe un successo spropositato questo G-Sync se fosse compatibile con la maggior parte delle schede video in commercio (suppongo basti un aggiornamento firmware delle stesse e di quello del modulo g-sync per renderlo possibile. La limitazione hardware è una pagliacciata).
NVIDIA guadagnerebbe uno sproposito. Invece per spingere la vendita delle proprie ultime schede video (chi ha Fermi, anche una GTX580, si attacca al tram) tira fuori questa storia della incompatibilità.
E' questo che non mi piace del G-Sync, non il fatto che costi 100 euro e sia di nvidia.
slide1965
27-10-2013, 11:21
Mi sa che non hai capito come e quando verrà implementato Mantle. ;)
mantle arrivera su bf4 intorno a Natale sottoforma di patch.
adesso, spiegacelo tu come verrà implentato?
Poiché il motore di gioco di BF4 sarà scritto anche per Mantle,
in quale film?
Il motore del gioco è il frostbite, quello è e quello rimane.
Il gioco è un porting da console è utilizza un motore grafico multipiattaforma.
Il gioco non è un esclusiva pc ,come non lo saranno il 99,999% dei giochi che usciranno.
Le console non useranno mantle per cui mantle sarà un implementazione successiva ad una programamzione effettuata su altre api.
Ergo:
la favola che mantle sia un api close to metal rimarrà appunto una favola
Obrigado
27-10-2013, 11:39
grande slide!
Dimonios
27-10-2013, 11:55
mantle arrivera su bf4 intorno a Natale sottoforma di patch.
adesso, spiegacelo tu come verrà implentato?
Questo devi chiederlo alla DICE. ;)
in quale film?
Il motore del gioco è il frostbite, quello è e quello rimane.
Il gioco è un porting da console è utilizza un motore grafico multipiattaforma.
Il gioco non è un esclusiva pc ,come non lo saranno il 99,999% dei giochi che usciranno.
Le console non useranno mantle per cui mantle sarà un implementazione successiva ad una programamzione effettuata su altre api.
Ergo:
la favola che mantle sia un api close to metal rimarrà appunto una favola
Il gioco viene programmato su PC. Che sia multipiattaforma è un altro paio di maniche.
Ogni azienda quando tira fuori qualcosa di innovativo se lo tiene per sè come esclusiva dei propri prodotti allo scopo di incentivarne la vendita, se si mette a fare un prodotto anche per la rivale dove sarebbe il vantaggio per loro ? E poi i soldi investiti nello sviluppo da dove li riguadagnerebbe ? Non l'han mica sfornata gratis sta roba, cioè non è che un dipendente un giorno l'ha sognato e il CEO l'ha sviluppata nello sgabuzzino di casa.
Inoltre il nostro sistema economico è basato su un regime chiamato "CAPITALISTA", ci sarà un motivo no ? ;)
PS : Mantle non a caso è ESCLUSIVA PROPRIETARIA BLINDATA per le schede ATI.
Esistono diversi modelli di business, tu ne descrivi uno, e non è necessariamente il migliore.
Una tecnologia tenuta proprietaria ha minori possibilità di diffondersi adeguatamente e di avere successo. Se si vuole una maggiore diffusione di questa tecnologia (e ci sono tanti motivi per volerlo), un'azienda potrebbe preferire rilasciarla liberamente.
Sarebbe comunque in vantaggio sui concorrenti, perchè ha sviluppato i propri prodotti per sfruttarla meglio ed è in anticipo con i tempi sulla concorrenza.
Inoltre potrebbero esserci dei vantaggi "globali", una tecnologia vincente può promuovere il mercato in cui ti muovi e di conseguenza migliorare le prospettive della tua azienda, ma solo se capace di diffondersi.
Per quanto riguarda il tuo post scriptum, questo è ciò che è riportato nell'articolo su mantle:
HU (domanda): In occasione di GPU '14 AMD ha annunciato Mantle: [...] Ho tuttavia la personale sensazione che Mantle possa essere visto come un approccio proprietario, [...] Non pensi che una strategia di questo tipo sia controproducente e soprattutto lontana dall'approccio open che ha sempre contraddistinto AMD in questi ultimi anni?
RK (risposta): Questa è stata la prima occasione per discutere di Mantle davanti al pubblico ed è bene ricordare come questi siano di fatto i primi giorni di vita per Mantle. Siamo assolutamente disponibili affinché Mantle sia una tecnologia Open accessibile a tutti. [...]
Non mi sembra così blindata ;)
Con Physx Nvidia aggiunge opzionalmente effetti visivi che con AMD non puoi.
Non proprio.
Gli effetti puoi averli anche con schede AMD, ci sono tante alternative a PhysX, il problema è che se chi crea il gioco scegli di usare Physx non da accesso a chi ha schede AMD a queste "aggiunte".
Oltretutto in passato è stato già dimostrato come PhysX girasse anche su schede AMD e come su CPU fosse chiaramente "castrata" (dato che anche la cpu avrebbe potuto gestire quegli effetti particellari, ma ovviamente in questo modo nessuno avrebbe pensato di necessitare di una scheda Nvidia per averli).
Francamente il modo in cui hanno gestito la questione PhysX è stata una di quelle cose che ha fatto calare il mio apprezzamento per Nvidia.
Il motore del gioco è il frostbite, quello è e quello rimane.
Il gioco è un porting da console è utilizza un motore grafico multipiattaforma.
Il gioco non è un esclusiva pc ,come non lo saranno il 99,999% dei giochi che usciranno.
Le console non useranno mantle per cui mantle sarà un implementazione successiva ad una programmazione effettuata su altre api.
Ergo:
la favola che mantle sia un api close to metal rimarrà appunto una favola
Non conosco esattamente la situazione di BF4, ma il tuo ragionamento non lo capisco.
Se il Frostbite è un motore multipiattaforma (ossia viene ottimizzato per diversi sistemi, quindi tu programmi il gioco, poi a seconda di dove deve girare viene utilizzata una versione del motore ottimizzata su quella piattaforma), allora nella sua declinazione PC/AMD utilizzerà Mantle, e tutti i giochi che useranno quel motore usufruiranno delle migliorie legate ad esso.
E comunque mantle è esattamente quello, un approccio alla programmazione più "close to metal" della attuali api grafiche.
Hulk9103
27-10-2013, 12:20
Calabar hai dimenticato la cosa più importante:
1) Mantle: gratis, accessibile ed utilizzabile da tutti.
2) Gsynch: a pagamento, ed accessibile solo per chi compra monitor e/o vga adatte.
Poi comunque sia parliamo con possessori di 3-way-sli di Titan, probabile che siano un pò di parte :p
appleroof
27-10-2013, 12:43
cut
Non mi sembra così blindata ;)
cut
hai dimenticato di postare quello subito prima....
HU (domanda )There were reports yesterday about Mantle being an open standard ??? (ci sono voci di ieri sul fatto che Mantle è uno standard aperto???)
Chris Hook, Head of PR - Mantle is an industry standard. (Mantle è uno standard industriale, tradotto meglio: funziona solo sulle nostre GPU oppure su GPU identiche in tutto e per tutto :asd: )
lapidario
http://www.hardware.fr/focus/89/amd-mantle-interview-raja-koduri.html
poi giorni dopo è uscito questo:
From a mile-high perspective, Mantle is the harmony of three essential ingredients:
A thin driver within the AMD Catalyst™ software suite that allows applications to speak directly to the Graphics Core Next architecture.
A Graphics Core Next-enabled graphics chip, such as the AMD Radeon™ R9 Series, R7 Series or HD 7000 Series GPUs.
And an application or game engine written to utilize the Mantle SDK, such as the Frostbite™ 3 engine within Battlefield™ 4.
To put a fine point on it, Mantle is a graphics language that’s symbiotic with the Graphics Core Next architecture (tradotto, Mantle è un linguaggio grafico che lavora in simbiosi con GCN), which developers can use to augment their game engine for ideal performance on that architecture.
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2013/10/17/the-four-core-principles-of-amd-s-mantle
si, direi che è blindata.
sintopatataelettronica
27-10-2013, 13:09
il che vuol dire che non gira uguale; se Mantle fara quello che ha promesso dovrebbe permettere di far girare il gioco a parita di frame con impostazioni grafiche migliori.
nella forma sono 2 ottimizzazioni differenti, ma nella sostanza sono e rimangono 2 ottimizzazioni proprietarie, che senza, di certo, non fanno gridare allo scandalo in nessuno dei 2 casi.
no, non è affatto la stessa cosa, perché se hai CPU/GPU abbastanza potenti il fatto che ci sia o meno mantle è irrilevante e ti permette di far girare il gioco al massimo dettaglio comunque anche se hai una scheda nvidia
con Physx invece se hai una scheda ATI/AMD potentissima e una CPU all'altezza comunque gli effetti che la richiedono non li vedrai mai.
Mantle ottimizza semplicemente le prestazioni dell'hardware, migliorando la cooperazione tra CPU e GPU, non aggiunge effetti specifici di nessun tipo e il gioco sarà fruito da tutti (ati o nvidia) alla stessa maniera
slide1965
27-10-2013, 13:14
Il gioco viene programmato su PC. Che sia multipiattaforma è un altro paio di maniche.
Il gioco viene programmato per console, sul pc arrivà purtroppo un porting(se cosi non fosse, la versione pc di bf4, idem sarebbe stato per bf3, avrebbe ben altro livello tecnico/visivo/efettistico ,e dal punto di vista grafico, e da quello fisico, distruttibilità ecc ecc).
Le api utilizzate su console non sono Mantle, ne per sony, ne per microzoz, le gpu amd per pc beneficiano semplicemente del fatto che le console montano hardware amd, finito ma la programmazione su console viene fatto su api non mantle................ per cui ti ripeto:
mantle viene aggiunta in un secondo momento sottoforma di patch e non è assolutamente utilizzata in fase iniziale di programmazione.
Tradotto:
di close to metal su pc non c'e un fico secco se non la fuffa e il markting che amd sta propinando quindi parliamo pure di tutto ciò che concerne l'ipotetico incremento che questa mantle patch potrà dare, ma dimentichiamo il termine close to metal e i relativi benefici che questo modus operandis(se ci fosse realmente) porterebbe.
AceGranger
27-10-2013, 13:17
Calabar hai dimenticato la cosa più importante:
1) Mantle: gratis, accessibile ed utilizzabile da tutti.
2) Gsynch: a pagamento, ed accessibile solo per chi compra monitor e/o vga adatte.
Poi comunque sia parliamo con possessori di 3-way-sli di Titan, probabile che siano un pò di parte :p
ma da tutti chi ? è accessibile solo da chi ha/acquista VGA adatte;
come le VGA nuove si acquistano per sfruttare i nuovi effetti e migliorare la grafica, si acquisteranno i nuovi monitor per migliorare altri aspetti; che è la stessa cosa che gia avviene oggi per chi vuole un monitor 120-144Hz, 3D o un IPS per avere colori migliori.
sintopatataelettronica
27-10-2013, 13:22
certo che il limite minimo è 30hz, anche perchè se il gioco scende sotto i 30 i problemi sono altri, ovvero bisogna aggiornare il pc.
Con engine nuovi e giochi poco ottimizzati capita ogni tanto di avere cali drastici del framerate, a prescindere dalla potenza dell'hardware che hai.
io invece credo che tu non ci abbia capito molto ,dato che l'eliminazione dello stuttering e del lag non è una diretta conseguenza del gysnc ma avviene di conseguenza.
Il lag te lo da il vsync e il tb, che grazie al gsync si potran abbandonare.
Io ho capito come funziona.. ma, come ho detto, grosse variazioni costanti del framerate (tipo 30<->60) non garantiranno comunque la fluidità di cui il gamer ha bisogno (senza contare l'inutilità del tutto se i frame scendono al di sotto di quella soglia)
Se non costasse niente?
guarda che quelli di nvidia non sono una onlus.
Questa tua insinuazione è gratuita proprio: trova nel mio post un riferimento al fatto che G-Sync non dovrebbe costare niente.
Io ho solo espresso il mio parere, cioè che rispetto ai benefici che offre (pochi e limitati) il fatto di dover avere hardware aggiuntivo specifico per sfruttarla (tipo un monitor dedicato e più costoso, sfruttabile solo con le schede Nvidia) renderà il flop molto probabile.
appleroof
27-10-2013, 13:27
no, non è affatto la stessa cosa, perché se hai CPU/GPU abbastanza potenti il fatto che ci sia o meno mantle è irrilevante e ti permette di far girare il gioco al massimo dettaglio comunque anche se hai una scheda nvidia
con Physx invece se hai una scheda ATI/AMD potentissima e una CPU all'altezza comunque gli effetti che la richiedono non li vedrai mai.
Mantle ottimizza semplicemente le prestazioni dell'hardware, migliorando la cooperazione tra CPU e GPU, non aggiunge effetti specifici di nessun tipo e il gioco sarà fruito da tutti (ati o nvidia) alla stessa maniera
mi interessa un attimo questa cosa: secondo quanto hai capito, questo avviene se si ha cpu Amd + vga Amd, o anche con cpu Intel + vga Amd?
sintopatataelettronica
27-10-2013, 13:31
mi interessa un attimo questa cosa: secondo quanto hai capito, questo avviene se si ha cpu Amd + vga Amd, o anche con cpu Intel + vga Amd?
In effetti questa è l'unica cosa che non è chiara nemmeno a me.. mi son letto gli slide pubblicati e le news, ma non ho trovato nessun riferimento a ciò. Bisognerà aspettare metà novembre .. per schiarirsi le idee.
appleroof
27-10-2013, 13:35
In effetti questa è l'unica cosa che non è chiara nemmeno a me.. mi son letto gli slide pubblicati e le news, ma non ho trovato nessun riferimento a ciò. Bisognerà aspettare metà novembre .. per schiarirsi le idee.
già...cmq riflettendoci credo la seconda visto che l'aspetto sul quale si è molto sottolineato è stato l'eliminazione dell'overhead sulla cpu, senza specificare quale (e direi che sarebbe davvero troppo di nicchia limitarlo ad hw full Amd...)
slide1965
27-10-2013, 13:38
Con engine nuovi e giochi poco ottimizzati capita ogni tanto di avere cali drastici del framerate, a prescindere dalla potenza dell'hardware che hai.
Ma anche no.
Ti ripeto che se su pc si arrivano ad avere 30fps, o il gioco è stato programmato da un ubriaco, o c'e da aggiornare il pc o il pc è rotto o c'è da rivedere al ribasso le impostazioni grafiche dal menu in game del gioco perchè abbiamo esagerato a spingere con i settaggi in rapporto alla potenza che abbiamo a disposizione.
Persino la beta di bf4,(e il frostbite non è certo una piuma) appena uscita ha permesso di giocare a tutti(se il pc era almeno decente)a fps abbondantemente sopra i 30.
Io ho capito come funziona.. ma, come ho detto, grosse variazioni costanti del framerate (tipo 30<->60) non garantiranno comunque la fluidità di cui il gamer ha bisogno (senza contare l'inutilità del tutto se i frame scendono al di sotto di quella soglia)
vedi sopra
Questa tua insinuazione è gratuita proprio: trova nel mio post un riferimento al fatto che G-Sync non dovrebbe costare niente.
Eccola:
Se non costasse niente e non comportasse il discorso del monitor dedicato (o dispositivo dedicato) sarebbe una piccola cosa con la sua (limitata) utilità.
la limitata utilità lo sarà per te, per me è la manna dal cielo
Io ho solo espresso il mio parere, cioè che rispetto ai benefici che offre (pochi e limitati) il fatto di dover avere hardware aggiuntivo specifico per sfruttarla (tipo un monitor dedicato e più costoso, sfruttabile solo con le schede Nvidia) renderà il flop molto probabile.
i benefici,se ciò che abbiamo visto non è finzione, saranno eclatanti,altro che pochi e limitati (ovviamente in riferimento all'enthusiast gamer e non certo al casual gamer che non sa neanche cos'è il triple buffering).
Ma com'è che nvidia investe non solo nella potenza bruta della scheda e tutto quello che fa è inutile?
Il physx è inutile,il g-sync una cagata,il txaa non cambia niente ecc ecc...ma questo solo perchè non lo rende disponibile anche a chi non ha un nvidia?Perchè dovrebbe investire i suoi soldi per far felici i possessori di altre schede?
Ma AMD cosa sta facendo?tira fuori schede dove cambiano solo i mhz,non introduce mai niente di nuovo utile o inutile che sia,non sborsa una lira manco per far si che i programmi di montaggi o conversione video usino gli stream processor(visto che tutto cio' che uso ha solo l opzione cuda che manco posso attivare)
Eppure a me il physx piace,ho visto vari video,da borderlands 2 al nuovo batman egli effetti sono belli,se AMD ha da dare il suo contributo che si svegliasse...il txaa rende e se questa nuova tecnologia puo' aiutare ben venga,poi uno puo' acquistarla o meno in base alle proprie esigenze però cè...piuttosto che spendere nuovamente 300€ per una vga amd preferisco spendere qualcosa di piu' con un'nvidia che magari mi avvantaggi anche in altri ambiti.
sintopatataelettronica
28-10-2013, 05:41
già...cmq riflettendoci credo la seconda visto che l'aspetto sul quale si è molto sottolineato è stato l'eliminazione dell'overhead sulla cpu, senza specificare quale (e direi che sarebbe davvero troppo di nicchia limitarlo ad hw full Amd...)
Sì, penso la stessa cosa.. infatti era assente qualsiasi riferimento al fatto che funzionasse solo in accoppiata con i propri processori.
mirkonorroz
28-10-2013, 07:15
Per i costi del Gsync. Se si diffonde penso che, poco dopo, per come funzionano oggi i centri commerciali potremmo anche ritrovarci i monitor che lo adottano a prezzi normali e semmai, di conseguenza, trovare le merendine a costo doppio.
Per quanto riguarda i porting potrebbe anche succedere che data la maggior similitudine tra console e pc i porting siano si' meno onerosi e quindi invogliare anche di meno a sbattersi nel farli bene ottimizzati, ma potrebbe essere anche il contrario: cioe' poiche' c'e' da sbattersi meno, tanto vale farlo e ottimizzare. In questa seconda ottica la probabilita' che ache un tool di sviluppo adotti la generazione automatica di parti in mantle secondo me cresce molto e quindi nulla vieta che addirittura si possa abbandonare il termine porting e adottare uno sviluppo parallelo su piattaforme diverse (console, pc amd, pc non amd),
Io sono per l'ottimizzazione a scapito della possibilita' di non avere un certo gioco perche' disponibile o poco performante sull'hw che ho. Quello che scelgo deve comunque funzionare bene. Poi dipende molto dagli sviluppatori sbattersi per diffondere i loro prodotti su piu' piattaforme diverse.
Sul fatto che mantle non impedisca ad esempio di avere certi giochi o features su piattatforme non mantle non e' detto. Dipende dal boost prestazionale.
Se io progetto un gioco per mantle con feature esose perche' so di poterlo fare lo faccio.
Ovvio che cerco di farne una versione castrata anche per le altre, vedi PhysX.
Benvengano ottimizzazioni di qualunque tipo, chissa' che non si passi al raytracing.
E' tutto un convergere ed allontanarsi in modo periodico.
PaulGuru
28-10-2013, 08:47
Il prezzo ? Anche se costasse circa 100€ o giù di lì dovè lo scandalo, non hanno mica detto 500€ !!! Sembra di sentire discorsi da barboni caspita, un po' come per le cpu AMD dove si discute anche per il singolo euro.
hai dimenticato di postare quello subito prima....
[...]
si, direi che è blindata.
Francamente, nulla di quello che hai riportato sostiene la tua tesi.
Che sia un Industry Standard non significa affatto quello che hai scritto tra parentesi affianco, che sono conclusioni tue che hanno poco a che fare con l'affermazione.
Il fatto che si basi su GNC è la fiera dell'ovvio, Mantle così com'è ora lavora su GNC. Ma questo non significa che non possa basarsi su qualsiasi altra architettura (AMD se volesse potrebbe supportare le sue architetture precedenti, e sicuramente supporterà le successive).
Se nvidia vorrà usare lo stesso approccio dovrà essere lei ad implementare la sua versione di Mantle per le sue schede.
Dato che Mantle lavora "close to metal" è banale che per ogni architettura debba esserci un lavoro specifico.
É stato dichiarato (come ho riportato prima) che Mantle è una tecnologia aperta a tutti, se non hanno ancora rilasciato le specifiche non ci resta che aspettare per vedere se lo faranno.
ma da tutti chi ? è accessibile solo da chi ha/acquista VGA adatte;
Ovviamente, come ho appena scritto sopra, chiunque voglia utilizzare Mantle per le proprie schede dovrà implementare il necessario per farlo lavorare sulla propria architettura.
Il gioco viene programmato per console [...]
Lui ha detto che il gioco viene programmato su PC, non per PC.
Sul fatto che non si usino le consolle per programmare i giochi credo che possiamo concordare tutti senza problemi.
Quello che sembra tu non abbia capito è che questi motori grafici sono realizzati per girare su più architetture.
La versione creata per PS3 sarà ottimizzata per PS3, la versione per PS4 sarà ottimizzata per PS4, la versione per XboX One sarà ottimizzata per XboX One, ... , la versione per PC-GNC sarà ottimizzata per PC con scheda AMD e userà Mantle.
Dato che molti giochi utilizzeranno questo motore, tutti questi giochi potranno usufruire delle ottimizzazioni del motore dovute all'uso di Mantle.
Dato che Mantle è appena nato, è ovvio che il motore non è stato creato pensando a Mantle ma sarà un'ottimizzazione successiva. Ma del resto nessun software nasce ottimizzato, quindi dove sta il problema?
O davvero pensi che le ottimizzazioni possano essere fatte solo in fase di creazione del motore? Perché da quel che hai scritto dai questa impressione...
mi interessa un attimo questa cosa: secondo quanto hai capito, questo avviene se si ha cpu Amd + vga Amd, o anche con cpu Intel + vga Amd?
Francamente... non mi ero neppure posto il problema.
Direi che Mantle riguarda solo la scheda video, quindi dubito fortemente possa esserci qualche limite artificioso sull'uso della CPU.
Per i costi del Gsync. Se si diffonde penso che, poco dopo, per come funzionano oggi i centri commerciali potremmo anche ritrovarci i monitor che lo adottano a prezzi normali e semmai, di conseguenza, trovare le merendine a costo doppio.
Questo è vero.
Il dubbio però stava appunto nell'ampia diffusione. Con un approccio chiuso come quello adottato da Nvidia non è così facile avere una grande diffusione.
Sinceramente non credo che Nvidia punti alla grande diffusione, ma semplicemente ad avere una feature esclusiva che possa attirare i giocatori verso le proprie schede, anche chi non dovesse sfruttarla ("così se un giorno ne sento l'esigenza posso sempre usarla").
Aggiungi a questo che per la massa di videogiocatori, che non è così pretenziosa e che i problemi di tearing neppure sa cosa siano, l'utilità percepita di questa tecnologia è bassa (al di la del fatto che lo sia o meno), e ottieni un quadro in cui la diffusione di massa diventa molto improbabile.
Il prezzo ? Anche se costasse circa 100€ o giù di lì dovè lo scandalo, non hanno mica detto 500€ !!! Sembra di sentire discorsi da barboni caspita, un po' come per le cpu AMD dove si discute anche per il singolo euro.
Beh certo, per uno che spende 1000 euro di reparto video per il proprio PC sono briciole, ma per il giocatore comune, quello che fa grandi numeri di vendita, è una spesa elevata di cui probabilmente non sente l'esigenza.
slide1965
28-10-2013, 11:08
Lui ha detto che il gioco viene programmato su PC, non per PC.
Sul fatto che non si usino le consolle per programmare i giochi credo che possiamo concordare tutti senza problemi.
Quello che sembra tu non abbia capito è che questi motori grafici sono realizzati per girare su più architetture.
La versione creata per PS3 sarà ottimizzata per PS3, la versione per PS4 sarà ottimizzata per PS4, la versione per XboX One sarà ottimizzata per XboX One, ... , la versione per PC-GNC sarà ottimizzata per PC con scheda AMD e userà Mantle.
Dato che molti giochi utilizzeranno questo motore, tutti questi giochi potranno usufruire delle ottimizzazioni del motore dovute all'uso di Mantle.
Dato che Mantle è appena nato, è ovvio che il motore non è stato creato pensando a Mantle ma sarà un'ottimizzazione successiva. Ma del resto nessun software nasce ottimizzato, quindi dove sta il problema?
O davvero pensi che le ottimizzazioni possano essere fatte solo in fase di creazione del motore? Perché da quel che hai scritto dai questa impressione...
A me sembra invece che tu non abbia capito, dato che se vai a ri-leggere, noterai che parlavo appunto di motori grafici multipiattaforma, ergo motori realizzati per girare su piu architetture.
Come del resto mi sembra ovvio che i programmatori lavorano su pc per programmare e non certo sulla lavastoviglie della cucina, non credo ci fosse bisogno di specificarlo
Dato che Mantle lavora "close to metal" è banale che per ogni architettura debba esserci un lavoro specifico.
Le Mantle non hanno nulla di close to metal se non che le bufale dell'ufficio marketing di amd.
I giochi sono programmati per console con API NON MANTLE, successivamente riportati su pc per la versione pc, questo indipendentemente dal fatto che il motore grafico sia multipiattaforma(è un mera questione di costi e tempi)
Dopo essere approdati sugli scaffali ed entrati nelle case dell'utenza finale Mantle verrà applicata come patch e il close to metal lo vedi col binocolo.
L'unico modo che ha una sh per applicare API close to metal ad un gioco per pc è quello di lavorare ad esclusive pc nate e partorite per pc e programmate da zero su motori grafici dedicati e nel caso specifico, su API mantle, quindi pura utopia (purtroppo).
PaulGuru
28-10-2013, 11:25
Beh certo, per uno che spende 1000 euro di reparto video per il proprio PC sono briciole, ma per il giocatore comune, quello che fa grandi numeri di vendita, è una spesa elevata di cui probabilmente non sente l'esigenza.
Del PC comune a me non interessa proprio nulla, ad ognuno deve interessare solo il suo, per quel che mi riguarda Nvidia potrebbe venderlo solo a me. Che poi venda anche agli altri o meno sinceramente a me che differenza può fare ?
Inoltre non spendo 1000€ di PC, forse e anzi probabilmente il mio ne vale di più nel complesso ma una volta che ne hai uno poi quando vai ad aggiornarlo vendi quello che hai prima per diluire i prezzi del nuovo, ti dico solo che per cambiare l'intera mia piattaforma cpu e mobo con una Haswell Z87 ho speso solo 300€ a distanza di 2 anni e 180€ per aggiornare la VGA alla 770.
@slide1965
Dalla risposta che mi hai dato, a me pare che continui a non cogliere il punto.
Parli di motori grafici multipiattaforma, ma ancora non hai capito come funzionano.
Chi crea un motore di questo tipo (ossia un motore "generico" multipiattaforma con l'intenzione di venderlo ad altri produttori di giochi) non programma il gioco in se, che è una cosa successiva.
Chi crea il gioco si trova di fronte un ambiente di sviluppo fornito da chi crea il motore, e con quello costruisce tutto il necessario (modelli, mappe, interazione, ecc...).
Quindi NO, il gioco non viene programmato per consolle, come dici tu. Il gioco viene programmato sull'ambiente di sviluppo del motore grafico, e poi girerà sulle diverse piattaforme in modo più o meno ottimizzato a seconda del lavoro che chi ha creato il motore ha fatto per ognuna di essere.
Qui entra in gioco Mantle: se hai un PC con scheda AMD e architettura GNC (ma la cosa potrebbe essere estesa ad altre architettura, anche non di AMD, in futuro), allora se quel motore grafico è stato ottimizzato usando Mantle, potrai godere delle ottimizzazioni portate da Mantle per tutti i giochi che usano quel motore.
Capito ora?
Hai scritto:
Le Mantle non hanno nulla di close to metal se non che le bufale dell'ufficio marketing di amd.
Beh, se lo dici tu!
Sei sicuramente una fonte molto più affidabile degli ingegneri AMD. ;)
Perdona la piccola presa in giro, ma sinceramente queste sparate potresti evitarle.
Per la questione "i giochi si programmano su PC" infatti ho detto che su questo possiamo tutti concordare. Però quello che ha contestato l'affermazione in cui l'altro utente diceva questo sei stato tu.
Quindi, o hai letto affrettatamente, o hai cercato di sviare il discorso. In buona fede, immagino la prima delle due.
@PaulGuru
Ovviamente ognuno può spendere quel che vuole, ma qui si parlava di diffondere la tecnologia e di quanto il prezzo fosse percepito dal grande pubblico.
A te forse andrebbe bene se Nvidia lo vendesse solo a te, ma ovviamente non andrebbe bene ad Nvidia. Non basta creare una buona tecnologia, questa deve essere anche sostenibile commercialmente.
slide1965
28-10-2013, 12:42
Dalla risposta che mi hai dato, a me pare che continui a non cogliere il punto.
stavo pensando esattamente la stessa cosa
Parli di motori grafici multipiattaforma, ma ancora non hai capito come funzionano.
quello credo sia tu, non io
Chi crea un motore di questo tipo (ossia un motore "generico" multipiattaforma con l'intenzione di venderlo ad altri produttori di giochi) non programma il gioco in se, che è una cosa successiva.
Chi crea il gioco si trova di fronte un ambiente di sviluppo fornito da chi crea il motore, e con quello costruisce tutto il necessario (modelli, mappe, interazione, ecc...).
ma va......
Quindi NO, il gioco non viene programmato per consolle, come dici tu. Il gioco viene programmato sull'ambiente di sviluppo del motore grafico, e poi girerà sulle diverse piattaforme in modo più o meno ottimizzato a seconda del lavoro che chi ha creato il motore ha fatto per ognuna di essere.
La parola porting ti dice nulla?
Ti riporto quello che ti ho già detto:
L'unico modo che ha una sh per applicare API close to metal ad un gioco per pc è quello di lavorare ad esclusive pc nate e partorite per pc e programmate da zero su motori grafici dedicati
e aggiungo:
quel gioco girerebbe solo su hardware compatibile a tali API e non potrebbe in alcun modo girare su altro hardware non compatibile(tipo nvidia nel caso si usassero API mantle realmente close to metal).
La possibilità che il gioco possa essere utilizzato su Nvidia, prevederebbe in tal caso una programmazione da zero su dx.
Se cosi fosse, potremmo accostare le mantle ad API close to metal.
La situazione attuale,che evidentemente ti sfugge, è questa:
bf4 (che è il primo esempio dove vedremo l'applicazione di mantle) per pc girerà sia su hardware amd che nvidia.
Il gioco è il medesimo per tutti.
Mantle non viene implementata come API close to metal principale sulla quale il gioco viene programmato(ciò precluderebbe l'utilizzo a qualsivoglia pc che non abbia amd all'interno) ma piuttosto successivamente sottoforma di patch, cosa che nulla a che vedere con il close to metal e con cio che ne consugue a livello prestazionale e di ottimizzazione.
Qui entra in gioco Mantle: se hai un PC con scheda AMD e architettura GNC (ma la cosa potrebbe essere estesa ad altre architettura, anche non di AMD, in futuro), allora se quel motore grafico è stato ottimizzato usando Mantle, potrai godere delle ottimizzazioni portate da Mantle per tutti i giochi che usano quel motore.
Capito ora?
Io ho capito da mò, tu?
Mantle non puo lavorare close to metal per come è la situazione e sopratutto, a maggior ragione, per come tu l'hai decritta.
Perdona la piccola presa in giro, ma sinceramente queste sparate potresti evitarle.
non ho nulla da perdonarti dato che non c'è stata nessuna presa in giro a meno che tu non ti riferisca al fatto che ti stai prendendo in giro da solo.
Devi solo documentarti (non sei obbligato a farlo) e poi se vuoi ne riparliamo.
A presto
@slide1965
Io sinceramente ti leggo e rimango esterrefatto, stai parlando di cose di cui chiaramente non hai cognizione e lo fai persino con arroganza.
Io mi fermo qui, non hai aggiunto nulla che valga la pena di contestare, e sinceramente non mi va di impelagarmi in una discussione surreale come quella che si era creata sulle consolle.
Rimani pure con le tue convinzioni senza fondamento.
Saluti.
slide1965
28-10-2013, 13:30
@calabar
Non sei il solo a rimanere esterrefatto,lo sono anche io dato che sei tu a non avere cognizione di causa sull'argomento in questione ponendoti oltretutto in modo arrogante dando dell'ignorante senza, appunto, cognizione.
Mi fermo qui anche io.
Rimani pure con le tue convinzioni errate.
Saluti.
@slide1965
Il giochino infantile dello specchio riflesso l'hai già usato l'altra volta. Ennesimo modo per dimostrare che non hai argomentazioni.
Proseguire con questa discussione è come cercare di parlare di matematica con uno che sostiene che in aritmetica 1 + 1 = 3. Non ha senso.
Buon proseguimento. ;)
slide1965
28-10-2013, 15:02
@calabar
Vedi, esattamente come l'altra volta, anche in quest occasione hai esordito con frasi del tipo " forse non capisci", "non comprendi" ecc ecc.
Dovresti "capire" che se dall altra parte (oggi come allora quando si discusse di console ) hai un utente (io) che ritiene che TU non "stia capendo", non puoi pretendere che non ti si risponda a mo' di specchio riflesso.
Le spiegazioni che dovevo darti te le ho già date , non ti interessano , non le ritieni plausibili , benissimo , ma non puoi pretendere che io non dica quello che penso , ovvero che la tua conoscenza dell'argomento in questione e' prossima allo zero, esattamente come e' stato all epoca per l'argomento console.
Credo che tu debba rivedere le tue convinzioni, che ti portano a pensare di avere la scienza infusa perché fidati che non è così .
Adesso mi auguro vivamente che la polemica possa chiudersi qui, ti lascio con le tue convinzioni e non ho interesse a proseguire la discussione con te dato che è come parlare di evoluzione con uno che sostiene che la terra e' quadrata.
Buon proseguimento
mirkonorroz
28-10-2013, 15:09
Io ci riprovo :asd:
Piu' si e' capaci di sviluppare compilatori e meno si e' obbligati a programmare a basso livello.
Se si investe tanto prima, probabilmente poi se ne traggono piu' vantaggi sia in termini di tempo che di soldi.
Se le cose sono fatte bene si potrebbe quasi passare dalla GUI al codice sia per nvidia che per ati ottimizzato: certo non quanto scriverlo a manina come chi faceva i demo per amiga ma magari qualche passo avanti si farebbe.
Chi li deve scrivere 'sti compilatori? Meglio nvidia e amd. Chi deve adottarli come plugin? Chi sviluppa il motore in concerto con chi ha fatto il plugin magari.
Mi sembra strano che cosi' non possa funzionare.
Ovvio che per fare le cose fatte bene serve tempo, voglia e denaro.
Insomma tutte cose normali o no? Mi fate venire certi dubbi :D
Nessuno sa piu' programmare compilatori?
appleroof
28-10-2013, 16:26
Francamente, nulla di quello che hai riportato sostiene la tua tesi.
Che sia un Industry Standard non significa affatto quello che hai scritto tra parentesi affianco, che sono conclusioni tue che hanno poco a che fare con l'affermazione.
Il fatto che si basi su GNC è la fiera dell'ovvio, Mantle così com'è ora lavora su GNC. Ma questo non significa che non possa basarsi su qualsiasi altra architettura (AMD se volesse potrebbe supportare le sue architetture precedenti, e sicuramente supporterà le successive).
Se nvidia vorrà usare lo stesso approccio dovrà essere lei ad implementare la sua versione di Mantle per le sue schede.
Dato che Mantle lavora "close to metal" è banale che per ogni architettura debba esserci un lavoro specifico.
cut
mah, io non capisco come si possa fare un'Api close to metal, studiata "su misura" su quel chip, e poi far si che lo stesso set sia agnostico....sarò che non ho le vostre competenze che devo dire.
@calabar
Vedi, esattamente come l'altra volta, anche in quest occasione hai esordito con frasi del tipo " forse non capisci", "non comprendi" ecc ecc.
[...]
Credo che tu debba rivedere le tue convinzioni, che ti portano a pensare di avere la scienza infusa perché fidati che non è così .
Non devi sorprenderti del fatto che io dica "credo che tu non abbia colto il punto". Se io dico "mele" e tu rispondi "pere", è esattamente quello che dimostri, che sia per fretta, ignoranza o persino malafede.
L'ultimo intervento non conteneva un filo logico che avesse senso, al che ho desistito.
Tu poi sei liberissimo di credere di aver capito l'argomento e continuare a fare ragionamenti che senso ne hanno ben poco.
Chiariamoci, non sono certo un guru dell'argomento, e poco ci vuole che arrivi lo Yossarian della situazione ad impartirmi lezioni.
Ma sapendone un po' ti assicuro che le tue carenze risultano evidenti. Io invece credo che a te non risultino evidenti le mie (che ovviamente ci sono, ma io cerco di parlare solo nel limite di quel che conosco), ma tu lo sostenga per ribattere nel discorso (il giochino dello specchio riflesso).
Dai, ora terminiamo questa discussione che stiamo finendo troppo OT.
Ancora buon proseguimento.
mah, io non capisco come si possa fare un'Api close to metal, studiata "su misura" su quel chip, e poi far si che lo stesso set sia agnostico....sarò che non ho le vostre competenze che devo dire.
Mantle è un approccio alla programmazione su GPU che definisce uno standard, approccio che a quanto dichiara AMD può essere adottato da chiunque, anche se immagino non senza una certa difficoltà.
Non si tratta cioè di "AMD ha fatto Mantle, ora usatelo tutti", non è una cosa pronta all'uso, ognuno dovrà implementare la propria versione in base alla propria architettura.
Il vantaggio di AMD è che si è portata avanti con lavoro rispetto a chi voglia adottarlo da ora.
appleroof
28-10-2013, 17:21
cut
Mantle è un approccio alla programmazione su GPU che definisce uno standard, approccio che a quanto dichiara AMD può essere adottato da chiunque, anche se immagino non senza una certa difficoltà.
Non si tratta cioè di "AMD ha fatto Mantle, ora usatelo tutti", non è una cosa pronta all'uso, ognuno dovrà implementare la propria versione in base alla propria architettura.
Il vantaggio di AMD è che si è portata avanti con lavoro rispetto a chi voglia adottarlo da ora.
allora:
1) se è vero, ma ho seri dubbi, Amd è una azienda di santi: implementa Api che sorpassano i limiti attuali delle Directx e danno un boost nei giochi, e lo fà per tutti, perchè (risposta da un punto di vista aziendalistico, se possibile)?
2) bisogna quindi indagare sulla natura di queste Api, ancora non capisco se siano Api close to metal per sfruttare meglio GCN (come dichiara Amd), api di basso livello che sorpassano i limiti delle Directx e possono essere usate da tutti (come? Mi pare una contraddizione in termini), un non meglio specificato "approccio" che usa qualcosa che già esiste e lo adatta di volta in volta alle GPU differenti (allora è l'acqua calda, è come le estensioni OGL customizzate Nvidia)
allora:
1) se è vero, ma ho seri dubbi, Amd è una azienda di santi: implementa Api che sorpassano i limiti attuali delle Directx e danno un boost nei giochi, e lo fà per tutti, perchè (risposta da un punto di vista aziendalistico, se possibile)?
2) bisogna quindi indagare sulla natura di queste Api, ancora non capisco se siano Api close to metal per sfruttare meglio GCN (come dichiara Amd), api di basso livello che sorpassano i limiti delle Directx e possono essere usate da tutti (come? Mi pare una contraddizione in termini), un non meglio specificato "approccio" che usa qualcosa che già esiste e lo adatta di volta in volta alle GPU differenti (allora è l'acqua calda, è come le estensioni OGL customizzate Nvidia)
No, non sono dei santi! :p
AMD ha definito l' "Industry Standard" e lo ha implementato per la propria architettura (anche se non ho ben chiaro il livello di affinamento di questa implementazione).
Chiunque voglia utilizzare quello standard deve a sua volta implementarlo per la propria architettura.
Se l'approccio di AMD è buono, allora altri la seguiranno, o rischieranno di darle un vantaggio difficile da colmare.
Se la seguiranno AMD sarà comunque in vantaggio sugli altri per aver iniziato prima. Al contempo, ha ottenuto dei miglioramenti globali che possono spingere il proprio mercato a crescere.
L'unico vero problema di Mantle secondo me sono i costi che potrebbe richiedere per chi sviluppa.
Se per ottenere questo livello di prestazioni devo investire una caterva di ore uomo, i costi potrebbero renderlo non conveniente (si fa prima ad aspettare il nuovo chip più potente).
Se invece i costi sono riassorbibili, allora può avere successo.
La scommessa sta tutta li.
Da quanto hanno detto, AMD crede che questo sia un buon momento: da una parte il rallentamento dovuto alle difficoltà con i processo produttivi (il che significa che non è più così facile far salire le prestazioni di generazione in generazione), dall'altra il mercato dei giochi AAA (ossia quelli che di fatto necessitano di questo aumento di prestazioni) si sta indirizzando verso l'uso di pochi motori grafici generici (frostbite, unreal engine, cryengine, ecc...), che dispongono di grossi team di sviluppo e possono fare questo sforzo di ottimizzazione, di cui poi godranno tutti i giochi che useranno quegli engine.
appleroof
28-10-2013, 17:43
No, non sono dei santi! :p
AMD ha definito l' "Industry Standard" e lo ha implementato per la propria architettura (anche se non ho ben chiaro il livello di affinamento di questa implementazione).
Chiunque voglia utilizzare quello standard deve a sua volta implementarlo per la propria architettura.
Se l'approccio di AMD è buono, allora altri la seguiranno, o rischieranno di darle un vantaggio difficile da colmare.
Se la seguiranno AMD sarà comunque in vantaggio sugli altri per aver iniziato prima. Al contempo, ha ottenuto dei miglioramenti globali che possono spingere il proprio mercato a crescere.
L'unico vero problema di Mantle secondo me sono i costi che potrebbe richiedere per chi sviluppa.
Se per ottenere questo livello di prestazioni devo investire una caterva di ore uomo, i costi potrebbero renderlo non conveniente (si fa prima ad aspettare il nuovo chip più potente).
Se invece i costi sono riassorbibili, allora può avere successo.
La scommessa sta tutta li.
Da quanto hanno detto, AMD crede che questo sia un buon momento: da una parte il rallentamento dovuto alle difficoltà con i processo produttivi (il che significa che non è più così facile far salire le prestazioni di generazione in generazione), dall'altra il mercato dei giochi AAA (ossia quelli che di fatto necessitano di questo aumento di prestazioni) si sta indirizzando verso l'uso di pochi motori grafici generici (frostbite, unreal engine, cryengine, ecc...), che dispongono di grossi team di sviluppo e possono fare questo sforzo di ottimizzazione, di cui poi godranno tutti i giochi che useranno quegli engine.
tutto questo non risponde alla domanda cosa sono queste APi e di conseguenza se sono davvero aperte (ma con grosse difficoltà come anche tu finisci di ammettere, il che equivale a dire che sono semi aperte o semi chiuse a seconda dei punti di vista :D )
mi spiace calabar ma non mi convinci affatto che non siano blindate o chiuse come vogliamo dire (anche dalla lettura dell'intervista famigerata e del post sul blog Amd deduco questo in maniera abbastanza decisa)
questo tra l'altro è corroborato dai commenti delle maggiori testate internazionali all'indomani dell'annuncio di Mantle, Anandtech per dirne una che non può essere sospettata di partigianeria verde, definiva queste Api un pò come le GLide di 3dfx:
A lot of press – ourselves included – immediately began comparing Mantle to Glide. Glide was another low level API that was developed by the long-gone GPU manufacturer 3dfx, and at the height of their power in the mid-to-late 90s 3dfx wielded considerable influence thanks to Glide. Glide was easier to work with than the immature Direct3D API, and for a time games either supported only Glide, or supported Glide alongside Direct3D or OpenGL. Almost inevitably the Glide rendering path was better in some respect, be it performance, features, or a general decrease in bugs. This was fantastic for 3dfx card owners, but as both AMD (nee ATI) and NVIDIA can tell you, this wasn’t great for those parties that were on the outside.
As a result of this, as great as Glide was at the time, it’s widely considered a good thing that Glide died out and that Direct3D took over as the reigning king of PC graphics APIs. Developers stopped utilizing multiple rendering paths, and their single rendering path was better for everyone as a result. Having games written exclusively in a common, industry standard API was better for everyone.
Mantle by its very nature reverses that, by reestablishing a low level API that exists at least in part in competition with Direct3D and OpenGL.
http://www.anandtech.com/show/7371/understanding-amds-mantle-a-lowlevel-graphics-api-for-gcn
poi per tutto il resto aspettiamo ulteriori dettagli all'APU2013 dove fioccheranno sicuramente articoli tecnici che magari finalmente faranno maggiore luce su questi aspetti.
slide1965
28-10-2013, 19:54
Non devi sorprenderti del fatto che io dica "credo che tu non abbia colto il punto". Se io dico "mele" e tu rispondi "pere", è esattamente quello che dimostri, che sia per fretta, ignoranza o persino malafede.
Non sono sorpreso nemmeno nel constatare che stai straparlando, figurati se mi sorprende che tu dica che "io non avrei colto il punto".
Se tu dicessi mele io potrei anche dire pere dato che sostanzialmente stai parlando del nulla ma evidentemente il tuo ego ti porta a credere di essere informato a sufficienza.
L'ultimo intervento non conteneva un filo logico che avesse senso, al che ho desistito.
consolati perchè nel tuo caso non si trattava solo dell'ultimo.
Tu poi sei liberissimo di credere di aver capito l'argomento e continuare a fare ragionamenti che senso ne hanno ben poco.
stai parlando di te?:mbe:
Chiariamoci, non sono certo un guru dell'argomento
Fai senza dirlo.
Nemmeno io,tranquillo, ma la logica a volte fa miracoli.
Ma sapendone un po' ti assicuro che le tue carenze risultano evidenti.
se non altro mi sei simpatico dato che riesci a farmi sorridere.:asd:
Io invece credo che a te non risultino evidenti le mie (che ovviamente ci sono, ma io cerco di parlare solo nel limite di quel che conosco),
i tuoi post di oggi sono la dimostrazione lampante del fatto che tu parli anche di ciò che non conosci, cosa che di per se non sarebbe un problema se ti limitassi a quello senza raggiungere il paradosso di dare dell'ignorante agli altri che hanno cercato di farti capire a più riprese il perchè le mantle sono close to metal solo per l'ufficio marketing di amd.
Dai, ora terminiamo questa discussione che stiamo finendo troppo OT.
Ancora buon proseguimento.
Se non sbaglio avevamo detto ore fà che il discorso era chiuso ma hai continuato a quotarmi e adesso, dopo avermi quotato ancora, vieni a dirmi "dai terminiamo questa discussione"? :nonsifa:
Chiudiamo questa pantomima, per cortesia.
ciao ;)
tutto questo non risponde alla domanda cosa sono queste APi e di conseguenza se sono davvero aperte (ma con grosse difficoltà come anche tu finisci di ammettere, il che equivale a dire che sono semi aperte o semi chiuse a seconda dei punti di vista :D )
Cosa siano esattamente credo non lo sappia nessuno, per il momento possiamo basarci solo sulle dichiarazioni provenienti da AMD.
E da quel che dicono è uno standard che si occupa di definire un modo per avere un accesso alla GPU più "close to metal".
Le "grosse difficoltà" di cui parlo (vabbè, non ho usato proprio queste parole, ma va bene comunque) sono le stesse che ha avuto AMD per fare quello stesso lavoro per la propria architettura.
mi spiace calabar ma non mi convinci affatto che non siano blindate o chiuse come vogliamo dire (anche dalla lettura dell'intervista famigerata e del post sul blog Amd deduco questo in maniera abbastanza decisa)
Anche qui, mi baso sulle dichiarazioni.
Si è parlato di "completely open", e da qui a passare al "blindate" ce ne passa. O è stata una balla colossale, o non si tratta di qualcosa di blindato.
Non mi ancora è ben chiaro in effetti se e cosa abbiano di fatto rilasciato, ma immagino che verranno rilasciate le specifiche dell' "Industry Standard", che è ciò che sarà open e a cui si riferiscono.
Ovviamente non rilasceranno i codici sull'implementazione specifica per GNC, perchè non servirebbe a nulla se non a svelare ai concorrenti dettagli e segreti sulla propria architettura.
poi per tutto il resto aspettiamo ulteriori dettagli all'APU2013 dove fioccheranno sicuramente articoli tecnici che magari finalmente faranno maggiore luce su questi aspetti.
Questo senza dubbio, per ora ci si basa su quel che c'è, in attesa che le cose vengano chiarite.
appleroof
29-10-2013, 16:45
cut
Anche qui, mi baso sulle dichiarazioni.
Si è parlato di "completely open", e da qui a passare al "blindate" ce ne passa. O è stata una balla colossale, o non si tratta di qualcosa di blindato.
cut
:mbe: ma dove?? Forse è sfuggito non solo a me, ma pure ad Anandtech e soci....onestamente ci rinuncio.
allora:
1) se è vero, ma ho seri dubbi, Amd è una azienda di santi: implementa Api che sorpassano i limiti attuali delle Directx e danno un boost nei giochi, e lo fà per tutti, perchè (risposta da un punto di vista aziendalistico, se possibile)?
perché spesso ci si scorda che amd fa processori, anche, e che se mantle libera il processore da calcoli, il risultato è che i propri processori saranno meno indietro rispetto ad intel.
In più, una apu con mantle dentro sarebbe ben più potente di una apu intel
PaulGuru
30-10-2013, 08:35
perché spesso ci si scorda che amd fa processori, anche, e che se mantle libera il processore da calcoli, il risultato è che i propri processori saranno meno indietro rispetto ad intel.
In più, una apu con mantle dentro sarebbe ben più potente di una apu intel
Non libera nessuna cpu da nessun calcolo e sinceramente non sò dove tu l'abbia visto o sentito, Mantle aumenterà semplicemente l'efficienza prestazionale della VGA ed al massimo se hai una CPU FX sarà ancora più limited.
Non libera nessuna cpu da nessun calcolo e sinceramente non sò dove tu l'abbia visto o sentito, Mantle aumenterà semplicemente l'efficienza prestazionale della VGA ed al massimo se hai una CPU FX sarà ancora più limited.
fortuna che abbiamo gente qua dentro che è ferrata, allora.
quello che è un claim di amd, riportato da quasi tutte le testate, è che mantle riduce l' overhead della cpu, sgravandola quindi, e in questo modo io lo interpreto (ma non ho la tua conoscenza, quindi sicuramente sbaglio) come un ridurre il carico sulla cpu che quindi diventa meno collo di bottiglia e per questo meno influente sugli fps.
se fosse come interpreto io (che sicuramente sbaglio) il divario tra un i7 e un fx in ambito gaming sarà meno importante (guardando il sistema composto da cpu e gpu)
PaulGuru
30-10-2013, 11:55
fortuna che abbiamo gente qua dentro che è ferrata, allora.
quello che è un claim di amd, riportato da quasi tutte le testate, è che mantle riduce l' overhead della cpu, sgravandola quindi, e in questo modo io lo interpreto (ma non ho la tua conoscenza, quindi sicuramente sbaglio) come un ridurre il carico sulla cpu che quindi diventa meno collo di bottiglia e per questo meno influente sugli fps.
se fosse come interpreto io (che sicuramente sbaglio) il divario tra un i7 e un fx in ambito gaming sarà meno importante (guardando il sistema composto da cpu e gpu)
Ma dove lo hai letto o forse chi te lo ha detto ? Qualche fan AMD ?
Come fanno delle API specifiche per una GPU ad influenzare la CPU ?
Le API servono a sfruttare al meglio le risorse fisiche dell'architettura SI di AMD, quindi cosa centra la CPU ?
Ma dove lo hai letto o forse chi te lo ha detto ? Qualche fan AMD ?
Come fanno delle API specifiche per una GPU ad influenzare la CPU ?
Le API servono a sfruttare al meglio le risorse fisiche dell'architettura SI di AMD, quindi cosa centra la CPU ?
http://lmgtfy.com/?q=mantle+cpu+overhead :dunno:
ti quoto un passaggio?
This is what Mantle does. It bypasses DirectX (and possibly the hardware abstraction layer) and developers can program very close to the metal with very little overhead from software. This lowers memory and CPU usage, it decreases latency, and because there are fewer “moving parts” AMD claims that they can do 9x the draw calls with Mantle as compared to DirectX.
:mbe: ma dove?? Forse è sfuggito non solo a me, ma pure ad Anandtech e soci....onestamente ci rinuncio.
Nell'intervista a Raja Koduri riportata qui su Hardware Upgrade (click (http://www.hwupgrade.it/articoli/skvideo/3786/gpu-mantle-e-il-futuro-di-amd-intervista-a-raja-koduri_2.html)).
Non libera nessuna cpu da nessun calcolo e sinceramente non sò dove tu l'abbia visto o sentito, Mantle aumenterà semplicemente l'efficienza prestazionale della VGA ed al massimo se hai una CPU FX sarà ancora più limited.
Ma dove lo hai letto o forse chi te lo ha detto ? Qualche fan AMD ?
Come fanno delle API specifiche per una GPU ad influenzare la CPU ?
Sinceramente, non capisco perchè ti poni con questo tono quando non sei informato sulle cose, eppure come ti ha mostrato street, basta una piccola ricerca per evitare brutte figure.
I dubbi sono leciti, ma l'atteggiamento è quello sbagliato.
Rispondendo alla tua domanda in modo più generico (ossia senza tirare in ballo mantle), le nuove architetture AMD stanno puntando proprio a quello, ossia a liberare risorse che ora sono usate sulla CPU ma che si potrebbe evitare di usare.
La nuova integrazione tra CPU e GPU che vede questi due elementi come paritari e consente all'uno di comandare l'altro senza dover passare sempre per la CPU alleggerisce quest'ultima da diversi compiti.
Lo stesso approccio legato al GPU computing fa si che tutti i calcoli altamente parallelizzabili siano eseguiti dalla GPU in modo trasparente, e ovviamente, se li esegue la GPU, la CPU ne viene sgravata.
Oggi cinebench (bench che usa il motore di rendering di Cinema4D) viene eseguito sulla FPU, un domani potrebbe non avere più senso separare CPU e GPU e cinebench verrà eseguito sulle APU utilizzando le unità altamente parallele di derivazione GPU, facendo risultati probabilmente molto migliori.
La GPU è una grande risorsa di calcolo spesso sprecata, e con il GPGPU si tenta di porre rimedio a questo spreco. Anche Intel lo sa, e infatti sta investendo molto sulle sue GPU.
PaulGuru
30-10-2013, 23:18
Si ma quella parte è riferita alla GPU Integrata che non contano nulla e non alle VGA discrete.
Si ma quella parte è riferita alla GPU Integrata che non contano nulla e non alle VGA discrete.
La differenza tra integrate e discrete in realtà non è così netta come mi sembra tu la percepisca. Sono entrambe risorse di calcolo sfruttabili, e le innovazioni stanno tutte nel "come" sfruttarle, nel rendere più semplice fare ciò che finora ha scoraggiato l'uso della GPU (integrata o discreta che sia) come unità di calcolo generico.
Come immagino tu sappia, anche Nvidia (che non ha VGA integrate) con Maxwell punterà sull'accesso diretto alla memoria esattamente per gli stessi motivi.
PaulGuru
31-10-2013, 15:52
La differenza tra integrate e discrete in realtà non è così netta come mi sembra tu la percepisca. Sono entrambe risorse di calcolo sfruttabili, e le innovazioni stanno tutte nel "come" sfruttarle, nel rendere più semplice fare ciò che finora ha scoraggiato l'uso della GPU (integrata o discreta che sia) come unità di calcolo generico.
Come immagino tu sappia, anche Nvidia (che non ha VGA integrate) con Maxwell punterà sull'accesso diretto alla memoria esattamente per gli stessi motivi.Accesso diretto in memoria non vuol dire che sgravi la cpu, i calcoli che svolge la cpu nei giochi non sono fattibili da una GPU, quindi puoi diminuire le latenze e basta.
Accesso diretto in memoria non vuol dire che sgravi la cpu, i calcoli che svolge la cpu nei giochi non sono fattibili da una GPU, quindi puoi diminuire le latenze e basta.
Invece, tra le altre cose, significa anche quello.
Questo perchè le operazioni vanno comunque gestite dalla CPU creando overhead, mentre in questo modo la GPU agisce per conto proprio.
E no, non "diminuisce le latenze e basta", ma eviti anche di compiere operazioni complesse che prima erano necessarie (come la copia dei dati da una memoria all'altra) e approcciare la programmazione in modi in cui prima non era possibile.
Comunque su queste cose ti erano stati già forniti link in questa e altre discussioni, oramai dovresti saperle.
EDIT: noto ora che ancora insisti su "i giochi". Nei giochi la GPU è solitamente la risorse di calcolo più sfruttata, al più dovresti cercare di alleggerirla, non appesantirla.
L'accesso diretto in memoria può sicuramente essere un grosso vantaggio anche per i giochi, ma tutto il discorso che si faceva riguardava l'uso della GPU come risorsa di calcolo, il che ha poco a che fare con i giochi.
PaulGuru
31-10-2013, 23:07
Invece, tra le altre cose, significa anche quello.
Questo perchè le operazioni vanno comunque gestite dalla CPU creando overhead, mentre in questo modo la GPU agisce per conto proprio.
E no, non "diminuisce le latenze e basta", ma eviti anche di compiere operazioni complesse che prima erano necessarie (come la copia dei dati da una memoria all'altra) e approcciare la programmazione in modi in cui prima non era possibile.
Comunque su queste cose ti erano stati già forniti link in questa e altre discussioni, oramai dovresti saperle.
EDIT: noto ora che ancora insisti su "i giochi". Nei giochi la GPU è solitamente la risorse di calcolo più sfruttata, al più dovresti cercare di alleggerirla, non appesantirla.
L'accesso diretto in memoria può sicuramente essere un grosso vantaggio anche per i giochi, ma tutto il discorso che si faceva riguardava l'uso della GPU come risorsa di calcolo, il che ha poco a che fare con i giochi.
La GPU sforna frames a seconda di ciò che gli viene dato in pasto da renderizzare dalla cpu, se la cpu è lenta la GPU non è sfruttata quindi meglio appesantire la gpu anzichè la cpu se è possibile ( cosa che ovviamente non è ).
Per eliminare questi problemi che elenchi prima di tutto giusto per iniziare a lavorarci sù bisognerebbe avere il controller PCI ex integrato e AMD non lo dispone che io sappia.
L'evitare inutili processi di scritture e riscritture in memoria quanto pensi che conti in questa circostanza ? Di sicuro non sono soluzioni che permetteranno grossi boost immediati al problema del cpu limited con le cpu AMD.
A casa mia se una situazione è già limited in un preciso momento, dal momento in cui vai ad incrementare la potenzialità grafica il fattore limited se la cpu non sale proporzionalmente cresce ulteriormente.
Quindi questo Mantle cosa centra con un sistema FX + R9 290x ?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.