PDA

View Full Version : Insomniac Games e l'inutilità dei 60fps


Redazione di Hardware Upg
30-10-2009, 13:30
Link alla notizia: http://www.hwupgrade.it/news/videogiochi/insomniac-games-e-l-inutilita-dei-60fps_30605.html

Ratchet & Clank: A Spasso nel Tempo sarà probabilmente l'ultimo gioco di Insomniac con questo frame rate.

Click sul link per visualizzare la notizia.

sfoneloki
30-10-2009, 13:40
Forse dice questo perchè c'è difficoltà a fare girare sulle console un gioco oltre la risolutione dei 720p?
Per me la fluidità è importante, 25/30fps sono pochini. E' ovvio pure che contano pure altri parametri, quali la giocabilità, ma la scelta poi spetta al giocatore.

Spyto
30-10-2009, 13:42
Rispondo da persona che compra un gioco per giocare su di una console.
L'importante e che il gioco giri in modo fluido e senza scatti. Per me possono anche farlo andare a 20.000fps o 30fps che non mi cambia niente.

VooDoo2
30-10-2009, 13:48
Scusate, ma la soglia dell'occhio umano non è 30fps? Che senso ha farlo andare più veloce se tanto il nostro occhio non lo percepisce?

x.vegeth.x
30-10-2009, 13:49
Scusate, ma la soglia dell'occhio umano non è 30fps? Che senso ha farlo andare più veloce se tanto il nostro occhio non lo percepisce?

perchè non è vero che l'occhio non lo percepisce

BitmaniaK
30-10-2009, 13:50
cambia cambia...Specialmente con il 3d
Poi si possono sempre fare i compromessi che sono belli ugualmente

Nicola[3vil5]
30-10-2009, 13:52
il frame rate non è una costate, cambia in base alla creazione in tempo reale dell'ambiente di gioco, se passi da una scenda "tranquilla" ad una molta complessa c'è un crollo del frame rate e te ne accorgi eccome.

In un gioco con frame rate mediamnete alto ti accorgi di meno di questo cambiamento, se il gioco gira max a 25 fps te ne accorgeresti in continuazionel.

ReDeX
30-10-2009, 14:00
Rispondo da persona che compra un gioco per giocare su di una console.
L'importante e che il gioco giri in modo fluido e senza scatti. Per me possono anche farlo andare a 20.000fps o 30fps che non mi cambia niente.

Ma infatti 30fps sono sufficienti se sono costanti.

NIB90
30-10-2009, 14:01
Se non sbaglio la percezione dell'occhio umano è nella norma pari a 20 fps...penso che se un gioco mantenga un frame rate costante a 60 fps implichi anche che non scatti in quanto la macchina raggiunge delle prestazioni tali da arrivare ad elaborare fino a 60 fotogrammi al secondo. tutto IMHO:D

daedin89
30-10-2009, 14:01
sarei curioso di saperne di piu riguardo ai loro studi sull'inutilità dei 60fps ....dato che tralaltro hanno detto di averlo dimostrato analiticamente...

K-Kun
30-10-2009, 14:02
la soglia dell'occhio non è a 30 fps. R' più bassa, sotto il limite dei 23. Tanto è vero che lo standard PAL della trasmissione video trasmette 25fps, eppure in TV non ci sono problemi di scattosità. Anche a 24 fps la fluidità all'occhio è perfettamente identica (tutte le conversioni primarie ante-blending dei DVD giapponesi/americani provengono da IVTC 29.971fps->23.976fps eppure guardandoli tutto è perfetto).

La differenza la fanno non gli fps medi, ma i minimi. In un gioco in cui gli fps medi sono circa 30, c'è il rischio che in momenti di particolare carico, si generino un numero di fps inferiore a 22/23, ed è ben lì che vi accorgete dei rallentamenti.

Se la SH riesce a sviluppare in modo tale che il dato dei 30fps (o anche 24/25) sia costante su tutto gioco non noterete alcuna differenza da 60, 100, 20000000 fps.

StIwY
30-10-2009, 14:02
Personalmente sacrificherei SEMPRE i 60fps per far spazio a più dettagli grafici.

Con questo non voglio dire che la differenza fra 30fps e 60fps non si avverta, ma di sicuro dopo il primo minuto di gioco non te ne accorgi più quando invece è più facile che il giocatore si accorga di maggior dettaglio poligonale o texture più definite ecc.....ecc......

VooDoo2
30-10-2009, 14:06
@K-Kun

Allora avevo ragione! Ovviamente per 30 io intendevo costanti e ovvio che se poi si scende ai qui fatidici 23 o 25 lo si nota.

K-Kun
30-10-2009, 14:07
Stiwy... ti ho appena detto che la differenza non si avverte :asd: Hai presente l'effetto placebo? Sopra ai 23 fps i tuoi occhi non distinguono differenze.

Ripeto: è solo una questione di fps medi/massimi/minimi. Se il minimo è superiore a 23 non cambia più nulla andare a millemilioni di fps.

Senryu_91
30-10-2009, 14:08
sfoneloki ma di che difficoltà parli??? 720p NATIVI è un bel traguardo.... ovviamente upscalato arrivatranquillamente a 1080p (con piccola perdita di qualità ma ci arriva) ormai quasi tutte le esclusive sony che escono sono almeno a 720p nativi, e anche con qualche 1080p nativo (vedi GT5P/GT5 e killzone 2 a 1080i)

Arnalde
30-10-2009, 14:09
No,no, la soglia dell'occhio umano è 15 fps. Anzi, 10.
Mio cuggino dice che è 5 e mio zio che è ingegniere dell'occhio umano dice che secondo recenti studi due immagini ogni mezz'ora sono una soglia di fluidità accettabile.

daedin89
30-10-2009, 14:12
è possibile xò che si noti una reattività maggiore a fps superiori a 30? a me sembra di notare una risposta piu netta da parte del gioco quando sto ad un fps piu elevato...vi parlo di giochi su pc.....in fondo a 23fps la distanza tra un frame e l'altro è di 1/23 di secondo...che non è poi così poco...se muovo il mouse dovrei avere una specie di tempo d'attesa perchè il prossimo frame arriverà tra 1/23 di secondo.... 1/60 è decisamente meno....
conta un minimo questo aspetto??

K-Kun
30-10-2009, 14:12
Tuo cuggino può pure dire che la soglia sia quella del buco della serratura del tuo bagno.
Io su certe cose ci lavoro. Tu divertiti pure con altro.

Andrea deluxe
30-10-2009, 14:14
la soglia dell'occhio non è a 30 fps. R' più bassa, sotto il limite dei 23. Tanto è vero che lo standard PAL della trasmissione video trasmette 25fps, eppure in TV non ci sono problemi di scattosità. Anche a 24 fps la fluidità all'occhio è perfettamente identica (tutte le conversioni primarie ante-blending dei DVD giapponesi/americani provengono da IVTC 29.971fps->23.976fps eppure guardandoli tutto è perfetto).

La differenza la fanno non gli fps medi, ma i minimi. In un gioco in cui gli fps medi sono circa 30, c'è il rischio che in momenti di particolare carico, si generino un numero di fps inferiore a 22/23, ed è ben lì che vi accorgete dei rallentamenti.

Se la SH riesce a sviluppare in modo tale che il dato dei 30fps (o anche 24/25) sia costante su tutto gioco non noterete alcuna differenza da 60, 100, 20000000 fps.

http://91.121.132.199/gifs/15454.gif

ma dai......
stai scherzando vero?

questa e' disinformazione.

Diobrando_21
30-10-2009, 14:14
Peccato, era una delle poche sw che ancora credeva nel frame rate...il mercato centrerà pure ma fino ad un certo punto...la verità è che con l'hardware console è impossibile mantenere i 60 fps e una buona qualità visiva...cmq preciso, al contrario delle parole di insomniac, i 60 fps rendono anche un gioco modesto un buon gioco, l'esperienza cambia e di brutto...

Ps: il limite dell'occhio nn è 30 fps, i 60 si notano benissimo e se hai un occhio ben allenato vedi anche la differenza tra 60 e 120 (ovvio che oltre i 60 fai molta più difficoltà a percepire le differenze)...

K-Kun
30-10-2009, 14:15
è possibile xò che si noti una reattività maggiore a fps superiori a 30? a me sembra di notare una risposta piu netta da parte del gioco quando sto ad un fps piu elevato...vi parlo di giochi su pc.....in fondo a 23fps la distanza tra un frame e l'altro è di 1/23 di secondo...che non è poi così poco...se muovo il mouse dovrei avere una specie di tempo d'attesa perchè il prossimo frame arriverà tra 1/23 di secondo.... 1/60 è decisamente meno....
conta un minimo questo aspetto??

No, effetto placebo. Se noti rallentamenti stai sotto la soglia di framerate. Se la raggiungi non è che ti metti a vedere le schermate accelerate. Hai mai guardato un filmato a 120fps? Ecco... se non lo hai mai fatto fallo. La fluidità è la medesima.

Si possono notare differenze solo se lo fai scorrere in moviola, caso in cui, una maggiore densità di frame ti consentirà di vedere fluido anche il rallentatore.

Elrim
30-10-2009, 14:16
Ma che dite? Provate a giocare un titolo anche solo a 50fps e poi riprovatelo a 60, noterete eccome la differenza, 30 fps non ne parliamo poi. Certo dipende anche dal tipo di gioco, molti generi non richiedono di essere particolarmente fluidi per essere godibili, ma un gioco di corse o un fps perdono moltissimo se gli amputate il frame rate. Questi sviluppano platform per console, quindi cominciano a scontrarsi con gli evidenti limiti tecnici delle macchine e hanno bisogno di qualche scusa per indorare meglio la pillola.

K-Kun
30-10-2009, 14:17
Se vabbeh...

come disse galileo all'inquisizione :asd:

Disquisite pure dicendo corbellerie. Buon proseguimento :asd:

daedin89
30-10-2009, 14:18
ora...non so se c'entra...ma la differenza tra una normale tv e una a 100hz io l'ho notata...

RaZoR93
30-10-2009, 14:19
la soglia dell'occhio non è a 30 fps. R' più bassa, sotto il limite dei 23. Tanto è vero che lo standard PAL della trasmissione video trasmette 25fps, eppure in TV non ci sono problemi di scattosità. Anche a 24 fps la fluidità all'occhio è perfettamente identica (tutte le conversioni primarie ante-blending dei DVD giapponesi/americani provengono da IVTC 29.971fps->23.976fps eppure guardandoli tutto è perfetto).Ma basta con questa leggenda. :doh: Non è assolutamente vero. Prova a giocare ad un fps online a 23 fps, poi torna a dirci se è fluido. :rolleyes:

Effetto placebo. :rolleyes: :rotfl:

jägerfan
30-10-2009, 14:20
Non ho mai reputato i 60fps una necessità, mi basta che vengano garantiti 25 fps minimi in favore di un maggiore dettaglio grafico. Una media di 30fps con 25 minimi secondo me è più che soddisfacente.

adynak
30-10-2009, 14:21
La soglia "media" è di 23fps. Questo vuol dire sostanzialmente che:

- un essere umano medio non è in grado di notare differenze tra una sequenza di immagini a 23fps e una a 60fps;
- esistono persone per cui questa soglia è più bassa o più alta (ma tra i 20 e i 30fps penso che sia coperto praticamente ogni essere umano a cui non siano stati impiantati occhi bionici ^^);
- il frame rate è una proprietà che viene aggiornata ogni secondo e, pertanto, rappresenta una misura "istantanea". Dire:"60 fps non servono a niente non vuol dire nulla, è come dire che una macchina va a 70 km/h senza specificare se si tratta della velocità massima, della media o della velocità alla quale si consuma meno ... è una informazione priva di significato".
Quello che conta di più nei videogiochi è il frame rate minimo: questo non deve mai scendere al di sotto dei 23fps (o 30fps se vogliamo la "certezza" di coprire tutto il possibile campione degli esseri umani). Una volta che in un gioco viene garantito un frame rate minimo di 30fps allora non ci sono problemi: c'è la certezza matematica che quel gioco sarà percepito da tutti come fluido e senza scatti.
Le informazioni sul frame rate medio e massimo sono molto meno significative in quanto non garantiscono che, in alcuni casi, il gioco possa non avere scatti o essere percepito come poco fluido.

Diobrando_21
30-10-2009, 14:21
Tuo cuggino può pure dire che la soglia sia quella del buco della serratura del tuo bagno.
Io su certe cose ci lavoro. Tu divertiti pure con altro.

ecco allora cambia lavoro, senza offesa...l'occhio percepisce benissimo fino a 60 fps dove si raggiunge la fluidità perfetta...e se allenato anche oltre...nn iniziamo con queste buffonate x favore.

lelontre
30-10-2009, 14:21
....sotto i 100 fps non mi muovo neanche....ih ih ih XD

s12a
30-10-2009, 14:22
Tuo cuggino può pure dire che la soglia sia quella del buco della serratura del tuo bagno.
Io su certe cose ci lavoro. Tu divertiti pure con altro.

la soglia dell'occhio non è a 30 fps. R' più bassa, sotto il limite dei 23. Tanto è vero che lo standard PAL della trasmissione video trasmette 25fps, eppure in TV non ci sono problemi di scattosità.Anche a 24 fps la fluidità all'occhio è perfettamente identica (tutte le conversioni primarie ante-blending dei DVD giapponesi/americani provengono da IVTC 29.971fps->23.976fps eppure guardandoli tutto è perfetto).

No, non ci lavori. O non ci lavori a livello professionale.
Altrimenti sapresti che le trasmissioni TV appaiono fluide nonostante il framerate grazie ad un effetto di motion blur.

Consiglio a te e gli altri che "all'occhio umano oltre i 30 fps non cambia nulla" questa pagina che risolve ogni dubbi e lacune in merito:

-> http://www.100fps.com/how_many_frames_can_humans_see.htm

calabar
30-10-2009, 14:23
I filmati possono godere del motion blur, e grazie a questo ed un frame rate costante che appaiono fluidi. Per i giochi la cosa è ben diversa.

Misurazioni empiriche avevano dimostrato che a seconda del soggetto si era in grado di percepire 80-120 frame (escludendo casi estremi).
In questo stesso forum di recente era apparso un topic che spiegava bene in fenomeno (bravo chi lo trova per primo!) ma non è certo ua novità: spiegazioni di questo tipo ne ricordo fin dai tempi di Q3 nel forum di NGI.

Questo naturalmente senza contare i vantaggi che alcuni motori grafici portano all'aumentare degli fps, che è naturalmente un discorso ben differente da quello della percezione di fluidità.

daedin89
30-10-2009, 14:23
ah ecco! mi sono ricordato che sulla mia macchinetta potevo visualizzare la scena sul display a 30fps e a 60fps...l'immagine era fluida (dove fluida vuol dire senza SCATTI) sia a 30 che a 60...ma si vedeva la differenza...era come se avesse un lieve ritardo a 30fps! e ti assicuro che non è effetto placebo xke me ne sono reso conto senza sapere cosa fosse 'sta storia dei fps!

JackZR
30-10-2009, 14:23
Semplicemente su certe console non si riesce ad ottenere lo stesso framerate e qualità grafica alzando la risoluzione a 720p quindi usano sta scusa per pararsi il culo.
24 fps è il framerate di un film ma per giocare secondo me sono pochi, soprattutto in multiplayer, c'è chi dice che andare a più di 60 non serve a nulla, che l'occhio umano non percepisce la differenza, ma da quando sono passato a 150 fps a CoD io la differenza la vedo eccome...

Sammy Jankis
30-10-2009, 14:26
Se vabbeh...

come disse galileo all'inquisizione :asd:

Disquisite pure dicendo corbellerie. Buon proseguimento :asd:

Invece di irridere la nostra ignoranza cerca di spiegare il motivo delle tue affermazioni e magari impariamo tutti qualcosa in più :)

Se non sbaglio una delle differenze è che il frame di un gioco è un'immagine statica, mentre il frame di una pellicola riporta comunque il movimento del soggetto, se sbaglio correggimi pure.

Resta il fatto che la differenza tra 60 e 30 è chiaramente percepibile, ti cito un esempio pratico, in Fallout 3 passando da interno ad esterno ho un calo di frame nell'ordine 60 - 30, la differenza specialmente negli spostamenti rapidi dello sguardo è netta, non si tratta di effetto placebo, provare per credere.

zephyr83
30-10-2009, 14:27
proprio su questo sito, sempre in relazione a una news come questa sugli fps un utente spiego la differenza fra il frame rate di gioco e quello di un video...se nn sbaglio si dovrebbe trovare la spiegazione anche spulciando nel forum. Se ricordo bene nn si possono confrontare così direttamente gli fps di un gioco cn quello di un video visto che vengono "riprodotte" immagini di tipo diverso! avete mai fatto caso se facendo il fermo immagine di un video sembra spesso "sfuocato", nn definito? Bhe, sempre se ricordo bene, la differenza sta tutta qui! in un gioco invece ogni scena viene ridisegnata perfettamente tutte le folte e nn c'è questa "gradualità" nel passaggio da un fps all'altro, ecco perché è importante avere un fps alto in gioco per avere maggior fluidità. Nn so quanto possa essere questo valore limite, ma dovrebbe essere diverso da quello per i video .
Nn ho più il link di quella discussione che sembrava molto interessante, spero di ricordare ben (e che sia tutto vero :sofico: )

Sammy Jankis
30-10-2009, 14:27
I filmati possono godere del motion blur, e grazie a questo ed un frame rate costante che appaiono fluidi. Per i giochi la cosa è ben diversa.


Sbaglio o 3dFx aveva tentato qualcosa con il motion blur....???

peolo001
30-10-2009, 14:28
Magari per un rpg,uno strategico o altri giochini tranquilli 30 sono piu che sufficenti ma per altri come fps questi geniacci non è che mi devono venire a dire che non servono solo perchè magari sulla loro console sono difficili da ottenere.

zephyr83
30-10-2009, 14:28
I filmati possono godere del motion blur, e grazie a questo ed un frame rate costante che appaiono fluidi. Per i giochi la cosa è ben diversa.

Misurazioni empiriche avevano dimostrato che a seconda del soggetto si era in grado di percepire 80-120 frame (escludendo casi estremi).
In questo stesso forum di recente era apparso un topic che spiegava bene in fenomeno (bravo chi lo trova per primo!) ma non è certo ua novità: spiegazioni di questo tipo ne ricordo fin dai tempi di Q3 nel forum di NGI.

Questo naturalmente senza contare i vantaggi che alcuni motori grafici portano all'aumentare degli fps, che è naturalmente un discorso ben differente da quello della percezione di fluidità.
ecco bravo, quello che intendevo anche io! chi ritrova quel topic? :sofico:

Diobrando_21
30-10-2009, 14:28
La soglia "media" è di 23fps. Questo vuol dire sostanzialmente che:

- un essere umano medio non è in grado di notare differenze tra una sequenza di immagini a 23fps e una a 60fps;
- esistono persone per cui questa soglia è più bassa o più alta (ma tra i 20 e i 30fps penso che sia coperto praticamente ogni essere umano a cui non siano stati impiantati occhi bionici ^^);
- il frame rate è una proprietà che viene aggiornata ogni secondo e, pertanto, rappresenta una misura "istantanea". Dire:"60 fps non servono a niente non vuol dire nulla, è come dire che una macchina va a 70 km/h senza specificare se si tratta della velocità massima, della media o della velocità alla quale si consuma meno ... è una informazione priva di significato".
Quello che conta di più nei videogiochi è il frame rate minimo: questo non deve mai scendere al di sotto dei 23fps (o 30fps se vogliamo la "certezza" di coprire tutto il possibile campione degli esseri umani). Una volta che in un gioco viene garantito un frame rate minimo di 30fps allora non ci sono problemi: c'è la certezza matematica che quel gioco sarà percepito da tutti come fluido e senza scatti.
Le informazioni sul frame rate medio e massimo sono molto meno significative in quanto non garantiscono che, in alcuni casi, il gioco possa non avere scatti o essere percepito come poco fluido.

evvai! Eccone un'altro...frame rate minimo a 23 fps mi sa che allora le mie schede mi dureranno x l'eternità...gioco fluido a 30 fps nn si può proprio sentire...

R1ch360
30-10-2009, 14:32
Stiwy... ti ho appena detto che la differenza non si avverte :asd: Hai presente l'effetto placebo? Sopra ai 23 fps i tuoi occhi non distinguono differenze.

Ripeto: è solo una questione di fps medi/massimi/minimi. Se il minimo è superiore a 23 non cambia più nulla andare a millemilioni di fps.

Non è assolutamente vero che "sopra ai 23 fps i tuoi occhi non distinguono differenze" l'occhio umano percepisce anche oltre 60fps.
23 fps sono la soglia minima perchè l'occhio umano percepisca correttamente il "movimento" di immagini che in realtà sono ferme.
Nei film 23 o 25 fps sono sufficienti perchè i vari fotogrammi contengono già le delle "sfocature" per essere collegati l'uno con l'altro,nei videogiochi questo non accade...

Secondo te perchè i giochi di macchine (forza 3 o gt5) ci tengono tanto ai 60 fps se non si nota nessuna differenza??

ovviamente le differenze tra 30 e 60 si nota solo in scene "in movimento",scene che devono renderti il senso di "velocità"

magilvia
30-10-2009, 14:36
Ancora con sta storia che gli fps sopra i 30 non si notano??? Ennonsenepuò più. Basta fare qualche prova di gioco per accorgersi della differenza, ma probabilmente chi parla non ha il pc ed è abituato ai giochi da 30 fps delle console...

g.luca86x
30-10-2009, 14:38
Possibile che un gioco esclusivo per ps3 fatto nativamente @720p cominci già a dar problemi di prestazioni sul tanto declamato e pluripotenziale cell+chip grafico nvidia di questa console tanto da far cambiare filosofia di prodotto ad una software house? Qui mi sembra stiano solo facendo come la volpe e l'uva che siccome non la può raggiungere dice che è acerba... Io sinceramente già noto la differenza tra un filmato @23 e @30 fps e non film ma anime che quindi non può avere effetti di motion blur. Idem per i videogiochi, specie con i need for speed la differenza di framerate la percepivo eccome dai 25 ai 40 che facevo sul portatile... Il problema è sostanzialmente la soggettività di chi gioca: magari la maggior parte dei consollari nemmeno si pone il problema di come possa girare a fps più alti o nemmeno sanno cosa sono! non son mica tutti smanettoni.

Tra l'altro fenomenale la scusa di giustifica: il framerate non onfluenza le recensioni... Provate a dirlo quando magari il recensore percepisce una mancanza di fluidità nel gioco per ampi sprazzi... :asd:

yume the ronin
30-10-2009, 14:44
faccio solo presente che questo episodio di Ratchet & Clank E' a 60 fps esattamente come i precedenti

l' affermazione riguarda i futuri giochi in sviluppo presso insomniac, quindi tutte le varie insinuazioni riguardo l' incapacità della software house nella gestione di queste features è cristallinamente insensata

Diobrando_21
30-10-2009, 14:45
Aò e che è successo? Tutti quelli che affermavano di non notare differenze sono spariti di colpo...eppure sembravano tanto convinti :p

fdl88
30-10-2009, 14:46
un framerate alto del monitor e del gioco evita le scie...in ogni caso un gioco a 60Hz in un televisore a 400Hz è una goduria per gli occhi :)

×§ñåkê×
30-10-2009, 14:46
con la play2 notavo differenze tra giochi pal e ntsc che giravano rispettivamente a 50 e 60 fps

quindi direi che la soglia del "oltre non si nota" sia proprio intorno ai 60


a 24 fps girano i film al cinema, e devono usare il motion blur altrimenti si vedrebbe a scatti ;)

Diobrando_21
30-10-2009, 14:49
faccio solo presente che questo episodio di Ratchet & Clank E' a 60 fps esattamente come i precedenti

l' affermazione riguarda i futuri giochi in sviluppo presso insomniac, quindi tutte le varie insinuazioni riguardo l' incapacità della software house nella gestione di queste features è cristallinamente insensata

ma anche no...R&C è un buon gioco ma nn ha di certo il livello che ha resistance 2...e guarda a quanto gira e poi ne riparliamo...;)

Lithium_2.0
30-10-2009, 14:50
http://www.hwupgrade.it/forum/showthread.php?t=2026089

http://gaming.ngi.it/showthread.php?t=50218

BlueKnight
30-10-2009, 14:53
Pienamente d'accordo con Kunz e gli altri sostenitori della teoria dei sopra 30 fps = poca utilità.

C'è gente che lavora nel campo, gioca con il pc da più di 10 anni, ha studiato biologia e fisica all'univerisità.

Spiegare perchè l'occhio umano non percepisce più di 30 fps non è certo una cosa da niente, che si può sintetizzare in poche righe, sopratutto considerando poi che non tutti partono dalle medesime basi di conoscenza della biologia dell'occhio e della fisica.
La cosa è resa ancora più difficile se degli "pseudoprogamer" ti danno contro pretendendo di avere ragione!

Forse hai più non è ancora chiara la differenza fra "framerate percepiti" e "percezione dell'accelerazione e del rallentamento delle scene" nei videogames, dovuto a un aumento e a un calo del framerate.. se i giochi fossero come le pellicole con un frame costante tutta questa discussione dei 120 fps non sussisterebbe!

zephyr83
30-10-2009, 14:59
http://www.hwupgrade.it/forum/showthread.php?t=2026089

http://gaming.ngi.it/showthread.php?t=50218
il secondo link era prorpio quello che ricordavo io :)

Sammy Jankis
30-10-2009, 14:59
Pienamente d'accordo con Kunz e gli altri sostenitori della teoria dei sopra 30 fps = poca utilità.

C'è gente che lavora nel campo, gioca con il pc da più di 10 anni, ha studiato biologia e fisica all'univerisità.

Spiegare perchè l'occhio umano non percepisce più di 30 fps non è certo una cosa da niente, che si può sintetizzare in poche righe, sopratutto considerando poi che non tutti partono dalle medesime basi di conoscenza della biologia dell'occhio e della fisica.
La cosa è resa ancora più difficile se degli "pseudoprogamer" ti danno contro pretendendo di avere ragione!

Forse hai più non è ancora chiara la differenza fra "framerate percepiti" e "percezione dell'accelerazione e del rallentamento delle scene" nei videogames, dovuto a un aumento e a un calo del framerate.. se i giochi fossero come le pellicole con un frame costante tutta questa discussione dei 120 fps non sussisterebbe!

E siamo a due.

Se invece di continuare a farci presente i vostri studi universitari e il fatto che "lavorate nel campo" ci portaste qualche spiegazione adatta al nostro basso livello, un link ad un articolo......qualsiasi cosa......

Io personalmente amo apprendere cose nuove, ma se tali concetti contrastano con l'esperienza diretta permettimi di ribattere.

Oppure voi che "lavorate nel campo" vi trovate per giocare a GRID a 25 FPS in party riservatissimi :D

BlueKnight
30-10-2009, 14:59
Per quelli che parlano dei giochi consolle.. Rage, che sarà un semigioco di auto, girerà a 30 fps.

Poi vedo gente che parla di 60 Hz, 120 Hz, proiezioni cinematografiche, ecc..

prima di tutto, per parlare in termini "terra a terra", i film al cinema vanno bene a 24 frame perchè la pellicola non scorre in un senso.. ma va ripetutamente su/giu - su/giù davanti alla lente.

secondo, quelli che parlando di 120 Hz, immagino si riferiscano sopratutto a schermi con tubo catodico. Sapete che la tecnologia fra tubo ed LCD non sono la stessa cosa, e i frame rate non sono confrontabili fra loro? Sul tubo c'è un aggiornamento dell'immagine punto a punto, pixel per pixel, riga per riga.. per un LCD l'immagine si aggiorna "più o meno" tutta nello stesso istante.
Non sono i frame che causano il generarsi di scie sullo schermo.. ma il tempo di risposta dello schermo, che è ben altra cosa.

hORuS(c)
30-10-2009, 15:00
Cmq K-Kun ha perfettamente ragione, chi nota differenze passando da 60 a 30 di colpo, è solo un problema di sincronia con il monitor, che da la sensazione di un rallentamento...per rendervi dell'idea, basta pensare ke fino a poco tempo fa le lampade al NEON funzionavano con una frequenza di 50Hz, il ke significa, x chi nn lo sapesse che la lampada si spegne e si accende 50 volte in un secondo, paragonabile a 50 FPS, e il nostro carissimo occhio sembra proprio che nn percepisce tale oscillazione.
(Adesso immagino ke uscirà qualcuno che dirà io ho la vista super allenata sn SUPERMAN, e mi accorgo di tale oscillazione, a quel punto gli suggerisco di fare la domanda alla FIFA x fare il guardalinea di porta, per vedere se il pallone ha superato o meno la linea di porta, visto ke stanno investendo x il prossimo mondiale, di installare delle camere a 100Hz che riducono l'effetto BLUR in rallenty). C'è da aggiungere ke il nostro occhio si stanca più facilmente guardando un televisore a 60Hz ke a 100Hz, oppure usando x leggere, la lampada a neon ke funziona a 50Hz, piuttosto ke una a 250Hz. PS a tutti quelli ke giocano a 60FPS dicendo ke prendono solo quei giochi, buttate le vostre console, xkè quasi tutti i giochi in commercio scendono tranquillamente sotto i 60FPS!!! Saluti:D

zephyr83
30-10-2009, 15:07
scommettiamo che se faccio un video cn 25 (ma anche 30) immagini statiche al secondo qui TUTTi notano la differenza? :sofico: mi sa che qualcuno si è perso qualche link dove è stata spiegata la differenza fra i 24 fps di un video e i 30 di un videogioco

Noir79
30-10-2009, 15:15
La differenza tra 30 FPS, 60FPS e 100FPS in un videogioco si nota. Facilmente.

Fate la prova con un gioco vecchio e quindi facilmente maxxabile (il caro vecchio Urban Terror, o Quake III, o...)

e settate il parametro maxFPS da configurazione a 30, poi a 60, poi a 100.

Io la differenza la vedo e come, quindi non venite a raccontare luoghi comuni "per sentito dire".

elminister1
30-10-2009, 15:15
C'era un buon articolo postato da qualcuno qui si hwupgrade che spiegava benissimo questa storia della percezione. Il sunto è che più la scena è veloce e piena di oggetti che si movono in modo asincrono più gli fps necessari per una visualizzazzione fluida di una scena salgono, quindi il limite dei 30 fps è relativo.

Afterandre
30-10-2009, 15:18
faccio solo presente che questo episodio di Ratchet & Clank E' a 60 fps esattamente come i precedenti

l' affermazione riguarda i futuri giochi in sviluppo presso insomniac, quindi tutte le varie insinuazioni riguardo l' incapacità della software house nella gestione di queste features è cristallinamente insensata

Infatti... :rolleyes:

TUTTI i capitoli della serie Ratchet and Clank girano a 60 fps (costanti).

Eviterei quindi battutine tipo ''poverini non ce la fanno'', ''con una console cosa pretendono'' etc perchè gli Insomniac sul versante tecnico ci sanno fare e, ad oggi, vi hanno smentito con i fatti.

Sulle considerazioni future vedremo che combineranno e, nel caso, sarò il primo a gettarci cacca sopra se (E SOLO SE) faranno cazzate... ;)

alienStock
30-10-2009, 15:19
io con meno di 100fps non riesco a giocare, infatti gioco sul pc XD

Diobrando_21
30-10-2009, 15:19
Per quelli che parlano dei giochi consolle.. Rage, che sarà un semigioco di auto, girerà a 30 fps.

Poi vedo gente che parla di 60 Hz, 120 Hz, proiezioni cinematografiche, ecc..

prima di tutto, per parlare in termini "terra a terra", i film al cinema vanno bene a 24 frame perchè la pellicola non scorre in un senso.. ma va ripetutamente su/giu - su/giù davanti alla lente.

secondo, quelli che parlando di 120 Hz, immagino si riferiscano sopratutto a schermi con tubo catodico. Sapete che la tecnologia fra tubo ed LCD non sono la stessa cosa, e i frame rate non sono confrontabili fra loro? Sul tubo c'è un aggiornamento dell'immagine punto a punto, pixel per pixel, riga per riga.. per un LCD l'immagine si aggiorna "più o meno" tutta nello stesso istante.
Non sono i frame che causano il generarsi di scie sullo schermo.. ma il tempo di risposta dello schermo, che è ben altra cosa.
io mi riferivo ai 120hz lcd, nn tubo e nn ho mai parlato di scie ma di differenza che si nota oltre i 60...le differenze ci sono ma è ovvio che si assottigliano...cmq ci sono 2 link più su dagli una bella letta che qualcosa è spiegato al contrario di quello che fai tu...

Cmq K-Kun ha perfettamente ragione, chi nota differenze passando da 60 a 30 di colpo, è solo un problema di sincronia con il monitor, che da la sensazione di un rallentamento...per rendervi dell'idea, basta pensare ke fino a poco tempo fa le lampade al NEON funzionavano con una frequenza di 50Hz, il ke significa, x chi nn lo sapesse che la lampada si spegne e si accende 50 volte in un secondo, paragonabile a 50 FPS, e il nostro carissimo occhio sembra proprio che nn percepisce tale oscillazione.
(Adesso immagino ke uscirà qualcuno che dirà io ho la vista super allenata sn SUPERMAN, e mi accorgo di tale oscillazione, a quel punto gli suggerisco di fare la domanda alla FIFA x fare il guardalinea di porta, per vedere se il pallone ha superato o meno la linea di porta, visto ke stanno investendo x il prossimo mondiale, di installare delle camere a 100Hz che riducono l'effetto BLUR in rallenty). C'è da aggiungere ke il nostro occhio si stanca più facilmente guardando un televisore a 60Hz ke a 100Hz, oppure usando x leggere, la lampada a neon ke funziona a 50Hz, piuttosto ke una a 250Hz. PS a tutti quelli ke giocano a 60FPS dicendo ke prendono solo quei giochi, buttate le vostre console, xkè quasi tutti i giochi in commercio scendono tranquillamente sotto i 60FPS!!! Saluti:D
la ps3 l'ho buttata da tempo proprio x questo motivo, di certo nn servivi tu a suggerircelo...

Davilon
30-10-2009, 15:21
ragazzi nessuno ha pensato che in tv i frams sono interlacciati mentre a monitor su un gioco sono progressivi?

25fps interlacciati = 50fps progressivi

perchè 25 frame interlacciati sono 50 field con metà delle righe.. quindi un gioco per essere fluido come un film in tv deve essere sui 50 fps

neo1983
30-10-2009, 15:22
Io credo che il problema sia di ordine completamente diverso:

Non si possono paragonare video precalcolati e prerenderizzati come i films, dove non c'è un imput attivo, con un videogame che prevede molti input contemporanei e quindi è costretto a basarsi su quest'ultimi per renderizzare una scena che per forza di cose varierà al variare degli imput.
Detto questo ci si rende conto che se non ci fosse un imput variabile attivo come l'uomo un qualsiasi video o gioco non avrebbe un riferimento oggettivo poichè il primo elemento, l'imput, noi, è mancante. Per questo un film ( dove manca l'imput e il successivo output atteso) non cambia tra 30 e 60 e viceversa. Ovviamente per il gioco abbiamo abbandanti imput da considerare.
Quindi la "fluidità percepita" del gioco deve essere direttamente proporzionale alla velocità con cui noi mandiamo vari imput, per esempio la velocità con cui cambiamo inquadratura con il mouse in un FPS. A questo punto ci rendiamo conto che non stiamo più parlando di fluidità ma di reattività del gioco, quindi al cambio del grandezza fisica che consideriamo, la reattività, cambia eccome alzare gli fps in output, poichè avviciniamo sempre di più allo zero il tempo che intercorre tra imput e output.
Questo per spiegare che in realtà la percezione 60 30 non ha nulla a che vedere con le capacità fisiologiche dell'occhi umano, ma con il sistema di riferimento che si utilizza per valutare un determinato output.
Spero di essere stato chiaro

×§ñåkê×
30-10-2009, 15:24
prima di tutto, per parlare in termini "terra a terra", i film al cinema vanno bene a 24 frame perchè la pellicola non scorre in un senso.. ma va ripetutamente su/giu - su/giù davanti alla lente.

no...

la pellicola viene trascinata da una croce di malta:

http://upload.wikimedia.org/wikipedia/commons/9/9b/Geneva_mechanism_6spoke_animation.gif

che mantiene il fotogramma fisso davanti alla lampada per 1/24 s, nel periodo di tempo il cui il fotogramma è immobile, viene illuminato due volte, quindi si ha l'illusione che il film giri a 48fps...


cmq bisogna proprio avere il salame davanti agli occhi per dire che non c'è differenza tra 30 fps e 60 fps VSYNCH quindi COSTANTI... :rolleyes:

inoltre qui non si stà parlando di tempi di ritardo dei lcd, effetto scia, e altre cavolate simili, ma solo della fluidità, e la fluidità posso dire di cominciare a vederla solo a 50 fps, sia con tubo catodico che con lcd

Diobrando_21
30-10-2009, 15:28
Infatti... :rolleyes:

TUTTI i capitoli della serie Ratchet and Clank girano a 60 fps (costanti).

Eviterei quindi battutine tipo ''poverini non ce la fanno'', ''con una console cosa pretendono'' etc perchè gli Insomniac sul versante tecnico ci sanno fare e, ad oggi, vi hanno smentito con i fatti.

Sulle considerazioni future vedremo che combineranno e, nel caso, sarò il primo a gettarci cacca sopra se (E SOLO SE) faranno cazzate... ;)

guarda allora puoi già iniziare xké resistance 2 gira a 30 fps e nn è un gioco futuro ma semplicemente con una qualità superiore a R&C con l'ovvia conseguenza del calo a 30 ;). Ciao

Blackcat73
30-10-2009, 15:30
Non son esperto in materia quindi non mi metto a cercare di dare spiegazioni però mi pongo una domanda anzi la pongo a quelli che dicono che servono solo 23fps perchè un gioco sia fluido.. se fosse come dite voi perchè questi "ignoranti dell'Insomniac" si son sbattuti così tanto per averne sempre 60?

radoen
30-10-2009, 15:36
no...

la pellicola viene trascinata da una croce di malta:

http://upload.wikimedia.org/wikipedia/commons/9/9b/Geneva_mechanism_6spoke_animation.gif

che mantiene il fotogramma fisso davanti alla lampada per 1/24 s, nel periodo di tempo il cui il fotogramma è immobile, viene illuminato due volte, quindi si ha l'illusione che il film giri a 48fps...


cmq bisogna proprio avere il salame davanti agli occhi per dire che non c'è differenza tra 30 fps e 60 fps VSYNCH quindi COSTANTI... :rolleyes:

inoltre qui non si stà parlando di tempi di ritardo dei lcd, effetto scia,
e altre cavolate simili, ma solo della fluidità, e la fluidità posso dire di cominciare a vederla solo a 50 fps, sia con tubo catodico che con lcd



fortuna che hai fatto presente il fatto che la pellicola non fa avanti e indietro durante le proiezioni visto che era una boiata di proporzioni titaniche.

qualche pagina dietro qualcuno ha detto che nei frame delle pellicole sono "contenuti i movimenti del soggetto" ecco altra idiozia, i frame delle pellicole sono FOTOGRAFIE esattamente come quelle che possiamo fare noi cone le nostre reflex o compatte e sono STATICHE il la scena È STATICA se prendi il singolo fotogramma e non ci sta effetto scia per aumentare la fluidità (se qualcuno continua a dire il contrario mi mandi un pm con il suo indirizzo e li mando un frame di una pellicola per posta), ma è una semplice foto.
e comunque è vero a 30 fps costanti (inchiodati non medi con picchi massimi di 80 fps e minimi di 12 ) l'immagine è fluida e non si nota la differenza con i 60 o 120 o 240, se dite che "gioco al videogame Y a 300 fps e se scende a 120 me ne accorgo del rallentamento" vi rispondo che è normale visto che l'immagine "decellera". Vorrei fare un sondaggio con 2 video identici uno che gira a 120 e l'altro a 30 e vediamo chi nota le differenze.

Diobrando_21
30-10-2009, 15:39
Io credo che il problema sia di ordine completamente diverso:

Non si possono paragonare video precalcolati e prerenderizzati come i films, dove non c'è un imput attivo, con un videogame che prevede molti input contemporanei e quindi è costretto a basarsi su quest'ultimi per renderizzare una scena che per forza di cose varierà al variare degli imput.
Detto questo ci si rende conto che se non ci fosse un imput variabile attivo come l'uomo un qualsiasi video o gioco non avrebbe un riferimento oggettivo poichè il primo elemento, l'imput, noi, è mancante. Per questo un film ( dove manca l'imput e il successivo output atteso) non cambia tra 30 e 60 e viceversa. Ovviamente per il gioco abbiamo abbandanti imput da considerare.
Quindi la "fluidità percepita" del gioco deve essere direttamente proporzionale alla velocità con cui noi mandiamo vari imput, per esempio la velocità con cui cambiamo inquadratura con il mouse in un FPS. A questo punto ci rendiamo conto che non stiamo più parlando di fluidità ma di reattività del gioco, quindi al cambio del grandezza fisica che consideriamo, la reattività, cambia eccome alzare gli fps in output, poichè avviciniamo sempre di più allo zero il tempo che intercorre tra imput e output.
Questo per spiegare che in realtà la percezione 60 30 non ha nulla a che vedere con le capacità fisiologiche dell'occhi umano, ma con il sistema di riferimento che si utilizza per valutare un determinato output.
Spero di essere stato chiaro

guarda ottima spiegazione, veramente...però sei tu che stai parlando di reattività, noi ti posso assicurare che parliamo di fluidità quindi secondo me il tuo discorso centra veramente poco...

Andrea deluxe
30-10-2009, 15:41
si infatti nvidia e ati si rincorrono per qualcosa di mistico ed esoterico....


MAGIA!!!!!!!

zephyr83
30-10-2009, 15:43
fortuna che hai fatto presente il fatto che la pellicola non fa avanti e indietro durante le proiezioni visto che era una boiata di proporzioni titaniche.

qualche pagina dietro qualcuno ha detto che nei frame delle pellicole sono "contenuti i movimenti del soggetto" ecco altra idiozia, i frame delle pellicole sono FOTOGRAFIE esattamente come quelle che possiamo fare noi cone le nostre reflex o compatte e sono STATICHE il la scena È STATICA se prendi il singolo fotogramma e non ci sta effetto scia per aumentare la fluidità (se qualcuno continua a dire il contrario mi mandi un pm con il suo indirizzo e li mando un frame di una pellicola per posta), ma è una semplice foto.
e comunque è vero a 30 fps costanti (inchiodati non medi con picchi massimi di 80 fps e minimi di 12 ) l'immagine è fluida e non si nota la differenza con i 60 o 120 o 240, se dite che "gioco al videogame Y a 300 fps e se scende a 120 me ne accorgo del rallentamento" vi rispondo che è normale visto che l'immagine "decellera". Vorrei fare un sondaggio con 2 video identici uno che gira a 120 e l'altro a 30 e vediamo chi nota le differenze.
si sn foto ma nn sn "nitide", sn "mosse" danno idea del movimento...o no? tutte le volte che faccio un fermo immagino nn la vedo quasi mai nitida e definita l'immagine (ovviamente parlo di una scena in movimento)

Diobrando_21
30-10-2009, 15:46
fortuna che hai fatto presente il fatto che la pellicola non fa avanti e indietro durante le proiezioni visto che era una boiata di proporzioni titaniche.

qualche pagina dietro qualcuno ha detto che nei frame delle pellicole sono "contenuti i movimenti del soggetto" ecco altra idiozia, i frame delle pellicole sono FOTOGRAFIE esattamente come quelle che possiamo fare noi cone le nostre reflex o compatte e sono STATICHE il la scena È STATICA se prendi il singolo fotogramma e non ci sta effetto scia per aumentare la fluidità (se qualcuno continua a dire il contrario mi mandi un pm con il suo indirizzo e li mando un frame di una pellicola per posta), ma è una semplice foto.
e comunque è vero a 30 fps costanti (inchiodati non medi con picchi massimi di 80 fps e minimi di 12 ) l'immagine è fluida e non si nota la differenza con i 60 o 120 o 240, se dite che "gioco al videogame Y a 300 fps e se scende a 120 me ne accorgo del rallentamento" vi rispondo che è normale visto che l'immagine "decellera". Vorrei fare un sondaggio con 2 video identici uno che gira a 120 e l'altro a 30 e vediamo chi nota le differenze.

basta che non ci scommetti una grossa cifra xké perderesti di sicuro...inoltre qui nn si parla di video ma di videogiochi in TEMPO REALE, ficcatevelo in testa. E basta! Ma mi lasciate lavorare in santa pace?

Slumber86
30-10-2009, 15:46
Il problema si chiama JITTER, quello si, si nota, e tanto nei videogiochi come nell'audio. Ovviamente i 60 fps riducono questo problema, siccome c'è meno tempo a disposizione per le variazioni casuali dei timings nell'arrivo del flusso di dati la nostra percezione del movimento sarà migliore.
Il problema è nell'architettura di rendering che non cerca di "inscatolare" i frames in una griglia temporale ma cerca di renderizzarne il più possibile e di buttarli nel frame buffer. 25 frames sincronizzati alla perfezione sono sufficienti, ma nei videogiochi non saranno MAI sincronizzati..

×§ñåkê×
30-10-2009, 15:47
gioco al videogame Y a 300 fps e se scende a 120 me ne accorgo del rallentamento" vi rispondo che è normale visto che l'immagine "decellera".

con la 4870x2 in left 4 dead (gioco multy abbastanza frenetico a tratti) ho sbalzi da 300fps (che è il massimo limite del source engine impostato di default) a 80/90, e non noto alcuna differenza, perchè cmq è oltre il limite.

ma se per caso scendessi a 30... allora li si che me ne accorgerei, e non avrei bisogno di un contatore di fps per rendermene conto

coschizza
30-10-2009, 15:48
e comunque è vero a 30 fps costanti (inchiodati non medi con picchi massimi di 80 fps e minimi di 12 ) l'immagine è fluida e non si nota la differenza con i 60 o 120 o 240

sono olre 20 anni che gioco ai videogame è ho sentito infinite volte questa leggenda solo che a livello pratico non ho mai visto un caso dove non notavo sostenziali differenze tra un gioco da 30fps costanti a uno a 60fps costanti

per essere sicero noto come è normale che sia una grande differenza persino tra un semplice 25fps a un 30fps dove i frame in piu sono molto pochi

L'occhio medio umano in condizione di buona luce ha una velocità di elaborazione delle immagini che è paragonabile a circa 70 al secondo (e non ditemi che anche la scienza dice stupidaggini perche allora stiamo freschi).
IMHO questa discussione che va avanti da ormai un paio di decenni non potra mai risolversi fino a quando le persone non proveranno le cose che dicono invece di prendere tutto quello che dicono gli altri come la verità suprema.

se usate un pc prendetevi un software come il fraps per visualizzare gli fps e fate accurati esperimenti e vedrete che l'occhio umano è molto superiore di quando pensiate e che i limiti 23-24 fps che molti citano non hanno origine dai limiti del corpo umano ma dal costo delle cineprese di un tempo e la necessità di raggiungere un rapporto prezzo prestazioni tale da non andare fuori mercato prima ancora di potersi diffondere.

per chi ha una console è piu semplice basta prendere un gioco che ha il framerate costante a 30 o 60 fps e vedere come le differenze non solo visive ma anche di reattività sono superiori in tutto e se prendiamo un gioco di automobili o un fps queste differenze poi si traducono in tempi di risposta nettamente superiori ai comandi.

se qualcuno vuole discutere in maniera seria sono a disposizione ma attenzione perche parlare di videogame o video al cinema o immagini proiettate su un muro o visualizzate du un tv lcd allore le cose non sono paragonabili perche ogni caso ha delle variabili e quindi non è direttametne confrontabile. Bisigna partire dalle basi e capire perche in casi diversi l'occhio umano percepisce e elabora le immagini i naniera leggermente differente.

tornano alla news IMHO i 60fps possibili su una console (perche comunque limitati dalla tv) sono ottimi per qualsiasi gioco e spero un futuro diventino davvero lo standard e non solo un obiettivo raggiunto da pochi. Detto questo pero è obiettivo dire che in certe categorie di gioco molto frenetiche framerate molto superiori come un 120fps si notano benissimo e danno all'occhio unamo molte piu informazioni affinche poi vengano elaborate dal cervello e creato un movimento fluido.

Andrea deluxe
30-10-2009, 15:49
con la 4870x2 in left 4 dead (gioco multy abbastanza frenetico a tratti) ho sbalzi da 300fps (che è il massimo limite del source engine impostato di default) a 80/90, e non noto alcuna differenza, perchè cmq è oltre il limite.

ma se per caso scendessi a 30... allora li si che me ne accorgerei, e non avrei bisogno di un contatore di fps per rendermene conto

secondo me non dovremmo neanche rispondere a certe persone che non hanno pluriennale esperienza con sk video monitor e tecnologia video.

Andrea deluxe
30-10-2009, 15:51
con le cose dette da certi elementi il mercato delle sk video improvvisamente non ha piu' senso.....


MAGIA!!!!

:sbonk:

Magic73
30-10-2009, 15:54
fortuna che hai fatto presente il fatto che la pellicola non fa avanti e indietro durante le proiezioni visto che era una boiata di proporzioni titaniche.

qualche pagina dietro qualcuno ha detto che nei frame delle pellicole sono "contenuti i movimenti del soggetto" ecco altra idiozia, i frame delle pellicole sono FOTOGRAFIE esattamente come quelle che possiamo fare noi cone le nostre reflex o compatte e sono STATICHE il la scena È STATICA se prendi il singolo fotogramma e non ci sta effetto scia per aumentare la fluidità (se qualcuno continua a dire il contrario mi mandi un pm con il suo indirizzo e li mando un frame di una pellicola per posta), ma è una semplice foto.
e comunque è vero a 30 fps costanti (inchiodati non medi con picchi massimi di 80 fps e minimi di 12 ) l'immagine è fluida e non si nota la differenza con i 60 o 120 o 240, se dite che "gioco al videogame Y a 300 fps e se scende a 120 me ne accorgo del rallentamento" vi rispondo che è normale visto che l'immagine "decellera". Vorrei fare un sondaggio con 2 video identici uno che gira a 120 e l'altro a 30 e vediamo chi nota le differenze.


O_O

scusa.. facciamo un po' di calcoli:

30fps = 30 frame al secondo = 0.03frame ogni millisecondo = 1 frame ogni 33.3 millisecondi.

60fps = 60 frame al secondo = 0.06frame ogni millisecondo = 1 frame ogni 16.6 millisecondi.

120fps = 120 frame al secondo = 0.12frame ogni millisecondo = 1 frame ogni 8.3 millisecondi.

e non vado oltre.

Ora, se hai un oggetto che si muove ad una velocità superiore a quella usata per riprendere la scena, come fai ad affermare che la scena è fluida e senza scatti?

E' ovvio, che se devo riprendere un oggetto che si muove 60 metri al secondo, ed uso una ripresa a 30fps.. mi perdo il 50% delle immagini rispetto ad una ripresa a 60fps. Per cui quest'ultima risulterà + fluida, e la situazione migliora per lo stesso motivo usando una ripresa a 120fps.

L'occhio umano non nota differenze oltre i 30fps??
Quindi se una macchina viaggia oltre 30mt/secondo (circa 113Km/h) la vedo a scatti????? :confused:

strano perchè quando vado a monza a vedere la F1, non mi sembra di vedere le macchine muoversi a scatti.. neanche quando raggiungono i 340Km/h (circa 94mt/secondo)..... :)

Grey 7
30-10-2009, 15:54
....e io che mi lamento quando borderlands mi cala da 60 fps a 45 in alcuni punti. Lo noto subito, è piu forte di me :asd:

×§ñåkê×
30-10-2009, 15:55
da wiki:

il fenomeno della persistenza delle immagini sulla retina consente all'occhio di non cogliere l'alternanza di buio e di luce solo a partire da circa cinquanta cicli al secondo.

e infatti i monitor a tubo catodico a 60hz danno fastidio agli occhi, l'occhio resce a percepire l'accendersi e spegnersi dello schermo, mentre intorno i 85hz questo non si nota piu

Davilon
30-10-2009, 15:57
continuate a ignorare il fatto che i frames nei giochi sono progressivi mentre nei film sono interlacciati

quindi un frame interlacciato a video equivale a 2 progressivi..

quindi 25fps del film sono come i 50fps di un gioco..

SVEGLIAAAAAAA

radoen
30-10-2009, 15:59
si sn foto ma nn sn "nitide", sn "mosse" danno idea del movimento...o no? tutte le volte che faccio un fermo immagino nn la vedo quasi mai nitida e definita l'immagine (ovviamente parlo di una scena in movimento)

no sono NITIDE altrimenti col cavolo che le metti a fuoco sullo schermo. Ah se parli di fermo immagine da dvd le cose cambiano perchè credo che il filmato sia registrato interlacciato (ma qui posso anche sbagliarmi su quanto ho detto sui film in pellicola no)

se ho detto boiate sul framerate dei vg chiedo perdono avevo gli zebedei girati per il "film" che va avanti e in dietro e ho scritto senza pensare.

Slumber86
30-10-2009, 16:00
no.. i film son progressivi eh.. la tv è interlacciata..

×§ñåkê×
30-10-2009, 16:00
continuate a ignorare il fatto che i frames nei giochi sono progressivi mentre nei film sono interlacciati

quindi un frame interlacciato a video equivale a 2 progressivi..

quindi 25fps del film sono come i 50fps di un gioco..

SVEGLIAAAAAAA

guarda che ora come ora, l'unico esempio di immagini interlacciate si ha guardando la tv analogica

il cinema per sua natura usa il progressive
i dvd sono progressive
i blu ray idem
credo anche il digitale terrestre sia p

;)

Wilfrick
30-10-2009, 16:06
Il sistema pal è si 25 fps, ma sono interlacciati, ovvero vengono trasmessi per ogni frame 2 semiquadri differenti, uno sulle linee pari ed uno sulle dispari. Pertanto in effetti si hanno 50 immagini diverse al secondo.
Quando ci sono trasmissioni fatte in progressive (25p, ultimamente se ne vedono, soprattutto perchè registrate in hd) ci si accorge della scattosità rispetto a quelle calssiche in 50i. Pertanto l'occhio nota la mancanza di fluidità. Oltre la soglia dei 50 fps però non ci sono differenze.
Invece, i 25p visualizzati su schermi LCD non danno quella grande impressione di scattosità rispetto ai CRT.

zephyr83
30-10-2009, 16:08
scusate ma riporto quanto scritto nel link postato in precedenza così magari possiamo iniziare a fare discussioni incentrati su altri aspetti (oppure qualcuno può smentire quanto scritto)
http://gaming.ngi.it/showthread.php?t=50218 scritto dall'utente Nereid, mi permetto di sottolineare soltanto alcune che secondo me (sottolineo, secondo me) sn più "significative" (giusto per farle balzare all'occhio subito :) )

Ciao a tutti!

Stanco di sentire gente che afferma, contro l'evidenza e il buon senso, che sopra i 30 fps "non si notano differenze", mi accingo a demolire tale affermazione, spero una volta per tutte, anche con l'aiuto di mio cognato che fa l'oculista (grazie per il ripasso di come e' fatto l'occhio).

La prima premessa d'obbligo e' che ritengo che le persone che affermano questo siano state tratte in inganno da come funzionano le proiezioni dei film nei cinematografi (24 - 25 fps).

Il punto cruciale e' proprio questo, la sostanziale differenza che esiste tra assistere alla proiezione di un film (TV o cinema che sia) ed usare un videogame, data la struttura dell'occhio.

Ma andiamo con ordine.


LA STRUTTURA DELL'OCCHIO

L'occhio non e' altro che un'antenna (avete capito bene, e' proprio una antenna) in grado di decodificare grazie alla sua complessa struttura quelle onde elettromagnetiche che noi chiamiamo "luce visibile" (ma teoricamente potrebbero esistere occhi per vedere a infrarossi, o i raggi X, o gli ultravioletti, o persino i suoni...) grazie a due componenti fondamentali, coni e bastoncelli, che visualizzano sulla corteccia cerebrale quanto da loro analizzato.
I coni sono di tre tipi specializzati per verde, rosso e blu, mentre i bastoncelli (molto piu' sensibili) si occupano della focalizzazione e dell'intensita' della luce "tradotta".
I bastoncelli sono molto piu' fitti agli estremi della retina e questo spiega l'effetto della visione periferica (quando guardate le stelle fioche direttamente non le vedete, se mettete a fuoco un punto vicino invece le scorgete ai bordi del vostro campo visivo).
Infine la cosa piu' importante: il nostro occhio e' ANALOGICO ovvero traduce un flusso continuo di informazioni, non impulsi o "frame" alla volta.

I LIMITI DELL'OCCHIO

Sento gia' i primi mugugni :D
"Ma come mai allora in certe situazioni non si distinguono i contenuti mentre in altri si' se l'occhio ha una capacita' infinita?" direte voi fans dei 30 fps.
Ora ci arriviamo.
Il "limite" non e' dell'occhio ma del cervello e come infatti vedremo puo' variare da persona a persona (ma non e' comunque 30 fps :D ).
Per consentirci di vivere nel mondo reale dandoci la possibilita' di percepire la posizione e il moto degli oggetti (cosa MOLTO piu' importante che distinguere i contenuti, per ovvie ragioni) anche in situazioni particolari (ad esempio, quando ci muoviamo ad alte velocita') il nostro cervello applica alla vista un effetto (che spesso si vede nei demos della "scena" :) ) che si chiama "motion blur" ed e' quello che ci fa percepire le gocce di pioggia come linee che si muovo dall'alto verso il basso e non come una sequenza di istantanee in cui distinguiamo le sferette d'acqua sospese nell'aria.
Questo effetto non e' altro che la traduzione visiva del movimento (che e' una cosa ANALOGICA e quindi infinita... ricordate il paradosso di Zenone? :) ) da parte di una struttura con dei limiti (anche se elevati) quale e' il cervello.
E che centra questo coi videogames direte voi? Ora arriviamo al punto :)

DIFFERENZE TRA CINEMA E VIDEOGAMES: OVVERO, IL BLUR

Analizziamo il cinema.
Al cinema siamo in un ambiente buio e osserviamo passivamente una proiezione altamente luminosa riflessa da uno schermo sul nostro occhio. La situazione fa si che i bastoncelli siano superstimolati a scapito dei coni (che distinguono i particolari) e che l'effetto di blur succitato sia amplificato dalla maggiore persistenza delle immagini sulla retina.
Inoltre, ci sono altre 2 cose importanti da notare.
Ogni fotogramma viene proiettato e percepito istantaneamente e non rasterizzato una o piu' volte come nel caso di un monitor CRT.
E seconda e piu' importante cosa, la visione ci appare fluida perche' i fotogrammi CONTENGONO l'informazione di blur!! Se infatti osservate un fotogramma fermo di una scena concitata o di un film di animazione, noterete distintamente questo effetto.
Questo fa si che il film venga percepito esattamente come una situazione reale, anche se bidimensionale.
I piu' intelligenti di voi hanno forse capito dove voglio ora andare a parare :) .
Vediamo infatti il nostro bel quakko 2 (o quello che preferite).
Al contrario del film, il videogame genera immagini dove ogni oggetto occupa una posizione ESATTA... ovvero niente blur. Non mette il blur per due ragioni: la prima puramente tecnica (ci vorrebbero troppi calcoli) e la seconda e' che se lo facesse succederebbe quello che forse alcuni di voi hanno provato se tentano di giocare a un first person shooter su uno schermo LCD, ovvero la visione appare molto piu' fluida (e qui si vi bastano 30 fps!) ma vi risulterebbe molto piu' difficile mirare e sparare.
Il fatto di usare immagini ESATTE e non con blur fa si che il cervello
percepisca come "meglio" quei flussi che piu' si avvicinano alla visione del mondo reale (che e' analogica...) ovvero quei flussi che hanno FPS maggiori e che quindi danno all'occhio (ovvero al cervello!) la sensazione di essere immerso in una situazione reale.
L'errore di fondo e' appunto ragionare sul contenuto e non sulla percezione del movimento!!


NON NE SIETE CONVINTI?

Fatti vostri :D
Scherzi a parte, il limite oltre il quale non si puo' dire la differenza esiste anche per questo ragionamento, ma e' ben piu' alto dei tanto paventati 30-40; oscilla tra i 75 e i 120-130 (!) a seconda della sensibilita' personale.
Per i San Tommasi basta fare questa prova: settate il monitor a 60 hertz e fissatene il centro per un po'. Noterete flicker e vi si affatichera' la vista.
Ora settatelo ad 85. La cosa non si ripete. Se gia' il buon senso non vi dice che c'e' una differenza percepita dall'occhio, rileggetevi bene quanto detto prima :P
Volete verificare che i bastoncelli sono di piu' ai bordi e quindi la vostra vista e' piu' sensibile "in periferia"?
Mettete il monitor a 75 hertz (un valore in genere di soglia) e guardatelo prima direttamente, poi con la visione periferica.
Se il vostro limite si aggira attorno a quella cifra, guardandolo direttamente lo noterete stabile mentre con la visione periferica lo vedrete flickerare!
Questo metodo puo' essere ovviamente usato per scoprire la vostra sensibilita' ripetendo il giochetto aumentando via via il refresh.

NOTA CONCLUSIVA

Non ce l'ho assolutamente con chi pensa che 30-40 fps siano abbastanza. Quella e' un'opinione e come tale la rispetto.
Ma sappiate che la percezione visiva e' appunto sensibile a variazioni anche fino a 150 fps, questi sono i fatti.
Ringrazio mio cognato Marco per la consulenza.
Infine una mia nota di colore dedotta da questo ragionamento.
E' probabile che una delle caratteristiche dei quaker migliori sia una BASSA sensibilita', ovvero che a parita' di FPS la loro percezione sia migliore, e quindi migliori le loro reazioni e la loro capacita' di mirare con precisione...

Meditate gente meditate e... alla prox!

Nereid[SD]

coschizza
30-10-2009, 16:08
E' ovvio, che se devo riprendere un oggetto che si muove 60 metri al secondo, ed uso una ripresa a 30fps.. mi perdo il 50% delle immagini rispetto ad una ripresa a 60fps. Per cui quest'ultima risulterà + fluida, e la situazione migliora per lo stesso motivo usando una ripresa a 120fps.


perfettamente giusto è questa la questione!, io posso anche usare una ripresa a una velocità realmente troppo alta e quindi teoricamente inutile ma se questultima ha registrato piu informazioni e quindi fa in modo che il cervcallo debba usare meno tecniche di interpolazione e di blur per elaborare l'immagine ottero un immagine piu lineare.

Slumber86
30-10-2009, 16:09
guarda che ora come ora, l'unico esempio di immagini interlacciate si ha guardando la tv analogica

il cinema per sua natura usa il progressive
i dvd sono progressive
i blu ray idem
credo anche il digitale terrestre sia p

;)

Il DT dipende..
In SD è ancora interlacciato. Spesso per eventi sportivi sul satellite usano 1080i perché fornisce migliore rapprentazione del movimento utilizzando la banda del 720p che è lo standard per film, telefilm, e altri show..

zephyr83
30-10-2009, 16:12
no sono NITIDE altrimenti col cavolo che le metti a fuoco sullo schermo. Ah se parli di fermo immagine da dvd le cose cambiano perchè credo che il filmato sia registrato interlacciato (ma qui posso anche sbagliarmi su quanto ho detto sui film in pellicola no)

se ho detto boiate sul framerate dei vg chiedo perdono avevo gli zebedei girati per il "film" che va avanti e in dietro e ho scritto senza pensare.
se la scena è in movimento a me l'immagine "stoppata" nn appare affatto nitida! Poi vorrei sapere come fa una videocamera a catturare instantaneamente senza "scie" una scena in rapido movimento! Oppure prova a usare il multiscatto di una macchina fotografica, ci sn quelle che riescono a fare 25 scatti al secondo (o anche di più)........attacca le immagini e vediamo se l'effetto è lo stesso di quello di un video.
Cmq ho postato poco fa l'intervento di un utente di un altro forum che spiega meglio cosa citanto l'effetto blur (per l'appunto), se tu riesci a spiegarmela meglio te ne sn grato se no io continuo a pensare così :)

Dott.Wisem
30-10-2009, 16:16
Non ho avuto il tempo di leggere tutti i post, ma qui mi pare si sia perso il punto fondamentale: gli Insomniac non hanno mica detto che 30 è meglio di 60, oppure che i giocatori non notano differenze... Hanno semplicemente affermato che, in base ad indagini statistiche, un bel gioco venderebbe tanto e avrebbe recensioni favorevoli, sia che avesse un framerate di 60fps, sia che avesse un fps di 30fps. Basta che il framerate sia costante e che il gioco sia avvincente!

Ora, se io programmatore ho come limite impostomi dal capo-progetto il non dover mai andare al di sotto dei 60fps, è ovvio che dovrò scendere a compromessi con la qualità grafica raggiungibile (minor numero di poligoni, minor numero di effetti post-processing, ecc.). Se a 30fps riesco ad ottenere un risultato grafico nettamente migliore, probabilmente il mio gioco venderà anche di più di uno più fluido, ma meno bello graficamente.

Questa è la sostanza del loro discorso. Tuttavia, io non sono d'accordo, perché se è vero che 30fps per molte tipologie di giochi sono sufficienti, è altrettanto vero che per altre sono un po' riduttivi. Ad esempio, un gioco di guida a 30fps lo percepisci decisamente meno 'realistico' rispetto ad uno che gira a 60fps. Analogamente, un First Person Shooter, a 30fps mostra un po' di scatti (che ad alcuni danno molto fastidio) durante le rotazioni orizzontali veloci della visuale, cosa che non accade a 60fps. A 25fps ancora peggio.
Tuttavia, un gioco di ruolo, un gioco di combattimento, un adventure, uno strategico, sparatutto in terza persona e tanti altri generi, riescono ad essere godibilissimi anche a 30fps.

Morale della favola: 30fps in alcuni generi sono sufficienti, in altri no.

!fazz
30-10-2009, 16:19
io con meno di 100fps non riesco a giocare, infatti gioco sul pc XD

con che monitor?

×§ñåkê×
30-10-2009, 16:23
con che monitor?

si infatti, oltre i 60 fps dei monitor comuni, i fotogrammi in piu vanno "persi" o si sovrastano a quelli precedenti, si nota con rapidi movimenti della camera, l'immagine viene tagliata verticalmente

mirkonorroz
30-10-2009, 16:30
Il framerate necessario e' quello che permette all'oggetto "percettivamente piu' veloce (a volte puo' essere il piu' vicino alla telecamera)" di essere renderizzato in modo che ad ogni frame la sua immagine si sia spostata di un solo pixel sullo schermo. :lol: o sbaglio ?
Di solito non gioco guardando lo schermo con la coda dell'occhio (dove sono presenti in maggior parte i bastoncelli) quindi in genere quando vedo un gioco che scatta anche se il framerate e' 30 e' perche' molti oggetti non possono essere disegnati per piccoli spostamenti.
Comunque mi ricordo quando andai, dopo anni, al cinema a vedere LOTR che dissi: ma che diav... scatta e si vede sfuocato... probabilmente per me 24 fps sono pochi e la sfocatura non era quella della lente ma il compositing nelle immagini per il motion blur

:sofico:
:lol:

Sammy Jankis
30-10-2009, 16:30
Invece di irridere la nostra ignoranza cerca di spiegare il motivo delle tue affermazioni e magari impariamo tutti qualcosa in più :)

Se non sbaglio una delle differenze è che il frame di un gioco è un'immagine statica, mentre il frame di una pellicola riporta comunque il movimento del soggetto, se sbaglio correggimi pure.


fortuna che hai fatto presente il fatto che la pellicola non fa avanti e indietro durante le proiezioni visto che era una boiata di proporzioni titaniche.

qualche pagina dietro qualcuno ha detto che nei frame delle pellicole sono "contenuti i movimenti del soggetto" ecco altra idiozia

Se noti ho detto di correggermi pure, non di darmi dell'idiota, grazie.

Abufinzio
30-10-2009, 16:30
Per chi sostiene che 30fps bastano
Per chi fa i paragoni tra film dvd/cinema/tv e video giochi (o comunque applicazioni al computer)

http://gaming.ngi.it/showthread.php?t=50218

Leggete attentamente e cominciate a ragionare con la vostra vista e il vostro cervello non con quelli degli altri ^^

(cosa che comunque vale in ogni campo, non solo in quello di fps giochi e membri vari)

zephyr83
30-10-2009, 16:34
Per chi sostiene che 30fps bastano
Per chi fa i paragoni tra film dvd/cinema/tv e video giochi (o comunque applicazioni al computer)

http://gaming.ngi.it/showthread.php?t=50218

Leggete attentamente e cominciate a ragionare con la vostra vista e il vostro cervello non con quelli degli altri ^^

(cosa che comunque vale in ogni campo, non solo in quello di fps giochi e membri vari)
inutile, io ho addirittura postato qui l'intervento completo ma alcuni sembrano proprio nn notarlo :sofico:
a me le spiegazioni sembrano convincenti ma magari sta dicendo anche lui delle boiate :D se qualcuno vuole smentire è ben accetto :)

cionci
30-10-2009, 16:37
Il problema si chiama JITTER, quello si, si nota, e tanto nei videogiochi come nell'audio. Ovviamente i 60 fps riducono questo problema, siccome c'è meno tempo a disposizione per le variazioni casuali dei timings nell'arrivo del flusso di dati la nostra percezione del movimento sarà migliore.
Il problema è nell'architettura di rendering che non cerca di "inscatolare" i frames in una griglia temporale ma cerca di renderizzarne il più possibile e di buttarli nel frame buffer. 25 frames sincronizzati alla perfezione sono sufficienti, ma nei videogiochi non saranno MAI sincronizzati..
Ecco...questa è la spiegazione che mi piace di più per chi nota la diminuzione del frame rate anche in scene che renderizzano comunque oltre 40-50 fps.
Sinceramente non so quale sia il limite minimo o se c'entri o meno il motion blur, ma sono sicuro che il motivo per cui notate i rallentamenti sia questo.
Il jitter in una sequenza di frame è la differenza fra il tempo medio fra due frame ed il tempo massimo fra l'arrivo di due frame successivi all'interno del periodo di osservazione.

Dt(i) = t(i+1) - t(i) è l'intervallo di tempo fra due frame successivi

/Dt = Somma(Dt(i)) / T è l'intervallo di tempo medio nel periodo T

framerate = 1 / /Dt

Il Jitter massimo valutato nell'intervallo T è la differenza fra l'intervallo di arrivo massimo e quello medio:

Jitter = Max(Dt(i)) - /Dt

Cerco di fare un esempio. Un gioco gira a 60 fps fissi tranne in una scena in cui rallenta a 45. Come mai rallenta a 45 ? Perché il motore di rendering del gioco non ce la fa a generare il numero frame generato precedentemente e per questo, nonostante le risorse siano impegnate al massimo, il rendering viene rallentato.
In questo momento, visto l'alto impegno del motore di rendering, il ritardo fra la presentazione di un frame e quella del successivo continua a variare pesantemente. Perché si vede scattare ? Perché nei due frame con Jitter massimo si scende sotto la soglia di fluidità dell'animazione. Cioè 1 / Max(Dt(i)) è minore del frame rate per il quale il nostro occhio riesce a fondere una sequenza di immagini come se fosse un'animazione.
La misura del frame rate non è istantanea, ma è mediata su un determinato intervallo di tempo. In teoria, con una misurazione istantanea, cioè determinando il frame rate istantaneo come l'inverso della differenza di arrivo dei soli due ultimi frame, vedremmo il frame rate istantaneo scendere al di sotto di quella fatidica soglia che corrisponde alla non fluidità dell'animazione.
Quale sia tecnicamente questa soglia però lo ignoro, ma aggiungo che in teoria un gioco può scattare anche se il frame rate medio è di 100 Hz, dipende dal Jitter.

Abufinzio
30-10-2009, 16:37
inutile, io ho addirittura postato qui l'intervento completo ma alcuni sembrano proprio nn notarlo :sofico:
a me le spiegazioni sembrano convincenti ma magari sta dicendo anche lui delle boiate :D se qualcuno vuole smentire è ben accetto :)

Ah lol non l'avevo visto, forse perchè lurkavo dalla pagina dell'articolo.
Beh che ci si può fare, non c'è peggior sordo... :asd:

Abufinzio
30-10-2009, 16:42
Tra l'altro mi chiedo: ma dov'è finito quel bel progetto di un motore grafico con il motion blur applicato a tutti gli oggetti/movimenti?
Mi ricordo solo dei video con un orco e un arcere, un altro con un drago.
Il nome aveva Project come una delle parole ma non ricordo nient'altro :v

cionci
30-10-2009, 16:48
Tra l'altro mi chiedo: ma dov'è finito quel bel progetto di un motore grafico con il motion blur applicato a tutti gli oggetti/movimenti?
Mi ricordo solo dei video con un orco e un arcere, un altro con un drago.
Il nome aveva Project come una delle parole ma non ricordo nient'altro :v
Project Offset: http://www.projectoffset.com/
La software house è stata acquisita dalla Intel ;)

×§ñåkê×
30-10-2009, 16:49
Tra l'altro mi chiedo: ma dov'è finito quel bel progetto di un motore grafico con il motion blur applicato a tutti gli oggetti/movimenti?
Mi ricordo solo dei video con un orco e un arcere, un altro con un drago.
Il nome aveva Project come una delle parole ma non ricordo nient'altro :v

crysis applica il blur anche agli oggetti, si nota tipo con i pugni del giocatore, o lanciando barili, ma solo in dx10 mi sembra

adynak
30-10-2009, 16:49
evvai! Eccone un'altro...frame rate minimo a 23 fps mi sa che allora le mie schede mi dureranno x l'eternità...gioco fluido a 30 fps nn si può proprio sentire...

Sono stato poco chiaro nella prima frase che ho detto:"un essere umano medio non è in grado di notare differenze tra una sequenza di immagini a 23fps e una a 60fps", dovevo dire con più correttezza:"un essere umano medio è in grado di percepire con fluidità una sequenza di immagini a 23fps".

Cerco di fare un po' di chiarezza. Partiamo da queste tre ipotesi:

- il tempo medio di permanenza dell'immagine sulla retina è di circa 1/60 di secondo, questo implica che il singolo recettore della retina "perde le immagini in più";
- da test fatti 30 immagini al secondo sono più che sufficienti per vedere una immagine in modo continuo (è il nostro cervello che si comporta in questo modo);
- la retina è composta da molti recettori.

Ora la mia affermazione è:"30 fps sono sufficienti perché un gioco venga percepito da tutti come fluido e senza scatti". Questo non vuol dire che non vengano viste le differenze con 60 fps o 85fps.

Occorre tenere in considerazione queste due cose:

- il limite fisico è di 60fps per ogni singolo recettore;
- il cervello "interpola" l'immagine da migliaia di recettori.

Fermo restando che ogni singolo recettore perde ogni informazioni visiva al di sopra dei 60Hz questo non vuol dire che avere una informazione a frequenza maggiore non porti dei vantaggi e questo è dovuto al fatto che ci sono più recettori che percepiscono l'immagine in momenti diversi. Diciamo che maggiore è la frequenza del flusso video e migliore è l'"interpolazione" che il cervello riesce a fare e, di conseguenza, la resa complessiva di una scena.

Infine occorre fare altre due precisazioni:

- il limite fisico oltre il quale non si notano più differenze dipende dal tipo di immagine, dall'ambiente nel quale la si guarda e dal singolo individuo;
- ricordate che i monitor (soprattutto gli LCD) hanno un limite nella velocità di aggiornamento dei cristalli e che sebbene la scheda video possa elaborare oltre 100fps, di solito non è possibile visualizzarne più di un certo numero (che dipende dal tempo di risposta dei cristalli nell'LCD e dalla frequenza di aggiornamento nei monitor CRT ... il fatto che esistano LCD a 200Hz non significa che questi visualizzino 200 immagini al secondo ... ma lasciamo chiusa questa parentesi).

Dalla mia esperienza di videogiocatore posso dire che 75-80 fps garantiscono una giocabilità oltre la quale è difficile andare. Qualcuno potrà dire che è 100, qualcuno che è 60 (sempre riferito al frame rate minimo) ... la diatriba rimarrà sempre aperta visto che si parla di parametri soggettivi per certi aspetti.

Spero di aver fatto un po' di chiarezza ;)

Abufinzio
30-10-2009, 16:51
Project Offset: http://www.projectoffset.com/
La software house è stata acquisita dalla Intel ;)

:ave::ave::ave::ave::ave::ave::ave::ave::ave::ave::ave::ave:

che la intel entri nel mondo del gaming? :asd:

zephyr83
30-10-2009, 16:53
sempre dal solito link riporto un altro intervento interessante che spiega (almeno la motivazione sembra valida, essendo ignorante in materia nn ho elementi per valutarne la non validità) perché è meglio avere più fps in gioco http://gaming.ngi.it/showpost.php?p=565557&postcount=20
Eheheh salve a tutti! Gohan mi ha indicato questo post molto interessante, e visto che ora sto studiando proprio questo, vi aggiorno un po' :)

Dati aggiornati al 1998 dicono questo (fonte: E.R. Kandel, Principi di Neuroscienze):

La risoluzione temporale dei coni della fovea (la cosiddetta "regione della visione distinta,") è 55 Hz, quella dei bastoncelli 12 Hz.

La variabilità individuale è innegabile, ma tieni conto che questi valori sono conseguenza della cinetica enzimatica della cosiddetta ropsina, una proteina contenuta nei recettori ottici, e dell'isomerizazione del retinale da 11-cis a tutto-trans (no, non nel senso di travestito :D )... Va bene la variabilità, ma non vi concedo più di uno o due Hertz di deviazione ::)

Per quanto riguarda il tipo di "periferica," è innegabile che l'occhio sia un'incredibile telecamera... Digitale... Sì, perché la codifica del segnale non è modulata sulla base dell'intensità dell'impulso che il singolo recettore manda, ma sulla sua frequenza di scarica. In sostanza, il neurone altro non è che un elegante e complesso transistor che può o può non trasmettere segnali unitari (potenziali d'azione).

Nel complesso il messaggio viene codificato sulla base di due codici e altre sfumature, che in poche parole sono:

- Frequenza di scarica, e durata dell'attivazione. Il singolo potenziale d'azione non varia "analogicamente" con la luce che colpisce il recettore, quindi, ma si comporta all'incirca come una fotocellula elettronica.

- Codice di popolazione e gruppi -on -off... Qui le cose si fanno complicate, ma in sostanza vuol dire che il cervello percepisce coscientemente le diverse immagini in base a chi le trasmette... Se scambi i fili, escono fischi per fiaschi... Inoltre, somma algebricamente l'intensità dei segnali provenienti da ogni canale, e ne ottiene ulteriori informazioni (in un certo senso, aumenta la risoluzione...)...

Applicando queste nozioni al problema, la risposta è presto detta... In un videogioco è importante soprattutto, ma non solo, la fovea, perché se dobbiamo mirare l'unico modo per farlo con precisione è puntare l'occhio sul bersaglio... Le zone esterne alla fovea (ovvero le zone rivestite di bastoncelli) hanno risoluzione molto bassa, nell'ordine dei millimetri, che per armi a largo raggio d'azione vanno comunque bene...

Poiché la risoluzione temporale massima, comunque, è 55 Hz, più di questo è difficile percepire, anche se il problema non è così semplice:

Pensate a questo: nella retina abbiamo milioni di recettori... Quanti di questi verranno attivati esattamente nello stesso istante? Ben pochi... Dopo un millisecondo da che apriamo gli occhi i recettori si saranno desincronizzati tra loro, per cui la nostra risoluzione temporale si abbrevierà... Ma per un'immagine che "duri" meno di 1/55 secondi, solo pochi recettori saranno disponibili... E che succede se un'immagine è percepita da pochi recettori? Si abbassa la risoluzione, onde il blur (ovvero, una specie di fusione tra un'immagine e la precedente).

Ricapitolando, nell'occhio, a una risoluzione spaziale ottimale (un micron se non erro) corrisponde una risoluzione temporale di 55 Hz (55 FPS).

Questo non vuol dire, però, che non possiamo percepire un'immagine che duri meno di 1/55... Entro un certo limite (magari anche 1/120 di sec come dice Nereid), a causa della desincronizzazione inevitabile tra recettori attivati più o meno a lungo in precedenza, avremo dei coni (e dei bastoncelli) disponibili per un'attivazione quando altri ancora non lo saranno... Di qui, si deduce il beneficio di avere più di 55 immagini al secondo, per essere sicuri di aggiornare sempre TUTTI i recettori ogni volta che questi possono essere aggiornati...

La dimostrazione di questo è che il testi di Nereid col monitor va benissimo per dimostrare che si può discernere un flickerio anche a 75 Hz, perché il monitor stimola solo una (grossa) parte dei recettori..

Se per il test usate una particolare apparecchiatura, ad esempio una lampadina molto potente e a fascio concentrato, Andando oltre i 55 impulsi al secondo la vedrete fissa.. .Questo perché stavolta avrete reclutato davvero tutti i recettori disponibili, e li avrete stimolati al massimo della loro sensibilità...

Concludendo, 55 Hz/FPS sono più che sufficienti, ma per un videogioco più ce n'è meglio è :)

P.S.: Ah, dimenticavo, ma che è sta storia che il "mondo" ha immagini blurrate e il computer no? NESSUNO DEI DUE le ha blurrate, il blur è un artefatto causato proprio dalla "scarsa" risoluzione temporale della retina. Come ha detto Nereid, i furboni che inventarono il cinema sfruttarono proprio quest'effetto inevitabile per far credere alla retina (prima ancora che al cervello) che le immagini scorressero in maniera continua!
Ma, d'altra parte, non è vero che sono solo i bastoncelli ad essere attivati al cinema? La prova? I bastoncelli non percepiscono le variazioni di lunghezza d'onde della luce visible (er colore, 'nzomma), quindi magari per vedere Casablanca vanno pure bene, ma per il resto sarebbero un po' limitanti :)

Abufinzio
30-10-2009, 16:56
Cacchio questa è nuova anche per me, praticamente dice che il blur non è una limitazione del cervello ma una non sincronizzazione dei recettori.
Non ho capito però se questa desincronizzazione è causata dal cervello o dall'organo occhio di suo (ho letto solo le cose in neretto :fagiano: )

gianly1985
30-10-2009, 16:58
Infine la cosa piu' importante: il nostro occhio e' ANALOGICO ovvero traduce un flusso continuo di informazioni, non impulsi o "frame" alla volta.

Più che altro diciamo che ci sono 7 milioni di coni e 150milioni di bastoncelli che singolarmente lavorano in modo discreto ma visto che non sono sincronizzati allora "globalmente" il risultato è "continuo"....

Comunque il punto centrale di quel che dice Nereid è un altro: frega niente dell'occhio, quello che conta è il cervello.

La sensazione "finale" non è opera dell'occhio ma di tutta la via nervosa che sta a monte, che ci siano limiti fisici del SINGOLO CONO (legati alla velocità delle reazioni chimiche, ecc.) può esser vero (su qualche libro di fisiologia ricordo un 55hz per il singolo cono, ma mica i 7 milioni di coni sono sincronizzati :) nè fra di loro nè con i 7 milioni dall'altro occhio cui competono punti corrispondenti del campo visivo binoculare) ma non basta a dire che poi a livello di corteccia visiva non ci saranno differenze a livello di sensazione fra guardare un videogioco a 30, 60 o 120fps. Si parte da 7 milioni di "recettori di fotoni" (stupidi, che mandano ai piani alti solo delle scariche, nulla di più) che lavorano a 55hz (ma SFASATI fra di loro) e si arriva ad un'immagine finale unica, colorata, con alcuni aspetti artificialmente esaltati (sorgente puntiforme rispetto allo sfondo, linee rette, movimento, colore rosso su sfondo verde e viceversa, ecc.), con aggiunta la stereoscopia, ecc. non si può certamente escludere che in tutta questa elaborazione non si creino circostanze tali che la differenza fra un vg a 30 o 120fps si percepisca eccome. E infatti si percepisce.

Afterandre
30-10-2009, 17:01
guarda allora puoi già iniziare xké resistance 2 gira a 30 fps e nn è un gioco futuro ma semplicemente con una qualità superiore a R&C con l'ovvia conseguenza del calo a 30 ;). Ciao

Resistance da un pdv visivo è superiore a RaC? Questa è nuova! :D

Avrebbe meritato qualche mese di sviluppo in più, decisamente...

gianly1985
30-10-2009, 17:03
Eheheh salve a tutti! Gohan mi ha indicato questo post molto interessante, e visto che ora sto studiando proprio questo, vi aggiorno un po'

Dati aggiornati al 1998 dicono questo (fonte: E.R. Kandel, Principi di Neuroscienze):

La risoluzione temporale dei coni della fovea (la cosiddetta "regione della visione distinta,") è 55 Hz, quella dei bastoncelli 12 Hz.

...CUT....

Quoto tutto. (anche perchè pure io neurofisiologia l'ho studiata dal Kandel :asd: Libro fantastico....)

borgusio
30-10-2009, 17:21
State facendo una confusione pazzesca: la pellicola cinematografica va a 24fps ed è fluida, per cui basta con ste menate che l'occhio possa percepire più di 24 fotogrammi al secondo.

Si parlava di 25 e 30 fotogrammi in passato per via dei formati pal e NTSC che girano appunto a 25 Hz e 30 Hz.
Perchè i 60 fotogrammi al secondo sono importanti? Per via dell'interlacciamento.
L'immagine veniva disegnata negli schermi a tubo catodico 60 volte al secondo. Ogni fotogramma veniva (viene) diviso in due parti, dunque per fare i 30 Hz ci vogliono 60 fotogrammi al secondo.

Tutto il resto è fuffa informatica, soprattutto oggi con gli LCD ;)

Abufinzio
30-10-2009, 17:22
ecco un altro che non ha letto bene :v

Sirio
30-10-2009, 17:28
Il discorso del motion blur è corretto.
Non è facile definire la "frequenza di campionamento" del sistema cervello/occhio umano, ma si è comunque osservato che acquisendo immagini ad una frequenza di 25-30Hz, includendo l'effetto di interpolazione tra i diversi frame, si ottiene una sequenza apparentemente fluida e nitida.
Da qui deriva l'idea che l'occhio umano acquisisce a circa 10-15Hz, perchè per il teorema di Nyquist, affinchè non ci siano perdite nel campionamento, la frequenza di acquisizione deve essere almeno doppia rispetto a quella reale.
Io percepisco a 15Hz? Allora acquisisco i miei video a 30Hz (30fps).

Il problema è che la mia percezione della realtà non avviene ad intervalli discreti, ma è comunque continua. Quindi nel caso di un gioco che si muove ad un determinato framerate, il mio occhio non si trova davanti ad una realtà che scorre nel continuo, ma ad una sequenza immagini scorrelate dalle precedenti. Per cui il mio sistema occhio/cervello non ha di fatto la possibilità di creare l'interpolazione come accade invece nell'osservazione del mondo reale.

PS: Tengo a precisare che potrei anche aver detto minchiate, ma ad occhio e croce mi sembra la strada giusta :D

TheDarkAngel
30-10-2009, 17:29
direi piuttosto l'ennesimo che scrive perchè dotato di dita :asd:

Abufinzio
30-10-2009, 17:30
i lol'd



Il discorso del motion blur è corretto.
Non è facile definire la "frequenza di campionamento" del sistema cervello/occhio umano, ma si è comunque osservato che acquisendo immagini ad una frequenza di 25-30Hz, includendo l'effetto di interpolazione tra i diversi frame, si ottiene una sequenza apparentemente fluida e nitida.
Da qui deriva l'idea che l'occhio umano acquisisce a circa 10-15Hz, perchè per il teorema di Nyquist, affinchè non ci siano perdite nel campionamento, la frequenza di acquisizione deve essere almeno doppia rispetto a quella reale.
Io percepisco a 15Hz? Allora acquisisco i miei video a 30Hz (30fps).

Il problema è che la mia percezione della realtà non avviene ad intervalli discreti, ma è comunque continua. Quindi nel caso di un gioco che si muove ad un determinato framerate, il mio occhio non si trova davanti ad una realtà che scorre nel continuo, ma ad una sequenza immagini scorrelate dalle precedenti. Per cui il mio sistema occhio/cervello non ha di fatto la possibilità di creare l'interpolazione come accade invece nell'osservazione del mondo reale.

PS: Tengo a precisare che potrei anche aver detto minchiate, ma ad occhio e croce mi sembra la strada giusta :D


nono hai detto bene, con un sistema analogico se ne acquisisci uno digitale è ovvio che i vari calcoli di acquisizione etc etc sono inutili (è nel contrario caso mai che valgono)

Kurtferro
30-10-2009, 17:49
Pur ammettendo che più fps possa portare a una qualità maggiore nei giochi(secondo me dipende dalla scena 3d, nel senso che 30fps per un mmorpg dove le sitatuazioni sono "tranquille" possono bastare rispetto a un FPS dove sono frenetiche e più fluidità aiuta) non dimenticatevi comunque che è inutile avere 120fps quando il monitor è a 60hz, e quindi si rimane dipendenti dal monitor e superare tale soglia porta solo a un peggioramento, e quindi è importante abilitare la sincronizzazione verticale insieme al triple buffering.

Diobrando_21
30-10-2009, 18:09
si infatti, oltre i 60 fps dei monitor comuni, i fotogrammi in piu vanno "persi" o si sovrastano a quelli precedenti, si nota con rapidi movimenti della camera, l'immagine viene tagliata verticalmente

beh si sovrappongono se la vga genera più frame di quanto il monitor ne possa visualizzare e nn hai il vsync attivato...ma io confermo che la differenza a 120fps si nota...provato con un samsung 2233rz 120 hz 3d ready ;)

quezlacoatl
30-10-2009, 18:33
veramente la differenza la non la fanno i frames fine a se tessi ma il motion blur che per esempio i registi inseriscono in post produzione per legare un frame all'altro; ecco perchè i film pur essendo al cinema a 24 frames non hanno soluzione di continuità.
Il problema che per i giochi è troppo dispendioso utilizzare questo effetto

Comunque

Tornando in topic non è completamente vero che i 60 fps sono inutili dato che per un gioco di piattaforme come r&c fanno piacere ma non sono indispensabili mentre per un gioco di guida che ha velleità simultave sono [B]obbligatori[B/] ovviamente imho

Peace :)

lepre84
30-10-2009, 18:35
Basta con sta storia del cinema ed i 24fps. Al cinema su alcune scene sono indecenti e danno senso di scattosità e non penso di essere un cyborg.

E' anche questione di allenamento. Adesso che è qualche anno che non gioco seriamente agli fps mi rendo conto che non noto più tutta questa differenza. Ma se uno la vede, esiste, non sono pippe mentali.

C'è anche da dire che per le consolle van bene anche frame rate più bassi data la tipologia di giochi, imho.

Su pc e soprattutto fps seri non ci sono scuse. Fps alti.

DosFX
30-10-2009, 18:56
Secondo me dopo tutti questi discorsi sui fps e hertz massimi visualizzati da uno schermo bisogna precisare una cosa. La percezione dei fps cambia per tante cose.
Ad esempio in base a quale monitor lo visualizza, come gli LCD che hanno tempi di variazione di lumininosita e colori da tot ms in su andando sui monitor piu' vecchi. Ma queste sono tutte influenze tecniche
sulla tecnologia costruttiva dello schermo CRT LCD o PLASMA che sia.
Per fare un esempio capibile se vedo un puntatore del mouse fermo come posso notare se scatta?A che frequenza verrà visualizzato??? Trucchetto stupido muovo io gli occhi e noto se scatta..
Personalmente i film nei cinema gli vedo molto scattosi ma perchè se vedo lo stesso film con la stessa frequenza su un monitor crt da pochi pollici da casa noto meno scatti?E' una ragione fisica perchè lo stesso oggetto in movimento sullo schermo del cinema esegue uno spazio maggiore che sullo schermo di casa mia quindi tra un fotogramma e il successivo c'è uno spazio minore se lo schermo è piu' piccolo.
La stessa cosa per il puntatore del mouse. Se lo muovo a x cm al secondo vedrò piu' scatti se a x/2 cm al secondo!! Questo vale anche per tutto il resto per dire che non si può solo parlare di fotogrammi al secondo ma di quanto velocemente si sposta l'immagine a una frequenza di x fotogrammi al secondo!!

Judicator
30-10-2009, 19:00
Mio dio che minestrone.
Anzitutto io sono d'accordo con cionci, radoen e gli altri due utenti che nelle pagine precedenti hanno dato spiegazioni chiare, spero non se ne abbiano a male se non li cito, ma nn ricordo e non mi va di sfoglarmi di nuovo tutti i post. :)
Vorrei sottolineare, però, che: una cosa è il frame rate ed un'altra la percezione fluida del movimento.

Mi fa davvero sorridere chi dice: - Ah! A me non bastano 30/60/120 (milioni?) di Fps perchè vedo a scatti.
Faccio un esempio semplice, semplice prendete un video a 25 fotogrammi su secondo e lasciatelo scorrere.
Fatto?
Bene, chi di voi riesce a vedere il nero inter frame?
Nessuno. (Se qualcuno ci riesce batte i colibrì e le mosche).
Quindi 25 fotogrammi al secondo bastano in ogni caso?
Sbagliato.
Prendiamo una automobile che passa da un lato all'altro dello schermo.
Se la sua velocità sarà eccessiva rispetto al framerate è chiaro che la percezione della fluidità sarà alterata.
Inoltre, come diceva qualche utente prima di me, specie per i video giochi, subentrano altri parametri di cui bisogna tenere conto nella visualizzazione.
Insomma il succo è: dire che 60 Fps sono meglio di 25 in assoluto è inesatto, per usare un eufemismo, poi se qualcuno si crede superman libero di illudersi. :)

Diobrando_21
30-10-2009, 19:10
Sono stato poco chiaro nella prima frase che ho detto:"un essere umano medio non è in grado di notare differenze tra una sequenza di immagini a 23fps e una a 60fps", dovevo dire con più correttezza:"un essere umano medio è in grado di percepire con fluidità una sequenza di immagini a 23fps".

Cerco di fare un po' di chiarezza. Partiamo da queste tre ipotesi:

- il tempo medio di permanenza dell'immagine sulla retina è di circa 1/60 di secondo, questo implica che il singolo recettore della retina "perde le immagini in più";
- da test fatti 30 immagini al secondo sono più che sufficienti per vedere una immagine in modo continuo (è il nostro cervello che si comporta in questo modo);
- la retina è composta da molti recettori.

Ora la mia affermazione è:"30 fps sono sufficienti perché un gioco venga percepito da tutti come fluido e senza scatti". Questo non vuol dire che non vengano viste le differenze con 60 fps o 85fps.

Occorre tenere in considerazione queste due cose:

- il limite fisico è di 60fps per ogni singolo recettore;
- il cervello "interpola" l'immagine da migliaia di recettori.

Fermo restando che ogni singolo recettore perde ogni informazioni visiva al di sopra dei 60Hz questo non vuol dire che avere una informazione a frequenza maggiore non porti dei vantaggi e questo è dovuto al fatto che ci sono più recettori che percepiscono l'immagine in momenti diversi. Diciamo che maggiore è la frequenza del flusso video e migliore è l'"interpolazione" che il cervello riesce a fare e, di conseguenza, la resa complessiva di una scena.

Infine occorre fare altre due precisazioni:

- il limite fisico oltre il quale non si notano più differenze dipende dal tipo di immagine, dall'ambiente nel quale la si guarda e dal singolo individuo;
- ricordate che i monitor (soprattutto gli LCD) hanno un limite nella velocità di aggiornamento dei cristalli e che sebbene la scheda video possa elaborare oltre 100fps, di solito non è possibile visualizzarne più di un certo numero (che dipende dal tempo di risposta dei cristalli nell'LCD e dalla frequenza di aggiornamento nei monitor CRT ... il fatto che esistano LCD a 200Hz non significa che questi visualizzino 200 immagini al secondo ... ma lasciamo chiusa questa parentesi).

Dalla mia esperienza di videogiocatore posso dire che 75-80 fps garantiscono una giocabilità oltre la quale è difficile andare. Qualcuno potrà dire che è 100, qualcuno che è 60 (sempre riferito al frame rate minimo) ... la diatriba rimarrà sempre aperta visto che si parla di parametri soggettivi per certi aspetti.

Spero di aver fatto un po' di chiarezza ;)

beh così sei stato un pò più chiaro e concordo con te ;)...però preciso che le mie considerazioni oltre i 60 fps vengono da un monitor 120hz nativo...

Mystico
30-10-2009, 19:11
Non so che dire.

I FPS contano, anzi per me sono tutto.

No more heroes per wii, Mass Effect per Xbox 360, Dirt su PS3, sono tutti un'abominio.... Punto.

Bella grafica ma frame rate di cacca.

Non mi interessano i particolari ultra dettagliati o la super fedelta poligonale.
VOGLIO, anzi ESIGO, un frame rate costante e fluido.

I 60 fps sono inutili... :eek: Suvvia, monate per giustificarsi...

La serie Jak & Dexter su PS2 ve la immaginate a 20-25fps?
Prendo il DVD e lo uso come sottobicchiere.....

Diobrando_21
30-10-2009, 19:40
Resistance da un pdv visivo è superiore a RaC? Questa è nuova! :D

Avrebbe meritato qualche mese di sviluppo in più, decisamente...

più bello o no, cmq più pesante e infatti gira a 30...era questo il punto

Kurtferro
30-10-2009, 23:10
Le tv lcd full hd o hd ready traggono in inganno con i loro 100hz 200hz etc, non confondeteli con i veri hz, quelli che si possono trovare in un buon monitor, spesso oltre i 60hz sono solo crt, questi televisori usano una tecnica per creare fotogrammi intermedi che quindi da 50hz porta a "100hz" ma sono trucchi digitali, in realtà il televisore è sempre a 50hz, quindi il segnale è sincronizzato a 50fps, 60 in caso di un monitor, e probabilmente per i videogiochi è meglio disabilitare questa funzione (true motion etc), correggetemi se sbaglio..

ErPazzo74
31-10-2009, 00:26
dico la mia...visto che comunque sono parzialmente competente....
negli anni 60/70 s'era già visto che il tempo di reazione dei bastoncelli era di 1/50 di secondo...qualcuno ha riportato 55fps mi sembra che ci siamo....quello che vogliamo scoprire noi però non è la velocità chimica dell'occhio....ma la velocità di elaborazione della corteccia visiva..ci vorrebbe una FMRI solo che se ricordo bene la FMRI è molto lenta :(....
cmq la giusta conclusione è che ovviamente immagini simili possono avere anche frame rate limitati...mentre immagini molto differenti e dinamiche hanno bisogno di frame rate + elevato....per esperienza personale però devo dire che 60fps a me son sempre stati sufficienti...
my2cents, pat

Dott.Wisem
31-10-2009, 00:58
E' incredibile come questa storia del framerate ogni tanto venga di nuovo a galla e ogni volta ci siano un mucchio di persone che credono che un videogioco a 30fps sia il massimo livello di fluidità che l'occhio può percepire.

Innanzitutto distinguiamo i due scenari:

1) CINEMA.
I film realizzati con dispositivi di acquisizione analogica (telecamere non digitali) sono caratterizzati da un motion blur naturale causato dall'impressione di uno stesso fotogramma con più immagini reali aventi una frequenza maggiore della capacità d'acquisizione della telecamera (25fps). Ad esempio, se con una vecchia telecamera analogica riprendo il passaggio di un'auto, e poi andassi a vedere i singoli fotogrammi, vedrei delle singole immagini sfocate (sfocatura ad effetto vento), ma rivedendo a 25fps tutta la sequenza, la vedrei nitida e fluida, come se il framerate fosse doppio.
I film realizzati con dispositivi di acquisizione "digitale" a 25fps, spesso si vedono scattare nelle sequenze veloci, perché non c'è più il motion blur naturale. La soluzione sarebbe quella di acquisire a 50fps e, tramite un apposito algoritmo, interpolare due fotogrammi in modo da ottenerne uno con motion blur artificiale ed un fps ridotto a 25fps, più economico da trasmettere. Non so se esistono telecamere digitali che facciano anche questo. Fatto sta che molti nuovi film e telefilm spesso li vedo scattare nelle scene concitate.

2) VIDEOGIOCO.
Nel videogioco il motion blur normalmente non è presente, quindi l'utente riesce a notare la mancanza di qualcosa fra un frame e l'altro a 30fps, ma solo nelle scene più veloci, ovviamente, tipo rotazioni rapide della visuale in uno sparatutto. A 60fps il motion blur non è necessario, in quanto le immagini scorrono con una velocità paragonabile alla frequenza con cui l'occhio riesce a percepire.

DooM1
31-10-2009, 01:40
Faccio un esempio semplice, semplice prendete un video a 25 fotogrammi su secondo e lasciatelo scorrere.
Fatto?
Bene, chi di voi riesce a vedere il nero inter frame?
Nessuno. (Se qualcuno ci riesce batte i colibrì e le mosche).
Ma guarda che non c'è nessuno inter-frame nero.
Il fotogramma persiste fino a che non è il momento di cambiarlo.
Quello succedeva nelle prime pellicole, e il fotogramma nero si notava; anche se ovviamente non vedevi il nero completo.
;)


Attenzione, la retina è abbastanza "lenta" a cancellare le immagini, ma NON a imprimerle. Per questo direi che basta a presentargliele che sono subito impresse!
Quindi il framerate più è alto, e più è vicino alla realtà; non c'è niente da fare.
Poi ovvio, ci sarà il limite oltre il quale nessuno riesce a vedere oltre... e non sò quale sia. E in effetti questo valore dipende dalla scena.
Ma io penso che il framerate deve essere sempre il più alto possibile. Dire che "bastano tot FPS", è solo un modo di semplificare e risparmiare potenza di calcolo; ma di certo non giova alla realisticità.
Di certo, io penso che con il tipo di scene che oggi troviamo in molti giochi, ma anche molti film, 30 FPS non bastano assolutamente.

Tornando un attimo al discorso dell'immagine che permane nella retina, se ci pensate 1 attimo, si forma un blur-motion; e quindi torniamo a bomba.
Quello che dico io, è che preferisco che questo si crei nella retina (perchè così è abituato il cervello con la realtà), piuttosto che crearlo artificialmente.

Se provate a passare la mano moolto velocemente davanti ai vostri occhi, mica la vedete a scatti; questo nonostante che l'occhio/cervello veda un numero limitato di FPS.
Semmai la vedete "mossa", "sdoppiata". In pratica con l'effetto blur.

Inoltre poi se parliamo di videogiochi, il blur-motion nemmeno c'è perchè oltre che appesantire i calcoli, introdurrebbe un inevitabile latenza (dato che è un effetto di post-produzione e non può essere calcolato in parallelo al resto della grafica 3D).

Ho detto la mia, anche se qualcuno già l'aveva spiegato, forse anche meglio... ma forse un altro tipo di spiegazione può essere utile.


Ma quindi questa Insomniac, che poi non ho mai sentito :D (ma sono abbastanza ignorante in videogiochi :D ), faceva giochi che non scendevano a meno di 60 Hz? Ma com'è possibile?

Diobrando_21
31-10-2009, 01:45
Le tv lcd full hd o hd ready traggono in inganno con i loro 100hz 200hz etc, non confondeteli con i veri hz, quelli che si possono trovare in un buon monitor, spesso oltre i 60hz sono solo crt, questi televisori usano una tecnica per creare fotogrammi intermedi che quindi da 50hz porta a "100hz" ma sono trucchi digitali, in realtà il televisore è sempre a 50hz, quindi il segnale è sincronizzato a 50fps, 60 in caso di un monitor, e probabilmente per i videogiochi è meglio disabilitare questa funzione (true motion etc), correggetemi se sbaglio..


No nn sbagli, meglio togliere quelle porcherie digitali...la mia tv x esempio lo disabilita in automatico. Cmq esistono anche monitor lcd che accettano segnali 120hz nativi...

E' incredibile come questa storia del framerate ogni tanto venga di nuovo a galla e ogni volta ci siano un mucchio di persone che credono che un videogioco a 30fps sia il massimo livello di fluidità che l'occhio può percepire.

Innanzitutto distinguiamo i due scenari:

1) CINEMA.
I film realizzati con dispositivi di acquisizione analogica (telecamere non digitali) sono caratterizzati da un motion blur naturale causato dall'impressione di uno stesso fotogramma con più immagini reali aventi una frequenza maggiore della capacità d'acquisizione della telecamera (25fps). Ad esempio, se con una vecchia telecamera analogica riprendo il passaggio di un'auto, e poi andassi a vedere i singoli fotogrammi, vedrei delle singole immagini sfocate (sfocatura ad effetto vento), ma rivedendo a 25fps tutta la sequenza, la vedrei nitida e fluida, come se il framerate fosse doppio.
I film realizzati con dispositivi di acquisizione "digitale" a 25fps, spesso si vedono scattare nelle sequenze veloci, perché non c'è più il motion blur naturale. La soluzione sarebbe quella di acquisire a 50fps e, tramite un apposito algoritmo, interpolare due fotogrammi in modo da ottenerne uno con motion blur artificiale ed un fps ridotto a 25fps, più economico da trasmettere. Non so se esistono telecamere digitali che facciano anche questo. Fatto sta che molti nuovi film e telefilm spesso li vedo scattare nelle scene concitate.

2) VIDEOGIOCO.
Nel videogioco il motion blur normalmente non è presente, quindi l'utente riesce a notare la mancanza di qualcosa fra un frame e l'altro a 30fps, ma solo nelle scene più veloci, ovviamente, tipo rotazioni rapide della visuale in uno sparatutto. A 60fps il motion blur non è necessario, in quanto le immagini scorrono con una velocità paragonabile alla frequenza con cui l'occhio riesce a percepire.

quoto la parte del cinema, infatti i blue-ray girati a 24fps scattano nelle scene veloci, e panoramicie...

...meno invece la parte dei videogiochi. Primo xké ormai il motion blur è disponibile come opzione in molti giochi, poi xké i rallentamenti si notano anche nelle scene lente.

Ciao

Cicciuzzone
31-10-2009, 07:55
Ma dico io, possibile che ancora qualcuno dubita dell'utilità dei 60fps??? Posso capire che ad alcuni giochi sono SUFFICIENTI 30fps (quelli più "tranquilli"), ma anche a loro i 60fps non possono che giovare...

sintopatataelettronica
31-10-2009, 08:09
Pienamente d'accordo con Kunz e gli altri sostenitori della teoria dei sopra 30 fps = poca utilità.

C'è gente che lavora nel campo, gioca con il pc da più di 10 anni, ha studiato biologia e fisica all'univerisità.

Spiegare perchè l'occhio umano non percepisce più di 30 fps non è certo una cosa da niente, che si può sintetizzare in poche righe, sopratutto considerando poi che non tutti partono dalle medesime basi di conoscenza della biologia dell'occhio e della fisica.
La cosa è resa ancora più difficile se degli "pseudoprogamer" ti danno contro pretendendo di avere ragione!

Forse hai più non è ancora chiara la differenza fra "framerate percepiti" e "percezione dell'accelerazione e del rallentamento delle scene" nei videogames, dovuto a un aumento e a un calo del framerate.. se i giochi fossero come le pellicole con un frame costante tutta questa discussione dei 120 fps non sussisterebbe!

Ti sbagli di grosso: un frame rate BASSO ma costante NON GARANTISCE assolutamente dall'assenza di scattosità.
L'errore tuo e di tanti "scienziati" qui è parlare (appunto) di biologia, fisiologia, fisica.. belle ed utili scienze ma che nell'analisi del framerate dei videogiochi non c'entrano granchè.
Qui al massimo conterebbe saperne di strumenti ottici come telecamere e cineprese ed avere una discreta conoscenza del funzionamento dei monitor e di altri dispositivi video.
Al di là della biologia e del funzionamento dell'occhio e dei cavolo di frame che l'occhio può o meno percepire (elemento del tutto irrilevante) e semplificando all'osso (visto che le variabili in gioco sono tantissime) se tra la periferica di visualizzazione e il materiale visualizzato ad un determinato numero di frames al secondo c'è una mancanza di sincronia (traduzione: sono serviti dal pc meno frames di quanti la periferica di visualizzazione ne visualizza nell'unità di tempo) il filmato scatta (stuttering) o è affetto da tearing (ovverosia sono visualizzate aree di un'altro frame sovrapposte al frame corrente).

Un'altra leggenda metropolitana da sfatare è citare il cinema e i suoi 24 fps come esempio di quanto sia vero il discorso che "oltre quel numero non serve a niente!"
Anche questo argomento è stato trattato un milione di volte; l'ho provato a spiegare in tutte le maniere: ANCHE IL CINEMA ha i problemi di potenziale SCATTOSITA' DELL'IMMAGINE legati al basso framerate.
Si sappia infatti che un'operatore cinematografico esperto quando fa le riprese è consapevole di doversi attenere a certe regole, perchè se, tanto per fare un esempio, egli facesse un "panning" troppo veloce con un "tempo" molto basso (tradotto: assenza di blurring ottico nella sequenza) il video risulterebbe scattoso e inguardabile anche se girato con una cinepresa da più di 100mila dollari.
A 24 fps i film sono fluidi perchè girati con regole ferree e con la consapevolezza dei limiti fisici degli strumenti ottici e dei dispositivi di riproduzione video.
Ed è per queste ragioni che non si vedrà mai, in un film, una scena movimentatissima e veloce perfettamente a fuoco.. ed è per tutto questo che un videogioco, che il blurring non ce l'ha, risulterà scattoso anche a frame rate più che doppi rispetto al cinema nelle situazioni in cui si fanno movimenti molto rapidi (perchè si va "fuori sincrono" con la periferica di visualizzazione).
Inoltre si tenga presente che spesso è IL MONITOR LCD l'elemento della catena che, introducendo del blurring a causa delle intrinsece limitazioni tecniche, smorza un pò - entro certi limiti - l'eventuale scattosità presente: ma guardate il tutto su un CRT a 100 hz e persino un cieco si accorgerebbe che tra 100 fps e 50 c'è un'abisso di differenza.

PS: C'è da dire comunque che, nozioni tecniche a parte, chiunque giochi agli FPS con un monitor DEGNO DI TALE NOME sa PER ESPERIENZA DIRETTA che tra 100 fps e 40-50 fps c'è una ENORME differenza nella fluidità delle immagini (non parliamo di 30 o meno dove i giochi hanno tearing e stuttering a nastro)..

A.L.M.
31-10-2009, 08:29
Ti sbagli di grosso: un frame rate BASSO ma costante NON GARANTISCE assolutamente dall'assenza di scattosità.
L'errore tuo e di tanti "scienziati" qui è parlare (appunto) di biologia, fisiologia, fisica.. belle ed utili scienze ma che nell'analisi del framerate dei videogiochi non c'entrano granchè.
Qui al massimo conterebbe saperne di strumenti ottici come telecamere e cineprese ed avere una discreta conoscenza del funzionamento dei monitor e di altri dispositivi video.
Al di là della biologia e del funzionamento dell'occhio e dei cavolo di frame che l'occhio può o meno percepire (elemento del tutto irrilevante) e semplificando all'osso (visto che le variabili in gioco sono tantissime) se tra la periferica di visualizzazione e il materiale visualizzato ad un determinato numero di frames al secondo c'è una mancanza di sincronia (traduzione: sono serviti dal pc meno frames di quanti la periferica di visualizzazione ne visualizza nell'unità di tempo) il filmato scatta (stuttering) o è affetto da tearing (ovverosia sono visualizzate aree di un'altro frame sovrapposte al frame corrente).

Un'altra leggenda metropolitana da sfatare è citare il cinema e i suoi 24 fps come esempio di quanto sia vero il discorso che "oltre quel numero non serve a niente!"
Anche questo argomento è stato trattato un milione di volte; l'ho provato a spiegare in tutte le maniere: ANCHE IL CINEMA ha i problemi di potenziale SCATTOSITA' DELL'IMMAGINE legati al basso framerate.
Si sappia infatti che un'operatore cinematografico esperto quando fa le riprese è consapevole di doversi attenere a certe regole, perchè se, tanto per fare un esempio, egli facesse un "panning" troppo veloce con un "tempo" molto basso (tradotto: assenza di blurring ottico nella sequenza) il video risulterebbe scattoso e inguardabile anche se girato con una cinepresa da più di 100mila dollari.
A 24 fps i film sono fluidi perchè girati con regole ferree e con la consapevolezza dei limiti fisici degli strumenti ottici e dei dispositivi di riproduzione video.
Ed è per queste ragioni che non si vedrà mai, in un film, una scena movimentatissima e veloce perfettamente a fuoco.. ed è per tutto questo che un videogioco, che il blurring non ce l'ha, risulterà scattoso anche a frame rate più che doppi rispetto al cinema nelle situazioni in cui si fanno movimenti molto rapidi (perchè si va "fuori sincrono" con la periferica di visualizzazione).
Inoltre si tenga presente che spesso è IL MONITOR LCD l'elemento della catena che, introducendo del blurring a causa delle intrinsece limitazioni tecniche, smorza un pò - entro certi limiti - l'eventuale scattosità presente: ma guardate il tutto su un CRT a 100 hz e persino un cieco si accorgerebbe che tra 100 fps e 50 c'è un'abisso di differenza.

PS: C'è da dire comunque che, nozioni tecniche a parte, chiunque giochi agli FPS con un monitor DEGNO DI TALE NOME sa PER ESPERIENZA DIRETTA che tra 100 fps e 40-50 fps c'è una ENORME differenza nella fluidità delle immagini (non parliamo di 30 o meno dove i giochi hanno tearing e stuttering a nastro)..

Se usi un monitor a 60Hz (ed i veri esperti ti spiegheranno che gli Hz sono sinonimo di qualità solo nei foglietti dei negozi che vendono tv) non puoi accorgerti di alcuna differenza sopra i 60fps, semplicemente perchè lo schermo mostrerà soltanto 60 frame dei 100 prodotti.

sintopatataelettronica
31-10-2009, 08:30
Io credo che il problema sia di ordine completamente diverso:

Non si possono paragonare video precalcolati e prerenderizzati come i films, dove non c'è un imput attivo, con un videogame che prevede molti input contemporanei e quindi è costretto a basarsi su quest'ultimi per renderizzare una scena che per forza di cose varierà al variare degli imput.
Detto questo ci si rende conto che se non ci fosse un imput variabile attivo come l'uomo un qualsiasi video o gioco non avrebbe un riferimento oggettivo poichè il primo elemento, l'imput, noi, è mancante. Per questo un film ( dove manca l'imput e il successivo output atteso) non cambia tra 30 e 60 e viceversa. Ovviamente per il gioco abbiamo abbandanti imput da considerare.
Quindi la "fluidità percepita" del gioco deve essere direttamente proporzionale alla velocità con cui noi mandiamo vari imput, per esempio la velocità con cui cambiamo inquadratura con il mouse in un FPS. A questo punto ci rendiamo conto che non stiamo più parlando di fluidità ma di reattività del gioco, quindi al cambio del grandezza fisica che consideriamo, la reattività, cambia eccome alzare gli fps in output, poichè avviciniamo sempre di più allo zero il tempo che intercorre tra imput e output.
Questo per spiegare che in realtà la percezione 60 30 non ha nulla a che vedere con le capacità fisiologiche dell'occhi umano, ma con il sistema di riferimento che si utilizza per valutare un determinato output.
Spero di essere stato chiaro

a parte che iNput si scrive con la N.. il tuo discorso è sostanzialmente corretto: il gioco inizia a "scattare" quando il pc non riesce più a fornire al dispositivo di visualizzazione un numero di frames sufficienti a coprire l'entità del movimento che si compie..
E' questo il motivo per cui il discorso di chi dice che 30 FPS costanti non danno scattosità è falso: se sto fermo immobile sono strasufficienti.. ma se giro la testa o muovo due passi ad un certo punto l'immagine inevitabilmente scatta (a patto di non avere un acquario come monitor)..
Più il monitor è di qualità ed ha frequenze elevate e più questa soglia viene costantemente superata, rendendo la scattosità sempre più evidente.

sintopatataelettronica
31-10-2009, 08:37
Se usi un monitor a 60Hz (ed i veri esperti ti spiegheranno che gli Hz sono sinonimo di qualità solo nei foglietti dei negozi che vendono tv) non puoi accorgerti di alcuna differenza sopra i 60fps, semplicemente perchè lo schermo mostrerà soltanto 60 frame dei 100 prodotti.

Sì.. leggi la mia risposta ad un altro post. Comunque l'avevo scritto che il monitor spesso è l'elemento più rilevante della catena, per cui è facile che uno che gioca con un LCD da 80 euro con trumotion/supersmooth/rendilimmaginepiùfiga attivati non si accorga sul serio della differenza tra 30 e 60 fps.

[e quando parlo di 100hz.. mi riferisco ai bei CRT tanto diffusi un tempo..]

Dott.Wisem
31-10-2009, 08:50
[...]quoto la parte del cinema, infatti i blue-ray girati a 24fps scattano nelle scene veloci, e panoramicie...

...meno invece la parte dei videogiochi. Primo xké ormai il motion blur è disponibile come opzione in molti giochi, poi xké i rallentamenti si notano anche nelle scene lente.
Non sono più, ahimé, un consumatore scatenato di videogiochi, e quindi potrei essere smentito, ma non credo proprio che gran parte dei titoli per console e PC siano ricchissimi di motion blur. Molti invece adottano il Depth of Field, che è un'altra cosa, anche se può essere facilmente scambiato per motion blur.
Se noti dei rallentamenti nelle scene lente, vuol dire che lì il framerate è sceso al di sotto dei 30fps, essendo che, in una sequenza in movimento non rapido, ma a 25 o 30fps costanti, è impossibile vederla andare a scatti. Alternativamente è possibile che, sebbene lo scenario sotto si muova lentamente, ci siano molti personaggi su schermo che si muovano molto velocemente, dando quindi la sensazione globale di non fluidità.

sintopatataelettronica
31-10-2009, 09:02
qualche pagina dietro qualcuno ha detto che nei frame delle pellicole sono "contenuti i movimenti del soggetto" ecco altra idiozia, i frame delle pellicole sono FOTOGRAFIE esattamente come quelle che possiamo fare noi cone le nostre reflex o compatte e sono STATICHE

Certamente dire "contenuti i movimenti del soggetto" riferito alle pellicole sarà poco tecnico, ma non è errato.
Guardati una scena di qualsiasi film e fai un fermo immagine mentre c'è molto movimento o scene iperveloci: noterai un sacco di blur, cioè tutte le cose che si muovono sono sfocate, con una sfocatura proporzionale al loro movimento, e lasciano una scia..
E' logico che il fotogramma sarà sempre una singola immagine statica (una fotografia), ma quel blur "registra" (per i limiti ottici del dispositivo) il movimento di un oggetto "troppo rapido"
Questo è l'effetto "scia" di si parlava.. o quei "movimenti del soggetto" contenuti nella pellicola del post da te citato.

e comunque è vero a 30 fps costanti (inchiodati non medi con picchi massimi di 80 fps e minimi di 12 ) l'immagine è fluida e non si nota la differenza con i 60 o 120 o 240

Assolutamente falso: devi avere un monitor pessimo o troppi automatismi attivi per non notare alcuna scattosità a 30 fps costanti, è un valore oggettivamente troppo basso.

sintopatataelettronica
31-10-2009, 09:21
Non sono più, ahimé, un consumatore scatenato di videogiochi, e quindi potrei essere smentito, ma non credo proprio che gran parte dei titoli per console e PC siano ricchissimi di motion blur. Molti invece adottano il Depth of Field, che è un'altra cosa, anche se può essere facilmente scambiato per motion blur.

Oltre all'ormai abusato "Shallow Depth Of Field" (un effetto peraltro totalmente irrealistico in un FPS) in qualche gioco c'è pure una sorta di "motion blur" ..
Effetto poco usato, perchè decisamente oneroso come tempi di calcolo: dato che ogni oggetto veloce (in riferimento all'occhio virtuale del giocatore) dovrebbe essere valutato nel suo movimento tra più frames adiacenti..si appesentirebbero troppo motori grafici magari già obesi di per loro..

Forse nel futuro si potrà implementarlo bene..

La bassa Profondità di Campo (shallow DOF) secondo me rimane invece una cosa inutile (persino dannosa) per gli FPS..
Si adatta ad altri contesti, come filmati realtime o giochi in terza persona con telecamera dinamica.. ma negli FPS NO!

Se noti dei rallentamenti nelle scene lente, vuol dire che lì il framerate è sceso al di sotto dei 30fps, essendo che, in una sequenza in movimento non rapido, ma a 25 o 30fps costanti, è impossibile vederla andare a scatti.

E' possibile.. è possibile.. o meglio: quasi certo (a patto di non avere monitor proprio scarsini)

sintopatataelettronica
31-10-2009, 09:36
Comunque, spiegazioni sugli fps a parte, leggendo l'articolo mi pare che questi qui dell'imsomniac non sostengano che i 60fps siano inutili per questioni tecnicamente oggettive..
Sembra invece che abbiano fatto una statistica e resisi conto che la gente non sa nemmeno di cosa si stia parlando (e leggendo i commenti qui se ne ha una sorta di conferma) .. abbiano dunque deciso che sia per loro inutile sbattersi più di tanto per ottimizzare i futuri giochi, tanto (anche se scattano) la gente se li comprerà lo stesso..

Dott.Wisem
31-10-2009, 09:39
E' possibile.. è possibile.. o meglio: quasi certo (a patto di non avere monitor proprio scarsini)Come già detto, dipende tutto dalla velocità del movimento. Se, ad esempio, la rotazione della visuale è sufficientemente lenta, anche 15fps possono sembrarti fluidissimi. Se non ci credi, prova.

ndrmcchtt491
31-10-2009, 10:25
Come già detto, dipende tutto dalla velocità del movimento. Se, ad esempio, la rotazione della visuale è sufficientemente lenta, anche 15fps possono sembrarti fluidissimi. Se non ci credi, prova.

Bee. 15 forse sono un po pochi...:fagiano: :fagiano:
Secondo me basta che non ci siano cali improvvisi tipo da 40fps a 15fps, basta che sia stabile, anche a 23fps.:D
per farvi un es.: al cinema i film viaggiano sui 24fps, e non ditemi che vedete i vari fotogrammi...
Non è un caso che certi giochi siano volutamente bloccati a 30.
Io giocavo a CoD2 con il mio vecchio pc e andavo dai 20fps ai 60fps, mai avuto problemi a mirare:read: :read:

Tuvok-LuR-
31-10-2009, 11:23
secondo me la notizia è stata totalmente travisata nei commenti, con i soliti discorsi pseudotecnici (per non parlare del mito immortale dell'occhio umano e blablabla).
il punto non è che 30 fps siano abbastanza o che si vede la differenza passando a 60, su questo non c'è dubbio; loro dicono solo "chi ce lo fa fare di farlo andare a 60? se il gioco è bello lo comprano anche se và a 30, non è certo un fattore che fa da determinante per l'acquisto" e hanno ragione...il 90% delle persone che ha una console non si va ad interessare agli fps e non sà manco cosa sono

cionci
31-10-2009, 11:28
secondo me la notizia è stata totalmente travisata nei commenti, con i soliti discorsi pseudotecnici (per non parlare del mito immortale dell'occhio umano e blablabla).
il punto non è che 30 fps siano abbastanza o che si vede la differenza passando a 60, su questo non c'è dubbio; loro dicono solo "chi ce lo fa fare di farlo andare a 60? se il gioco è bello lo comprano anche se và a 30, non è certo un fattore che fa da determinante per l'acquisto" e hanno ragione...il 90% delle persone che ha una console non si va ad interessare agli fps e non sà manco cosa sono
La notizia dice questo, ma i commenti secondo me sono andati proprio nel verso giusto: se, come affermato nella news, dal punto di vista del marketing produrre un gioco a 60 fps non aggiunge niente (difficile discutere questa affermazione), abbassare il frame rate da 60 a 30 fps toglie qualcosa all'esperienza di gioco ?

Diobrando_21
31-10-2009, 11:47
Non sono più, ahimé, un consumatore scatenato di videogiochi, e quindi potrei essere smentito, ma non credo proprio che gran parte dei titoli per console e PC siano ricchissimi di motion blur. Molti invece adottano il Depth of Field, che è un'altra cosa, anche se può essere facilmente scambiato per motion blur.
Se noti dei rallentamenti nelle scene lente, vuol dire che lì il framerate è sceso al di sotto dei 30fps, essendo che, in una sequenza in movimento non rapido, ma a 25 o 30fps costanti, è impossibile vederla andare a scatti. Alternativamente è possibile che, sebbene lo scenario sotto si muova lentamente, ci siano molti personaggi su schermo che si muovano molto velocemente, dando quindi la sensazione globale di non fluidità.

no scusa il depth of field è la profondità di campo e riguarda l'area posteriore e anteriore del soggetto principale che è messo a fuoco...nei giochi si tratta proprio di motion blur e ti cito alcuni titoli tanto per farti un idea: Crysis (puoi attivarlo, disattivarlo e regolarne l'intensità), Resident Evil 5, Street Fighter 4 e ce ne sono anche altri...quindi anche titoli di un certo livello. Tuttavia non è un mio problema perché mai attiverei un effetto del genere, intacca troppo la realtà dell'immagine, come il framerate basso daltronde...

...a 30 fps non saranno dei super scatti ma ci sono...e cmq la differenza con i 60 e palese se poi sali noti differenze anche fino a 120hz, a patto di avere un monitor nativo a quella frequenza...provare per credere (Samsung Syncmaster 2233rz 120hz nativi 3d Ready). poi ne riparliamo ;)

Comunque, spiegazioni sugli fps a parte, leggendo l'articolo mi pare che questi qui dell'imsomniac non sostengano che i 60fps siano inutili per questioni tecnicamente oggettive..
Sembra invece che abbiano fatto una statistica e resisi conto che la gente non sa nemmeno di cosa si stia parlando (e leggendo i commenti qui se ne ha una sorta di conferma) .. abbiano dunque deciso che sia per loro inutile sbattersi più di tanto per ottimizzare i futuri giochi, tanto (anche se scattano) la gente se li comprerà lo stesso..

quoto...anche se secondo me hanno già iniziato a buttarsi avanti per non cadere indietro, visti anche i risultati di Resistance 2 (30fps fissi, e dalle recensioni appariva anche come un punto a favore, mah! :muro: )

La notizia dice questo, ma i commenti secondo me sono andati proprio nel verso giusto: se, come affermato nella news, dal punto di vista del marketing produrre un gioco a 60 fps non aggiunge niente (difficile discutere questa affermazione), abbassare il frame rate da 60 a 30 fps toglie qualcosa all'esperienza di gioco ?

per me abbassare sotto i 60 fps toglie sempre esperienza di gioco, anche nei giochi dove non sarebbe necessario: non perché non renderebbe la velocità, non perché avrei difficoltà a mirare...ma semplicemente perché si discosterebbe troppo dalla realtà di come il nostro occhio vede in situazioni reali, ed ecco lì che io me ne accorgo e mi da un immenso fastidio...

Perseverance
31-10-2009, 12:35
La TV NTSC è a 30FPS (29.97) il PAL a 25FPS, personalmente su uno schermo CRT la differenza si nota tantissimo e l'immagine NTSC dà meno noia agli occhi. Ma la TV è un'immagine pre-renderizzata, il frame è fisso. Nei giochi no.

Se si inserisse un layer tra l'elaborazione grafica e l'uscita video si dovrebbe risolvere il problema, il fatto è che i giochi elaborano ogni frame quando in realtà l'occhio ne apprezzerebbe anche di meno. Per dire che se un gioco che và a 80FPS lo guardi su una TV NTSC a 30FPS il gioco non scatta xkè il segnale viene campionato ogni 30 fotogrammi. Il layer che intendo io dovrebbe appunto skippare l'elaborazione esaustiva del gioco elaborando solo sul tempo di campionamento, cioè non importa che vengano renderizzati tutti i fotogrammi ma solo quelli utili per mandare in uscita un flusso agli occhi "fluido".

Ovviamente non sono un igengnere e la mia idea resterà tale nei secoli dei secoli!

Dott.Wisem
31-10-2009, 12:36
no scusa il depth of field è la profondità di campo e riguarda l'area posteriore e anteriore del soggetto principale che è messo a fuoco...nei giochi si tratta proprio di motion blur e ti cito alcuni titoli tanto per farti un idea: Crysis (puoi attivarlo, disattivarlo e regolarne l'intensità), Resident Evil 5, Street Fighter 4 e ce ne sono anche altri...A parte che non ho capito cosa mi vai a contraddire sul depth of field... Ho detto semplicemente che è un effetto che qualcuno (non ho detto te) potrebbe scambiarlo per motion blur. Poi mi citi 3 giochi (di cui uno oramai vecchio, Crysis, ma che costituisce un caso a sé perché concepito per 'strafare' al punto di essere ingiocabile su configurazioni medie, e due recenti), ma se contassimo i giochi usciti in questi ultimi 2 anni, vedremmo che il motion blur è usato pochissimo.

Ci tengo inoltre a dire che il motion blur artificiale creato in un videogioco non è ancora arrivato ai livelli di quello naturale creato da una telecamera analogica. Per questioni di efficienza, infatti, in un videogioco il motion blur è necessariamente molto più grezzo di quello che dovrebbe essere. Questo significa che, in poche parole, un vecchio filmato a 25fps mi sembrerà più fluido di un gioco a 25fps + motion blur.

[...]
...a 30 fps non saranno dei super scatti ma ci sono...Lo dico per l'ultima volta: se in una scena 3D ruoti la visuale pianissimo, 15, 30 o 60fps non farà differenza, perché l'engine ce la fa a mostrare in tempo utile tutti i frame che servono. Se ruoti velocemente, invece, la differenza la vedi eccome.
per me abbassare sotto i 60 fps toglie sempre esperienza di gioco, anche nei giochi dove non sarebbe necessario: non perché non renderebbe la velocità, non perché avrei difficoltà a mirare...ma semplicemente perché si discosterebbe troppo dalla realtà di come il nostro occhio vede in situazioni reali, ed ecco lì che io me ne accorgo e mi da un immenso fastidio...Ovvio che in generale 60fps è meglio di 30fps, ma se in un RPG avere 30fps mi consente di ottenere un dettaglio grafico doppio, allora vada pure per i 30fps. Se poi li posso avere entrambi, meglio ancora! :D

Judicator
31-10-2009, 15:38
Ma guarda che non c'è nessuno inter-frame nero.
Il fotogramma persiste fino a che non è il momento di cambiarlo.
Quello succedeva nelle prime pellicole, e il fotogramma nero si notava; anche se ovviamente non vedevi il nero completo.
;)


Attenzione, la retina è abbastanza "lenta" a cancellare le immagini, ma NON a imprimerle. Per questo direi che basta a presentargliele che sono subito impresse!
Quindi il framerate più è alto, e più è vicino alla realtà; non c'è niente da fare.
Poi ovvio, ci sarà il limite oltre il quale nessuno riesce a vedere oltre... e non sò quale sia. E in effetti questo valore dipende dalla scena.
Ma io penso che il framerate deve essere sempre il più alto possibile. Dire che "bastano tot FPS", è solo un modo di semplificare e risparmiare potenza di calcolo; ma di certo non giova alla realisticità.
Di certo, io penso che con il tipo di scene che oggi troviamo in molti giochi, ma anche molti film, 30 FPS non bastano assolutamente.

Tornando un attimo al discorso dell'immagine che permane nella retina, se ci pensate 1 attimo, si forma un blur-motion; e quindi torniamo a bomba.
Quello che dico io, è che preferisco che questo si crei nella retina (perchè così è abituato il cervello con la realtà), piuttosto che crearlo artificialmente.

Se provate a passare la mano moolto velocemente davanti ai vostri occhi, mica la vedete a scatti; questo nonostante che l'occhio/cervello veda un numero limitato di FPS.
Semmai la vedete "mossa", "sdoppiata". In pratica con l'effetto blur.

Inoltre poi se parliamo di videogiochi, il blur-motion nemmeno c'è perchè oltre che appesantire i calcoli, introdurrebbe un inevitabile latenza (dato che è un effetto di post-produzione e non può essere calcolato in parallelo al resto della grafica 3D).

Ho detto la mia, anche se qualcuno già l'aveva spiegato, forse anche meglio... ma forse un altro tipo di spiegazione può essere utile.


Ma quindi questa Insomniac, che poi non ho mai sentito :D (ma sono abbastanza ignorante in videogiochi :D ), faceva giochi che non scendevano a meno di 60 Hz? Ma com'è possibile?

Hai ragione ho scritto una mezza cretinata, reminiscenza di vecchi studi, a parte l'inesattezza, il discorso che facevo in sostanza è inlinea col tuo e cioè he gli occhi umani hanno dei limiti e inoltre dire che 60 sono meglio di 25 in assoluto non è esatto. Purtroppo sono sempre estremamentesintetico quando scrivo altrimenti perdo il filo del discorso e dimentico.

Diobrando_21
31-10-2009, 15:46
A parte che non ho capito cosa mi vai a contraddire sul depth of field... Ho detto semplicemente che è un effetto che qualcuno (non ho detto te) potrebbe scambiarlo per motion blur. Poi mi citi 3 giochi (di cui uno oramai vecchio, Crysis, ma che costituisce un caso a sé perché concepito per 'strafare' al punto di essere ingiocabile su configurazioni medie, e due recenti), ma se contassimo i giochi usciti in questi ultimi 2 anni, vedremmo che il motion blur è usato pochissimo.

x il DOF scusa avevo letto male :doh:
cmq non è una questione di quali o quanti giochi o di come girano, era solo per dire che esiste anche nei games...molti commenti letti fino ad ora invece affermano che non esiste proprio, tutto qui...


Ci tengo inoltre a dire che il motion blur artificiale creato in un videogioco non è ancora arrivato ai livelli di quello naturale creato da una telecamera analogica. Per questioni di efficienza, infatti, in un videogioco il motion blur è necessariamente molto più grezzo di quello che dovrebbe essere. Questo significa che, in poche parole, un vecchio filmato a 25fps mi sembrerà più fluido di un gioco a 25fps + motion blur.
non lo metto in dubbio, il problema non si pone tanto lo tolgo ;)


Lo dico per l'ultima volta: se in una scena 3D ruoti la visuale pianissimo, 15, 30 o 60fps non farà differenza, perché l'engine ce la fa a mostrare in tempo utile tutti i frame che servono. Se ruoti velocemente, invece, la differenza la vedi eccome.Ovvio che in generale 60fps è meglio di 30fps, ma se in un RPG avere 30fps mi consente di ottenere un dettaglio grafico doppio, allora vada pure per i 30fps. Se poi li posso avere entrambi, meglio ancora! :D

non sono daccordo, mi spiace...provato ieri sera con burnout paradise e grasrs of war: muovendomi piano in entrambe i game si notava il framerate basso...più che altro c'è da dire che si possono verificare 2 situazioni (a seconda delle impostazioni, c'è un gioco in cui potevi fare una scelta simile ma non ricordo quale :( ): poniamo che il gioco venga bloccato a 20 fps; se i frame di una'animazione vengono visualizzati tutti la scena risulterà a rallentatore (poiche la velocità naturale è a 60fps), se invece vogliamo mantenere una velocità reale allora risulterà a scatti poiche i frame visualizzati sono sempre 20 per secondo (i restanti 40 non vengono proprio renderizzati in quanto la vga non ce la fa)...ma in entrambe i casi è una cosa non naturale...

DooM1
31-10-2009, 15:56
Hai ragione ho scritto una mezza cretinata, reminiscenza di vecchi studi, a parte l'inesattezza, il discorso che facevo in sostanza è inlinea col tuo e cioè he gli occhi umani hanno dei limiti e inoltre dire che 60 sono meglio di 25 in assoluto non è esatto. Purtroppo sono sempre estremamentesintetico quando scrivo altrimenti perdo il filo del discorso e dimentico.
Mh si nessun problema capita pure a me :D ... e a molti altri in realtà.
L'importante è chiarirsi... alla fine eravamo pure abbastanza d'accordo. ;)

Ma alla fine mi spiegate com'è possibile (io non conosco questi giochi a 60 FPS della Insomniac) che un gioco giri a 60 FPS sempre in ogni sistema? C'è qualcosa che mi sfugge, mi illuminate ? :mbe:

cionci
31-10-2009, 16:01
Ma alla fine mi spiegate com'è possibile (io non conosco questi giochi a 60 FPS della Insomniac) che un gioco giri a 60 FPS sempre in ogni sistema? C'è qualcosa che mi sfugge, mi illuminate ? :mbe:
Se è per console è possibilissimo ;)

Diobrando_21
31-10-2009, 16:04
Mh si nessun problema capita pure a me :D ... e a molti altri in realtà.
L'importante è chiarirsi... alla fine eravamo pure abbastanza d'accordo. ;)

Ma alla fine mi spiegate com'è possibile (io non conosco questi giochi a 60 FPS della Insomniac) che un gioco giri a 60 FPS sempre in ogni sistema? C'è qualcosa che mi sfugge, mi illuminate ? :mbe:

ti illumino subito: su console scordatelo, tranne rare eccezioni...su pc se vuoi puoi far girare tutto a 60fps e anche oltre, tranne rare eccezioni :D ...

tuttavia anche su pc spesso capita di avere rallentamenti, le variabili sono molteplici...ciao ;)

DooM1
31-10-2009, 16:16
Se è per console è possibilissimo ;)

ti illumino subito: su console scordatelo, tranne rare eccezioni...su pc se vuoi puoi far girare tutto a 60fps e anche oltre, tranne rare eccezioni :D ...

tuttavia anche su pc spesso capita di avere rallentamenti, le variabili sono molteplici...ciao ;)
Su console si o no :D mettetevi d'accordo :D:D
Vabbè credo di aver capito.
Se sono console è facile "tarare" la cosa, anche se non uso console e non sò quanto facilmente arrivino a 60 FPS.

Se si parla di PC, gli unici modi che mi vengono in mente per tenere fissi 60 FPS sono:
1) garantire tramite un motore leggerissimo, in un sistema che abbia i requisiti minimi dichiarati (che poi bisogna ben vedere quali sono), un numero di FPS più alto di 60, e poi limitarli con vsynch o semplice limitatore.

2) adattare in tempo reale la qualità della grafica, in modo da ottenere sempre 60 FPS stabili.
Ma quindi vuol dire che se faccio girare il gioco su una Geforce 2, vedo il gioco in 4 pixel contati ? Inoltre non ho mai sentito di un motore così.


Allora nel caso 1, me ne sbatto sinceramente del limitatore a 60 FPS :D . Quello che importa è il motore leggero, ma non è che te lo garantiscono dicendoti che il gioco va a 60 FPS ... va a 60 con quali requisiti? E non può andare più di 60? Non capisco che senso abbia tutto questo.

Quello che voglio capire è: cosa perderemo realmente da ora in poi che non adotteranno più questa politica (quale?) dei 60 FPS?
Non vuol dire di certo che i nuovi giochi della insomniac non arriveranno mai più a 60 FPS... :mbe:

cionci
31-10-2009, 16:22
Non è questione di mettersi d'accordo: in teoria è possibile, in pratica no.
Questo perché a 60 fps fissi non si raggiungerebbero gli standard qualitativi degli altri giochi.
Però in teoria studiando e regolando la complessità delle scene appositamente è possibile e questo perché la consola ha un'hardware identico su tutto il parco macchine. Su PC ovviamente è impossibile su tutto il parco macchine.

DooM1
31-10-2009, 16:31
Ah ho capito, ma allora, quindi qui si parla solo di console?

Pikazul
31-10-2009, 16:34
Su console si o no :D mettetevi d'accordo :D:D
Vabbè credo di aver capito.
Se sono console è facile "tarare" la cosa, anche se non uso console e non sò quanto facilmente arrivino a 60 FPS.

Se si parla di PC, gli unici modi che mi vengono in mente per tenere fissi 60 FPS sono:
1) garantire tramite un motore leggerissimo, in un sistema che abbia i requisiti minimi dichiarati (che poi bisogna ben vedere quali sono), un numero di FPS più alto di 60, e poi limitarli con vsynch o semplice limitatore.

2) adattare in tempo reale la qualità della grafica, in modo da ottenere sempre 60 FPS stabili.
Ma quindi vuol dire che se faccio girare il gioco su una Geforce 2, vedo il gioco in 4 pixel contati ? Inoltre non ho mai sentito di un motore così.


Allora nel caso 1, me ne sbatto sinceramente del limitatore a 60 FPS :D . Quello che importa è il motore leggero, ma non è che te lo garantiscono dicendoti che il gioco va a 60 FPS ... va a 60 con quali requisiti? E non può andare più di 60? Non capisco che senso abbia tutto questo.

Quello che voglio capire è: cosa perderemo realmente da ora in poi che non adotteranno più questa politica (quale?) dei 60 FPS?
Non vuol dire di certo che i nuovi giochi della insomniac non arriveranno mai più a 60 FPS... :mbe:


Non conosco la situazione di questa generazione di console, ma per quelle precedenti vale il sistema 1, si fa in modo che il gioco riesca a disegnare la scena in un sessantesimo di secondo almeno nel 99.9% dei casi. Poichè le TV normalmente non vanno oltre i 60Hz basta attivare il vsync ed è fatta. Infatti molti giochi per console hanno una temporizzazione legata ai frame, e ad un abbassamento del framerate comporta un effetto moviola nel gioco XD

Nel caso dei pc non si parla mai di fps fissi, semplicemente. Perlomeno non ricordo di aver mai sentito uno sviluppatore fare promesse troppo precise sui frame del proprio videogioco, il numero di variabili è troppo elevato, dalle configurazioni hardware ai dettagli del gioco etc etc, non avrebbe senso. Se uno proprio volesse, ci sarebbe il sistema delle console, ma molti giocatori PC preferiscono scendere sotto i 60 anche sotto i 30 per avere qualche dettaglio in più. Non che giocare un neverwinter nights a 20fps sia tragico alla fine :D


Cosa ci perderemo? Dipende, sei un giocatore PC? Allora questo annuncio non è rivolto a te. Insomniac non fa titoli per PC, solo per playstation.
Se possiedi o possiederai una console sony, singnifica che i prossimi titoli potrebbero o essere bloccati a 30fps (con un meccanismo simile al vsync), o avere un framerate variabile, ma trattandosi di console potranno assicurarsi sempre che non vada sotto una certa soglia.

IlGranTrebeobia
31-10-2009, 17:17
Non che giocare un neverwinter nights a 20fps sia tragico alla fine :D

Insomma... :rolleyes: Io troverei (ma perchè trovo e trovavo :D ) qualsiasi gioco non fluido e non reattivo frustrante e poco godibile, non solo gli fps.
Nwn 2 con grafica al massimo era ben pesante per l'epoca e quando scendeva sotto i 30-40 fps (spesso) mi cadevano le braccia e mi veniva schifo :asd:

Forse siamo abituati troppo bene :rolleyes:

Dott.Wisem
31-10-2009, 18:11
non sono daccordo, mi spiace...provato ieri sera con burnout paradise e grasrs of war: muovendomi piano in entrambe i game si notava il framerate basso...Nei videogiochi ci sono tanti oggetti che si muovono in una scena, quindi, anche se non vi è rotazione (o vi è a bassissima velocità), tutti gli altri elementi si muovono normalmente (ad esempio, in Burnout, delle macchine che passano), da cui avrai sempre la sensazioni di fluidità non totale. Tuttavia, se prendi una scena 3D semplice semplice, ad esempio, un cubo che ruota pianissimo, senza nessuna altra "distrazione" attorno, non vedrai differenze fra 15, 30 e 60fps.

più che altro c'è da dire che si possono verificare 2 situazioni (a seconda delle impostazioni, c'è un gioco in cui potevi fare una scelta simile ma non ricordo quale :( ): poniamo che il gioco venga bloccato a 20 fps; se i frame di una'animazione vengono visualizzati tutti la scena risulterà a rallentatore (poiche la velocità naturale è a 60fps), se invece vogliamo mantenere una velocità reale allora risulterà a scatti poiche i frame visualizzati sono sempre 20 per secondo (i restanti 40 non vengono proprio renderizzati in quanto la vga non ce la fa)...ma in entrambe i casi è una cosa non naturale...Se il gioco è bloccato a 20fps, allora lo vedrai scattare nelle animazioni rapide, non rallentare. Questo avviene perché, negli engine 3D, le formule di spostamento degli oggetti sono funzione del tempo (clock del computer) e non del fotogramma precedente... Se non fosse così, vedresti delle scene che rallentano e accelerano in continuazione.

Diobrando_21
01-11-2009, 01:01
Nei videogiochi ci sono tanti oggetti che si muovono in una scena, quindi, anche se non vi è rotazione (o vi è a bassissima velocità), tutti gli altri elementi si muovono normalmente (ad esempio, in Burnout, delle macchine che passano), da cui avrai sempre la sensazioni di fluidità non totale. Tuttavia, se prendi una scena 3D semplice semplice, ad esempio, un cubo che ruota pianissimo, senza nessuna altra "distrazione" attorno, non vedrai differenze fra 15, 30 e 60fps.


non so dovrei provare, appena ho un po di tempo cerco di fare qualche test...cmq spero che concorderai con me che quella da te descritta non è assolutramente una situazione reale...


Se il gioco è bloccato a 20fps, allora lo vedrai scattare nelle animazioni rapide, non rallentare. Questo avviene perché, negli engine 3D, le formule di spostamento degli oggetti sono funzione del tempo (clock del computer) e non del fotogramma precedente... Se non fosse così, vedresti delle scene che rallentano e accelerano in continuazione.

perfettamente daccordo, infatti ho specificato che tale evento si verifica se gli engine fossero dipendenti dal fotogramma precedente e non dal clock, cosa che può avvenire in base a delle impostazioni che in un gioco possono essere modificate, ma ti giuro che non ricordo quale...se lo ritrovo te lo dico

sintopatataelettronica
01-11-2009, 04:24
Nei videogiochi ci sono tanti oggetti che si muovono in una scena, quindi, anche se non vi è rotazione (o vi è a bassissima velocità), tutti gli altri elementi si muovono normalmente (ad esempio, in Burnout, delle macchine che passano), da cui avrai sempre la sensazioni di fluidità non totale. Tuttavia, se prendi una scena 3D semplice semplice, ad esempio, un cubo che ruota pianissimo, senza nessuna altra "distrazione" attorno, non vedrai differenze fra 15, 30 e 60fps.

Infatti: dunque (come si diceva) nei videogiochi 30 fps costanti non garantiscono nessun tipo di fluidità.. In che videogioco può capitare una situazione in cui ci si muove impercercettibilmente mentre tutto attorno a noi è quasi immobile ???

Forse solo il bullet-time di max payne :-P

elevul
01-11-2009, 09:13
la soglia dell'occhio non è a 30 fps. R' più bassa, sotto il limite dei 23. Tanto è vero che lo standard PAL della trasmissione video trasmette 25fps, eppure in TV non ci sono problemi di scattosità. Anche a 24 fps la fluidità all'occhio è perfettamente identica (tutte le conversioni primarie ante-blending dei DVD giapponesi/americani provengono da IVTC 29.971fps->23.976fps eppure guardandoli tutto è perfetto).

La differenza la fanno non gli fps medi, ma i minimi. In un gioco in cui gli fps medi sono circa 30, c'è il rischio che in momenti di particolare carico, si generino un numero di fps inferiore a 22/23, ed è ben lì che vi accorgete dei rallentamenti.

Se la SH riesce a sviluppare in modo tale che il dato dei 30fps (o anche 24/25) sia costante su tutto gioco non noterete alcuna differenza da 60, 100, 20000000 fps.

Allora perché quando guardo un video a 60fps( ad esempio un video fatto con fraps di un gioco) ed un altro a 24 le differenze in fluidità le noto tantissimo? :stordita:

Capozz
01-11-2009, 10:24
Da 30 fps fissi a 60 fissi la differenza si nota eccome.
Cmq farebbe prima a dire che non ce la fanno a garantire i 60 fps stabili, il problema sta tutto li.

elevul
01-11-2009, 11:50
....sotto i 100 fps non mi muovo neanche....ih ih ih XD

Progamer di fps? :sofico:

Dott.Wisem
01-11-2009, 17:10
Infatti: dunque (come si diceva) nei videogiochi 30 fps costanti non garantiscono nessun tipo di fluidità.. In che videogioco può capitare una situazione in cui ci si muove impercercettibilmente mentre tutto attorno a noi è quasi immobile ???

Forse solo il bullet-time di max payne :-PMi pareva fosse chiaro che per me 60fps sono il top. Tuttavia, in un RPG, un adventure o comunque in un gioco più tranquillo, se i programmatori dovessero preferire 30fps, in modo da aumentare la qualità della grafica, mi starebbe ancora bene.
In un gioco di guida, invece, o in un fps o comunque gioco parecchio incasinato a livello di roba che si muove sullo schermo, preferirei rinunciare ad un po' di qualità grafica, ma godere della fluidità totale in ogni situazione, che solo un framerate stabile a 60fps ti può garantire.
A me, ad esempio, Project Gotham 3 dell'xbox360, nonostante la grafica stupefacente, non l'ho mai potuto soffrire, con quei suoi 25-30fps (che a volte mi pareva scendessero anche al di sotto dei 25).

Luckplat
01-11-2009, 19:45
Siammatti.

Sarò un cyborg io, ma sul mio LG noto la differenza di aggiornamento di refresh da 85 hz a 100 hz, lasciamo perdere quando sono 60hz.

30 FPS vanno anche bene in alcuni giochi, ma non bestemmiate dicendo che l'occhio umano non percepisce più di 30 fps.

mapoetti
02-11-2009, 00:22
only 60...cè chi spende tutto quello che ha per l'hardware se posso lo sparo a 100 fps........digli di venire a casa mia e vedere se cè una differenza rofl

sintopatataelettronica
02-11-2009, 00:23
Mi pareva fosse chiaro che per me 60fps sono il top. Tuttavia, in un RPG, un adventure o comunque in un gioco più tranquillo, se i programmatori dovessero preferire 30fps, in modo da aumentare la qualità della grafica, mi starebbe ancora bene.

Bhe..in un RPG tridimensionale moderno, con la camera che gira come ti pare a te, 60+ fps non saranno certo indispensabili, ma quando il gioco ti risponde in tempo reale e zoomi e ruoti senza nemmeno un rallentamento o scatto.. bhè è comunque un'esperienza diversa e più gratificante..

Vedi KOTOR o Neverwinter, non riuscirei proprio a giocarli a 30 fps max.

30fps possono andare bene per giochi veramente semplici tipo platform 2d e avventure bidimensionali, dove comunque il movimento è abbastanza lento e limitato. Ma per un gioco 3d che permette un minimo di libertà e che ha un pò d'azione su schermo (praticamente tutti i giochi moderni) non bastano.

ernovo
02-11-2009, 06:46
Alla fine dell'800 si è scoperto il fenomeno della persistenza retinica . ovvero , la capacità dell'occhio umano di trattenere una immagine statica per 1:24 secondi.Non vi annoio con tutte le sperimentazioni che ci sono state attorno a questa scoperta (dal fenachistoscopio alla televisione , passando per i messaggi subliminali),Fatto sta che nessuno si è mai lamentato di una televisione che va a scatti ( la tv emette 25 frame al secondo) o di un film al cinema che abbia cali di fps (24 frame).
é sicuramente vero che l'occhio non percepisce oltre una certa soglia ( che oggi si attesta intorno ai 30 fps) ma è altrettanto vero che in una applicazione come un videogame si percepisce la fluidità , ovvero ,a differenza dei film, le immagini devono essere renderizzate in tempo reale.
Da Giocatore incallito ( per pc ) ho giocato , e gioco da anni la saga di cod , e so benissimo che avere un frame rate alto ( superiore ai 100 fps ) è indispensabile per una buona mira e una fluidità ottimale , dato che parliamo di fluidità , MI SPIEGO MEGLIO:il motore grafico del gioco , permette ,avendo un frame rate intorno ai 125 ( o ancora meglio 250 0 333), di saltare piu in alto , di mirare con piu precisione , di annullare la lag degli avversari, e di schivare con piu facilità i colpi nemici.
Quindi La mia conclusione è che se dovessi giocare ad una avventura grafica punta e clikka , mi accontento anche dei 25 fps , ma nel caso dovessi giocare ad un fps multiplayer , voglio il massimo delle prestazioni per rimanere competitivo!(SACRIFICANDO ANCHE LA QUALITà GRAFICA).
Questa scelta naturalmente è applicabile ai giochi per pc .. ma probabilmente vale lo stesso anche per le console!
salut

Dott.Wisem
02-11-2009, 09:20
Bhe..in un RPG tridimensionale moderno, con la camera che gira come ti pare a te, 60+ fps non saranno certo indispensabili, ma quando il gioco ti risponde in tempo reale e zoomi e ruoti senza nemmeno un rallentamento o scatto.. bhè è comunque un'esperienza diversa e più gratificante..

Vedi KOTOR o Neverwinter, non riuscirei proprio a giocarli a 30 fps max.

30fps possono andare bene per giochi veramente semplici tipo platform 2d e avventure bidimensionali, dove comunque il movimento è abbastanza lento e limitato. Ma per un gioco 3d che permette un minimo di libertà e che ha un pò d'azione su schermo (praticamente tutti i giochi moderni) non bastano.In un RPG hai il tempo di ammirare la grafica, i paesaggi, le espressioni dei personaggi, e così via... Generalmente, non hai tutta questa esigenza di ruotare velocissimamente la visuale come un forsennato (tranne Neverwinter Nights, che però secondo me è fatto malissimo come sistema di gestione della telecamera... Senza parlare dei bug di quando, ruotando la visuale, ti ritrovi davanti un albero, un muro o quant'altro che non diventa invisibile e non ti permette di vedere gran parte dell'area di gioco, bug purtroppo presente anche nel suo bel seguito).

E' ovvio poi che 60fps sono sempre meglio di 30fps (persino nei platform dei vecchi home computer della Commodore, come l'Amiga, si notava una grande differenza fra uno scrolling orizzontale a 30fps ed uno a 60fps), ma torno a ripetere che in un RPG potrei anche giungere a compromessi, se la cosa servisse a darmi una qualità grafica nettamente superiore sul mio PC, decente, ma non ultra-pompato.

D3stroyer
02-11-2009, 09:45
dipende dalla tipologia di gioco. Se cod4 per console girasse a 30fps ve ne accorgereste in meno di cinque secondi perchè la scena ruota ad una velocità relativamente elevata rispetto ad altri giochi. Ad esempio world of warcraft a 30 fps è ampiamente giocabile e non si nota impastamento o sensazione di "pochi frames", questa sensazione si ha andando sotto i 30, ma per altri giochi, tipo gli fps, 30 fps = gioco pastoso, sembra di muoversi nel fango. Provate farcry2 a 30 fps costanti, oppure limitate gli fps da console di gioco e fate le vostre prove!

Dott.Wisem
02-11-2009, 10:02
Alla fine dell'800 si è scoperto il fenomeno della persistenza retinica . ovvero , la capacità dell'occhio umano di trattenere una immagine statica per 1:24 secondi.Non vi annoio con tutte le sperimentazioni che ci sono state attorno a questa scoperta (dal fenachistoscopio alla televisione , passando per i messaggi subliminali),Fatto sta che nessuno si è mai lamentato di una televisione che va a scatti ( la tv emette 25 frame al secondo) o di un film al cinema che abbia cali di fps (24 frame).Questo è vero per i film realizzati con tradizionali telecamere analogiche. Purtroppo, quelli realizzati con telecamere digitali fanno davvero pena, a livello di fluidità. Proprio ieri sera, nel guardare il film "300", ho notato che in parecchie scene in cui la visuale traslava o ruotava velocemente, era evidente la mancanza di motion blur e, di conseguenza, era evidente la sensazione di mancanza di fluidità.
é sicuramente vero che l'occhio non percepisce oltre una certa soglia ( che oggi si attesta intorno ai 30 fps)Falso. L'occhio umano non percepisce una fluidità superiore a 30fps soltanto se le immagini contengono motion blur di ottima qualità, oppure un motion blur generato in maniera naturale da una camera analogica. Se i fotogrammi, invece, sono generati da un computer, e non hanno motion blur, la differenza fra 30 e 60fps l'occhio la percepisce eccome. [...]il motore grafico del gioco , permette ,avendo un frame rate intorno ai 125 ( o ancora meglio 250 0 333), di saltare piu in alto , di mirare con piu precisione , di annullare la lag degli avversari, e di schivare con piu facilità i colpi nemici.Non riesco a trovare nessun motivo logico secondo cui fps più elevati dovrebbero farti saltare più in alto... Io questo fenomeno lo etichetterei sicuramente come bug del motore 3D del gioco in questione...

Paolo Z.
02-11-2009, 11:52
Mioddio quanti ladri di ossigeno che ci sono al mondo...ora capisco chi è che fa la fortuna dei produttori di schede video sempre più tirate.
Venite a dire ste cazzate sui fps in dipartimento di oculistica.
E vediamo a quante bps (bastonate per secondo) riuscite ad arrivare...
Ma il premio per i più bimbiminkia va a quel 19% che ha dichiarato di non comprare giochi sotto i 60fps.

Ed a tutti i cazzari che cercano di glissare la palese boiata sostenendo che è importante avere molti frame al secondo, passare da 1/30 ad 1/60 di secondo non è cosa così facile...anzi se davvero siete convinti di avere una reattività ed una coordinazione occhi-mano così rapida dovreste andare a proporvi come piloti per l'esercito.
Ah ma dimenticavo che c'è gente che compra i pad in teflon E lo spray lubrificante sempre per il pad.
Patetici.

M3thos
02-11-2009, 12:01
Dopo aver giocato ad ArmA II il significato di fluidità assume un aspetto completamente diverso :asd:

zephyr83
02-11-2009, 12:28
Mioddio quanti ladri di ossigeno che ci sono al mondo...ora capisco chi è che fa la fortuna dei produttori di schede video sempre più tirate.
Venite a dire ste cazzate sui fps in dipartimento di oculistica.
E vediamo a quante bps (bastonate per secondo) riuscite ad arrivare...
Ma il premio per i più bimbiminkia va a quel 19% che ha dichiarato di non comprare giochi sotto i 60fps.

Ed a tutti i cazzari che cercano di glissare la palese boiata sostenendo che è importante avere molti frame al secondo, passare da 1/30 ad 1/60 di secondo non è cosa così facile...anzi se davvero siete convinti di avere una reattività ed una coordinazione occhi-mano così rapida dovreste andare a proporvi come piloti per l'esercito.
Ah ma dimenticavo che c'è gente che compra i pad in teflon E lo spray lubrificante sempre per il pad.
Patetici.
mi sa che anche tu nn hai capito di cosa stai parlando! Mi sa che a molti sfugge che un video gioco nn è come la realtà! Faccio un esempio, mi metto al centro della stanza e inizio a girare su me stesso; finché giro piano vedo tutto perfettamente, distinguo ogni cosa compreso un eventuale bersaglio! man mano che aumento la velocità di rotazione inizio a distinguere meno gli oggetti e beccare un bersaglio diventa più difficile! La mia "vista" è fluida? ma certo, mica scatta :) ora riproviamo cn una videocamare, scommettiamo che registrare a 60 fps da' risultati differenti che a 30 fps man mano che aumento la velocità di rotazione? Ora passiamo a un gioco a un fps, noi (il nostro personaggio), al centro della scena che inizia a girare su se stesso, aumentato pian piano la velocità di rotazione! La scena deve essere il più possibile chiara e DEFINITA altrimenti nn riesco a colpire niente e nessuno (se nn per sedere). Ecco perché è importante che la scena venga ridisegnata molte volte al secondo ed ecco perché si notano differenze fra i 30 e i 60 fps (o anche più).
ok spero di nn aver detto cazzate anche io e che il mio esempio sia sensato :sofico:

Diobrando_21
02-11-2009, 13:12
mi sa che anche tu nn hai capito di cosa stai parlando! Mi sa che a molti sfugge che un video gioco nn è come la realtà! Faccio un esempio, mi metto al centro della stanza e inizio a girare su me stesso; finché giro piano vedo tutto perfettamente, distinguo ogni cosa compreso un eventuale bersaglio! man mano che aumento la velocità di rotazione inizio a distinguere meno gli oggetti e beccare un bersaglio diventa più difficile! La mia "vista" è fluida? ma certo, mica scatta :) ora riproviamo cn una videocamare, scommettiamo che registrare a 60 fps da' risultati differenti che a 30 fps man mano che aumento la velocità di rotazione? Ora passiamo a un gioco a un fps, noi (il nostro personaggio), al centro della scena che inizia a girare su se stesso, aumentato pian piano la velocità di rotazione! La scena deve essere il più possibile chiara e DEFINITA altrimenti nn riesco a colpire niente e nessuno (se nn per sedere). Ecco perché è importante che la scena venga ridisegnata molte volte al secondo ed ecco perché si notano differenze fra i 30 e i 60 fps (o anche più).
ok spero di nn aver detto cazzate anche io e che il mio esempio sia sensato :sofico:

ma che ci perdi pure tempo? Certi commenti vanno ignorati visto che è evidente che nn ha mai fatto delle prove su campo...anzi sicuramente non sa nemmeno di cosa si sta parlando ;)...l'ignoranza è una brutta bestia.

Paolo Z.
02-11-2009, 13:30
Beh fino a prova contraria vale molto di più quanto scritto sui testi di fisiologia dell'occhio che la parola di qualche weirdo, dopotutto l'ignoranza è brutta, ma anche la presunzione è un grosso problema a quanto pare.
Poi se qualche "esperto" o "pro-gamer" ha le sue manie, che evidentemente confutano le prove sperimentali mi dispiace davvero tanto che sia in grado di autosuggestionarsi così tanto...anche perchè ok, l'occhio non va a frame (e infatti non l'ho detto da nessuna parte) ma se sopra una certa frequenza di cambio immagine la differenza non è percepibile, OVVERO ARRIVA AL CERVELLO COME UN UNICO FLUSSO DI IMPULSI tutto il resto sono cazzate.
Ma proprio cazzate grosse.
Passi che tra 24 e 30 fps può ancora esserci la sensibilità soggettiva, e con la coda dell'occhio si riesca a notare lo sfarfallio delle lampade al neon a 50Hz, ma da qui a sparare che più aumentano i fps, più si nota la differenza è un'affermazione azzardata visto che man mano che si sale si parla di intervalli sempre più brevi.

Comunque se vuoi avere le prove, prendi in mano un qualsiasi testo di elettrofisiologia (cerca "Berne-Levy" oppure "Guyton-Hall", sono testi universitari) e vedrai che i CONI, deputati alla visione "a colori" hanno una frequenza di 12Hz, mentre i BASTONCELLI viaggiano sui 50Hz.
Pretendere che si recepiscano framerate superiori alla capacità d'impulso dei recettori è proprio una stronzata.

Spero che dopo questo non ci sia ancora qualcuno abbastanza stupido da metterci ancora bocca contro ogni prova presentabile.

futu|2e
02-11-2009, 13:34
Beh fino a prova contraria vale molto di più quanto scritto sui testi di fisiologia dell'occhio che la parola di qualche weirdo, dopotutto l'ignoranza è brutta, ma anche la presunzione è un grosso problema a quanto pare.
Poi se qualche "esperto" o "pro-gamer" ha le sue manie, che evidentemente confutano le prove sperimentali mi dispiace davvero tanto che sia in grado di autosuggestionarsi così tanto...anche perchè ok, l'occhio non va a frame (e infatti non l'ho detto da nessuna parte) ma se sopra una certa frequenza di cambio immagine la differenza non è percepibile, OVVERO ARRIVA AL CERVELLO COME UN UNICO FLUSSO DI IMPULSI tutto il resto sono cazzate.
Ma proprio cazzate grosse.
Passi che tra 24 e 30 fps può ancora esserci la sensibilità soggettiva, e con la coda dell'occhio si riesca a notare lo sfarfallio delle lampade al neon a 50Hz, ma da qui a sparare che più aumentano i fps, più si nota la differenza è un'affermazione azzardata visto che man mano che si sale si parla di intervalli sempre più brevi.

Comunque se vuoi avere le prove, prendi in mano un qualsiasi testo di elettrofisiologia (cerca "Berne-Levy" oppure "Guyton-Hall", sono testi universitari) e vedrai che i CONI, deputati alla visione "a colori" hanno una frequenza di 12Hz, mentre i BASTONCELLI viaggiano sui 50Hz.
Pretendere che si recepiscano framerate superiori alla capacità d'impulso dei recettori è proprio una stronzata.

Spero che dopo questo non ci sia ancora qualcuno abbastanza stupido da metterci ancora bocca contro ogni prova presentabile.

Riassumendo, sostieni che non c'è differenza nei videogames a più di 30 fps?
Meglio saperlo prima per prendere eventuali distanze.

zephyr83
02-11-2009, 13:41
Beh fino a prova contraria vale molto di più quanto scritto sui testi di fisiologia dell'occhio che la parola di qualche weirdo, dopotutto l'ignoranza è brutta, ma anche la presunzione è un grosso problema a quanto pare.
Poi se qualche "esperto" o "pro-gamer" ha le sue manie, che evidentemente confutano le prove sperimentali mi dispiace davvero tanto che sia in grado di autosuggestionarsi così tanto...anche perchè ok, l'occhio non va a frame (e infatti non l'ho detto da nessuna parte) ma se sopra una certa frequenza di cambio immagine la differenza non è percepibile, OVVERO ARRIVA AL CERVELLO COME UN UNICO FLUSSO DI IMPULSI tutto il resto sono cazzate.
Ma proprio cazzate grosse.
Passi che tra 24 e 30 fps può ancora esserci la sensibilità soggettiva, e con la coda dell'occhio si riesca a notare lo sfarfallio delle lampade al neon a 50Hz, ma da qui a sparare che più aumentano i fps, più si nota la differenza è un'affermazione azzardata visto che man mano che si sale si parla di intervalli sempre più brevi.

Comunque se vuoi avere le prove, prendi in mano un qualsiasi testo di elettrofisiologia (cerca "Berne-Levy" oppure "Guyton-Hall", sono testi universitari) e vedrai che i CONI, deputati alla visione "a colori" hanno una frequenza di 12Hz, mentre i BASTONCELLI viaggiano sui 50Hz.
Pretendere che si recepiscano framerate superiori alla capacità d'impulso dei recettori è proprio una stronzata.

Spero che dopo questo non ci sia ancora qualcuno abbastanza stupido da metterci ancora bocca contro ogni prova presentabile.
bhe presuntuoso a me è sembra il tuo commento precedente! Rimane il fatto che nn hai capito il nocciolo della questione! Un gioco nn è una situazione reale! L'esempio che ho fatto mi sembrava calzante ed esplicativo. Metti anche che su un gioco si riesca ad attuare in maniera molto efficace l'effetto blur e mostrare fluide scene anche molto veloci........bhe per un fps sarebbe inutile perché nn riusciresti a mirare nulla :sofico:
Ma basta riprendere cn una fotocamera una scena molto veloce, prima a 30 fps e poi a 60........chissà perché la differenza si nota

Braccop
02-11-2009, 13:44
Mioddio quanti ladri di ossigeno che ci sono al mondo...ora capisco chi è che fa la fortuna dei produttori di schede video sempre più tirate.
Venite a dire ste cazzate sui fps in dipartimento di oculistica.
E vediamo a quante bps (bastonate per secondo) riuscite ad arrivare...
Ma il premio per i più bimbiminkia va a quel 19% che ha dichiarato di non comprare giochi sotto i 60fps.

Ed a tutti i cazzari che cercano di glissare la palese boiata sostenendo che è importante avere molti frame al secondo, passare da 1/30 ad 1/60 di secondo non è cosa così facile...anzi se davvero siete convinti di avere una reattività ed una coordinazione occhi-mano così rapida dovreste andare a proporvi come piloti per l'esercito.
Ah ma dimenticavo che c'è gente che compra i pad in teflon E lo spray lubrificante sempre per il pad.
Patetici.

quindi tu sei uno di quei geni che sostengono che l'occhio umano non vede piu' di 60hz ?


Spero che dopo questo non ci sia ancora qualcuno abbastanza stupido da metterci ancora bocca contro ogni prova presentabile.

certo, immagino che tu sia troppo piccolo per aver vissuto l'era dei crt dove la differenza tra i 60-75-85-100hz si vedeva PALESEMENTE, vero?

gianly1985
02-11-2009, 13:51
Comunque se vuoi avere le prove, prendi in mano un qualsiasi testo di elettrofisiologia (cerca "Berne-Levy" oppure "Guyton-Hall", sono testi universitari) e vedrai che i CONI, deputati alla visione "a colori" hanno una frequenza di 12Hz, mentre i BASTONCELLI viaggiano sui 50Hz.
Pretendere che si recepiscano framerate superiori alla capacità d'impulso dei recettori è proprio una stronzata.

A parte che hai invertito le frequenze dei coni con quelle dei bastoncelli (credo sia un lapsus), ho qui nella mia libreria sia il Guyton che il Berne-Levy che il Kandel ma il problema non è la frequenza del singolo fotorecettore, il problema è che tu hai 7 milioni di coni (lasciamo perdere i bastoncelli) da una parte e 7 milioni dall'altra e non c'è scritto da nessuna parte che si iperpolarizzano/depolarizzano all'unisono, quindi anche se il singolo cono è limitato ai 50Hz questo non toglie che si possa generare globalmente una "mappa di attivazione elettrica" che "scansioni" in modo pressochè continuo il campo visivo (soprattutto quello binoculare, dove minimo su ogni "pixel" hai puntati 2 fotorecettori da 50Hz sfasati fra di loro, uno per occhio) tale da restituire, alla fine di tutte le integrazioni ed elaborazioni in parallelo della via ottica, una sensazione soggettiva che risulti relativamente differente a seconda che si guardi un videogioco a 30fps, 60fps o 120fps. Poi per carità un qualche limite superiore esisterà (120? 150? chi lo sa), soggetto a un minimo di variabilità biologica, ma non la buttiamo sui 50Hz del singolo cono o sostenendo con troppa sicurezza che già oltre i 30fps non si possono avere differenze a livello di sensazione finale nella corteccia visiva.

Braccop
02-11-2009, 13:53
bene e' arrivato qualcuno a sputtanare il bimbetto sul suo stesso campo, ottimo :D

The_SaN
02-11-2009, 14:28
Ragazzi, é inutile parlare di fluiditá e percezione se non si conoscono certe differenze o tecniche...

- Immagine statica
- Immagine di movimento
- Motion Blur

Dovreste sapere che c'é una grandissima differenza tra un' immagine renderizzata da un game e una presa da una telecamera...di qui la necessitá dei game di avere un refresh dell'immagine piú alto.

Paolo Z.
02-11-2009, 14:45
Chiamasi autosuggestione? Se testano i farmaci contro il gruppo di controllo con placebo, è un effetto da non sottovalutare.
E comunque ripeto ancora una volta. Che me ne faccio di 60 frame se i miei fotorecettori ne mandano al cervello massimo 12 al secondo (per i colori) e 50 (per il b/n, luminosità ecc) dai su.
Comunque vabbè...aveva ragione Einstein, all'intelligenza c'è un limite, alla stupidità no.

HateworK
02-11-2009, 14:56
.... dai su, ammettilo: sei solo un tirchio che non vuole sborsare 80 euro per aggiornare la scheda grafica, e cerchi di giustificare tale tirchieria!!!

No perchè, altrimenti non si capisce come fai ancora a rompere l'anima con ste teorie ridicole.. il da te tanto citato ed amato Einstein diceva pure che ogni tanto una prova empirica delle cazzEHMMMconvinzioni proprie va fatta... quindi se DAVVERO te non noti la differenza tra un gioco mandato a 30fps o a 60fps, beh, ce l'avrai un buon oculista in città, no? :)

zephyr83
02-11-2009, 14:56
Chiamasi autosuggestione? Se testano i farmaci contro il gruppo di controllo con placebo, è un effetto da non sottovalutare.
E comunque ripeto ancora una volta. Che me ne faccio di 60 frame se i miei fotorecettori ne mandano al cervello massimo 12 al secondo (per i colori) e 50 (per il b/n, luminosità ecc) dai su.
Comunque vabbè...aveva ragione Einstein, all'intelligenza c'è un limite, alla stupidità no.
è che a quanto pari nn capisci la differenza fra immagine statica e immagine in movimento :stordita: e mi sa che ti sfugge anche il concetto di "percezione". La prova di girare intorno è sempre valida :sofico: magari prova anche a giocare a uno sparatutto e poi dimmi se nn noti differenze al calare degli fps

Paolo Z.
02-11-2009, 15:00
Per i CRT li è un po diverso visto che il fascio di elettroni (anzi il pennello elettronico visto che la vuoi fare fuori dal vaso) si deve fare tutto lo schermo avanti, indietro in su ed in giu linearmente, ma l'han già detto in precedenza sempre nei commenti a questa notizia...mi pare che non ci sia altro da dire sull'argomento.

Sulla visione binoculare, a parte il refuso ammetto di non aver considerato la sfasatura...mi vergogno profondamente e mi cospargo il capo di cenere, però non so dove tu sia iscritto, ma se ti dan per buona la definizione di "sensazione soggettiva" all'esame di fisiologia, mi devo trasferire che mi andrebbe davvero grassa.

Diobrando_21
02-11-2009, 15:15
:D :D :D :D :D :D :D
ragazzi vi prego basta, l'avete fatto nero :D.
A parte che si è intortato da solo come spiegato da gianly1985, e cmq più parla e più mi convinco che nn ha mai fatto test sul campo visto che anche senza nessuna preparazione scientifica qualsiasi essere umano può notare certe differenze...ripeto io noto differenze anche a 120hz, addirittura nel desktop semplicemente muovendo il cursore del mouse o trascinando le finestre...sottolineando più volte che oltre i 60hz diventa sempre più difficile scorgere le differenze.

gianly1985
02-11-2009, 15:23
Chiamasi autosuggestione? Se testano i farmaci contro il gruppo di controllo con placebo, è un effetto da non sottovalutare.
E comunque ripeto ancora una volta. Che me ne faccio di 60 frame se i miei fotorecettori ne mandano al cervello massimo 12 al secondo (per i colori) e 50 (per il b/n, luminosità ecc) dai su.
Comunque vabbè...aveva ragione Einstein, all'intelligenza c'è un limite, alla stupidità no.

Ancora con questi fotorecettori, ma hai letto quello che ho scritto? :)

E poi continui a invertire le frequenze di coni e bastoncelli, cosa che a questo punto non è più un lapsus ma proprio un concetto errato che hai, dovresti capirlo che i bastoncelli devono fare tutto il possibile per captare i pochi fotoni che ci sono in condizioni crepuscolari (visione scotopica) e che quindi sono i bastoncelli a lavorare ad intervalli più lunghi (come a voler far "accumulare fotoni" prolungando il tempo di accumulo) cioè a 12Hz, non i coni come dici tu.

Per la visione distinta in condizioni fotopiche invece contano i coni, tu quando dirigi gli occhi verso uno schermo non fai altro che far cadere la luce proveniente dallo schermo, opportunamente fatta convergere grazie ai mezzi diottrici dell'occhio, sulla tua fovea, che è l'area della retina dove sono concentrati i coni, con i bastoncelli vedrai la periferia del campo visivo piuttosto.

Come ti ho detto, che un SINGOLO cono lavori a 50Hz non significa nulla, perchè tu hai 2 matrici da 7 milioni di coni ciascuna che captano luce su aree corrispondenti del campo visivo binoculare. Questi 14 milioni di coni non si iperpolarizzano all'unisono, quindi la "scansione" del campo visivo globalmente può spingersi sicuramente al di sopra dei 50Hz del singolo fotorecettore (ricordando che ogni "piccola area" di campo visivo è di pertinenza di più fotorecettori, almeno 2 sicuramente, e poi ricordando che ci sono meccanismi di completamento a livello corticale, ecc.) ed è solo una tua errata deduzione collegare quei 50Hz alle effettive possibilità di discernimento a livello di sensazione FINALE elaborata a livello della corteccia visiva.

Quindi non mettere più in mezzo la neurofisiologia e la frequenza massima dei cicli di iperpolarizzazione/depolarizzazione dei fotorecettori perchè ne hai una visione abbastanza distorta o per lo meno ne trai delle deduzioni errate.

Poi parlare di "stupidità", "weirdo", ecc. quando sei palesemente in torto.... :rolleyes:

Dott.Wisem
02-11-2009, 17:00
Che poi, al di là dell'interessantissima teoria che c'è dietro, ma cavolo, una prova a guardare un videogioco a 15, 30 e 60fps (con vsync attivato, ovviamente), no, eh?
Se poi abbiamo ancora un CRT ci accorgiamo che se teniamo il monitor impostato a 75Hz o più, nel momento in cui impostiamo il refresh a 60Hz ci rendiamo conto che l'immagine è leggermente tremolante. Questo è già di per sé una prova secondo cui l'occhio riesce 'globalmente' a percepire frequenze d'aggiornamento anche superiori ai 60Hz (sebbene poi questo non comporti assolutamente, secondo me, una maggiore capacità di mira nei videogiochi, a meno che non vi siano bug nell'engine 3D). Che poi il motivo sia dato dal fatto che i coni lavorino in maniera asincrona o da qualche altro fatto, questo ce lo può spiegare la scienza, ma il fatto di base rimane: le nostre capacità visive sono davvero eccezionali, molto più di quanto si possa credere.

omerook
02-11-2009, 17:49
ma si 100fps sono sicuramente meglio di 30 ma bisogna anche aggiungere che i frame non sono tutto! se ti flasho la retina con un lampo ti ci imprinto una immagine sopra che non vedi piu frame per qualche sec!:D

questo dimostra anche che il limite non è solo del cervello, come sostiene qualcuno, e che un cervello allenato percepisce piu frame di uno addormentato ma, ci sono ache degli oggetivi limiti di tutto l'apparato visivo.

zephyr83
02-11-2009, 18:02
questo dimostra anche che il limite non è solo del cervello, come sostiene qualcuno, e che un cervello allenato percepisce piu frame di uno addormentato ma, ci sono ache degli oggetivi limiti di tutto l'apparato visivo.

penso che questo nessuno finora l'abbia mai messo in discussione :)

th3o|dm4n
03-11-2009, 09:36
Scusate, ma la soglia dell'occhio umano non è 30fps? Che senso ha farlo andare più veloce se tanto il nostro occhio non lo percepisce?

Se non sbaglio la percezione dell'occhio umano è nella norma pari a 20 fps...penso che se un gioco mantenga un frame rate costante a 60 fps implichi anche che non scatti in quanto la macchina raggiunge delle prestazioni tali da arrivare ad elaborare fino a 60 fotogrammi al secondo. tutto IMHO:D

la soglia dell'occhio non è a 30 fps. R' più bassa, sotto il limite dei 23. Tanto è vero che lo standard PAL della trasmissione video trasmette 25fps, eppure in TV non ci sono problemi di scattosità. Anche a 24 fps la fluidità all'occhio è perfettamente identica (tutte le conversioni primarie ante-blending dei DVD giapponesi/americani provengono da IVTC 29.971fps->23.976fps eppure guardandoli tutto è perfetto).

La differenza la fanno non gli fps medi, ma i minimi. In un gioco in cui gli fps medi sono circa 30, c'è il rischio che in momenti di particolare carico, si generino un numero di fps inferiore a 22/23, ed è ben lì che vi accorgete dei rallentamenti.

Se la SH riesce a sviluppare in modo tale che il dato dei 30fps (o anche 24/25) sia costante su tutto gioco non noterete alcuna differenza da 60, 100, 20000000 fps.non ho letto altre sciocchezze simili, percHé mi son fermato alla prima pagina, temendo di trovarne altre del genere.
il numero minimo di fps necessari per avere la percezione del movimento, sono 24 fotogrammi al secondo, quando si parla di cinema (12 fotogrammi al secondo per i cartoni animati). per il digitale è moooolto più complessa la cosa.

sia nel cinema che nei cartoni animati, abbiamo quei fotogrammi che chiameremo "intercalari", cioè che anticipano il movimento. se fate un fermo immagine di una scena in cui uno sta per sferrare un pugno, non avremo mai una definizione alta, tipo fotografia, ma un forogramma sporco, molto mosso.
ogni fotogramma, parlando terra terra, segue quello precedente, e anticipa quello successivo. è questo a dare la principale senzazione di movimento.
nel 3D invece è differente la cosa, perché abbiamo l'assenza di fotogrammi intercalari. ogni fotogramma è nitido, pulito. per cui, per avere un tipo di fluidità paragonabile a quella cinematografica, occorrerebbe far girare il gioco almeno a 45fps (almeno).
tutto questo non IMHO.
non è una mia opinione, ma è realmente così.
per cui evitate commenti del tipo "io lo percepisco anche a 22fps" et simila.
i 30 fps di un videogioco poco hanno a che vedere con i 30fps cinematografici.

ho giocato dead space su pc, castrato a 30fps, senza alcun calo di frame (avendo una macchina potentina potevo permettermi più fps), ma non ho avvertito questa grande sensazione di fluidità. anzi, spesso dovevo interrompere causa nausea, pur avendo un framerate costante.
il problema che loro presentano è ben diverso: giustamente, si chiedono, perché concentrare gli sforzi su una cosa che, a conti fatti, poco influisce sulle vendite? mettiamoci a sviluppare effetti pacchiani ma che fanno salire i voti sulle recensioni, piuttosto che lavorare per ottimizzare un gioco. tanto se ne fregano tutti.

MAGNO
03-11-2009, 10:04
vi faccio notare al di la della spiegazione di jitter giustissima, di persistenza retinica e altro, altri due fattori. il sincronismo tra netcode, audio, e frame buffer video, che induce al di là dei frame generati ogni sorta di dissincronismo. aggiungiamogli anche un evidente delay che molti giochi applicano sul puntatore del mouse (bf2 per esempio) e avremo uno scenario orrendo. il test del fissare il monitor? non testimonia nulla visto che le schede video hanno un dac interno che di solito va a 400 mhz e come tale induce cmq un errore strumentale, tanto piccolo ma che casualemnte può incrociare la sincronia con l'occhio umano e renderlo percepibile. quell oche sfugge è che fino a che si comparano due sistemi di misura diversi. in questocaso analogico del umano essere e il digitale non ci si potrà mai avvicinare per definizione allo 0 assoluto di errore, soprattutto in una scena interata.

chi gioca a cs per farvi l'esempio di un gioco famoso e gioca a livello alto sa benissimo come funziona in motore di code e sa benissimo che il limite imposto di 100 fps è effettivamente basso ( infatti sul source hanno aumentato il rate da 25000 a 30000 e gli fps massimi da 100 a 300, sempre perchè essendo basato sull ostesso tipo di concezione ( come netcode intendo) si va ad apportare un errore minore e una minor inpressione di lag.

questo perchè? su cs la posisione del pg avviene tramite posizione trigonometrica sulla mappa, e questa come ben si sa fermo restando tutti i parametri di trasmissione è influenzata dagli fps (funziona come una scansione verticale praticamente, immaginatevi una schermata di un sonar) le hitbox invece vengono inviate solo una volta che la'vversario è a schermo. ovvi oquindi che di tutti i parametri necessari uno (in questi casi la posizione di voi stessi sulla mappa viene meno) tutto i lresto concatenamente salta e si perdono i colpi per strada. se tutto fosse così 40 fps sarebbero cmq ok per giocare. e invece no. i colpi devono arrivare. ed è qui che entrail jitter sul netcode che ritrasmette la posizione se entro un certo tempo non c'è sincro di inf col server. è questo il motivo per cui vedete scattare quel merdoso gioco. problem idi sincronia coi vari giocatori e lag.

vi siete mai chiesti perchè in alcuni server chi ha ping superiore ai 100 viene buttato fuori? perchè come in bf2 un solo pg a 500 di ping fa impazzzire l'intero netcode e con esso pure la stabilità.
spero di essere stato chiaro.

per un immagine analogica in movimento non processata da nessun sturmento digitale sono suff 23-40 fps : SI eccome

in una scena processata digitalemnte e SOPRATTUTTO con iterazione utente sono sufficienti? : NO
e non lo sarà mai. si può solo inventare metodi di correzioni migliori e aumentare la velocità di capionamento degli eventi tanto da ridurre l'errore al minimo.

IlGranTrebeobia
03-11-2009, 10:15
si chiedono, perché concentrare gli sforzi su una cosa che, a conti fatti, poco influisce sulle vendite? mettiamoci a sviluppare effetti pacchiani ma che fanno salire i voti sulle recensioni, piuttosto che lavorare per ottimizzare un gioco. tanto se ne fregano tutti.

Quoto... Alla fine il punto è questo.

MAGNO
03-11-2009, 10:38
ottimizzare ok, ma i frame rate frega sega, deve essere cmq godibile fluido e la grafica sempre migliore. se devi giocare online chi guarda a ste cose non gioca certo su console ma ha un mouse tra le mani.

th3o|dm4n
03-11-2009, 10:47
ottimizzare ok, ma i frame rate frega sega, deve essere cmq godibile fluido e la grafica sempre migliore. se devi giocare online chi guarda a ste cose non gioca certo su console ma ha un mouse tra le mani.guarda caso però, sviluppano per console. a loro gliene frega poco di ottiimizzare il gioco e renderlo fluido, se poi vedono che un gioco che va a scatti, ma con effetti pacchiani e pesanti, vende e fa notizia più del loro.

dai, per pc abbiamo l'esempio di crysis, che, pur essendo il mattone per eccellenza, continua a far parlare di se, a dispetto di sparatutto che a parità di hardware facevano (e fanno) il triplo come fps, pur non avendo tutti quegli effetti grafici.