View Full Version : Attivazione profondità colore a 10 bit su monitor Asus PG27AQ
peronedj
18-08-2016, 07:48
Salve a tutti, mi scuso da ora se si è già parlato di questo argomento ma purtroppo il forum non mi permette di fare una ricerca approfondita, in quanto se cerco 10 bit mi esclude il "10" perchè la parola è troppo corta...
Comunque, ieri ho assemblato il pc che vedete in firma, il monitor ha un pannello IPS che supporta i 10 bit di profondità colore ma dal pannello di controllo nvidia non riesco a settarli, arriva massimo a 8, è normale? Non so magari ci vuole una scheda video particolare per gestire i 10 bit? Pensavo che una GTX 1080 lo supportasse...
peronedj
19-08-2016, 10:33
up?
peronedj
22-08-2016, 08:18
UP
peronedj
23-08-2016, 09:25
Possibile che nessuno si sia mai posto questo problema??
Il pannello non è da 10bit ma da 8bit+dithering (vedi review (https://pcmonitors.info/reviews/asus-pg27aq/)), quindi è giusto così!
peronedj
24-08-2016, 18:18
Beh sul sito della asus viene pubblicizzato come 10bit, e anche nelle caratteristiche dettagliate non si fa menzione di questo 8+2
peronedj
24-08-2016, 18:19
e comunque in che consiste questo 8bit + 2 dithering? mai sentito
Beh sul sito della asus viene pubblicizzato come 10bit, e anche nelle caratteristiche dettagliate non si fa menzione di questo 8+2
e comunque in che consiste questo 8bit + 2 dithering? mai sentito
Ovvio che venga pubblicizzato come 10bit...fa più :sofico:
Riporto da TFTCentral:
Frame Rate Control / Temporal Dithering - The other method is Frame-Rate-Control (FRC), also referred to sometimes as temporal dithering. This works by combining four colour frames as a sequence in time, resulting in perceived mixture. In basic terms, it involves flashing between two colour tones rapidly to give the impression of a third tone, not normally available in the palette. This allows a total of 16.2 reproducible million colours in 6-bit TN Film matrices. FRC is also used to enhance the colour depth of 8-bit panels, boosting them from their standard 16.7 million colours to 1.07 billion in the case of "10-bit" panels (8-bit + FRC). There are a number of FRC algorithms which vary in their effectiveness. Sometimes, a twinkling artefact can be seen, particularly in darker shades, which is a side affect of such technologies.
In pratica è un pannello da 8bit "reali" e 2bit "finti".
peronedj
24-08-2016, 18:36
Ovvio che venga pubblicizzato come 10bit...fa più :sofico:
Riporto da TFTCentral:
In pratica è un pannello da 8bit "reali" e 2bit "finti".
Quindi se non ho capito male è una tecnologia che permette di vedere qualche sfumatura di colore in più rispetto agli 8 bit, pur non arrivando ai miliardi di colori dei pannelli a 10 bit? E come si dovrebbe usare? dato che non si può impostare 10 bit nel pannello di controllo (o 8+2 che dir si voglia), suppongo che funziona rimanendo impostato a 8 bit.
Quindi se non ho capito male è una tecnologia che permette di vedere qualche sfumatura di colore in più rispetto agli 8 bit, pur non arrivando ai miliardi di colori dei pannelli a 10 bit? E come si dovrebbe usare? dato che non si può impostare 10 bit nel pannello di controllo (o 8+2 che dir si voglia), suppongo che funziona rimanendo impostato a 8 bit.
No, un pannello 8bit+dithering mostra lo stesso numero di colori di un pannello 10bit, solo che (semplificando molto) nel primo caso il colore C viene creato alternando velocemente il colore A e il colore B, mentre nel secondo caso il colore C esiste già :D Quindi sì, a 8bit il dithering agisce di default.
peronedj
24-08-2016, 18:51
No, un pannello 8bit+dithering mostra lo stesso numero di colori di un pannello 10bit, solo che (semplificando molto) nel primo caso il colore C viene creato alternando velocemente il colore A e il colore B, mentre nel secondo caso il colore C esiste già :D Quindi sì, a 8bit il dithering agisce di default.
Quel che non capisco è: se la scheda video manda dati a 8 bit (così com'è impostata) come diavolo fa il monitor a capire quando generare il colore C aggiuntivo alternando i colori A e B. Avrebbe senso se la scheda video fosse impostata per inviare dati a 10 bit, così nel caso in cui il monitor deve visualizzare un colore che non possiede già, può sapere quando fare il trucco
Quel che non capisco è: se la scheda video manda dati a 8 bit (così com'è impostata) come diavolo fa il monitor a capire quando generare il colore C aggiuntivo alternando i colori A e B. Avrebbe senso se la scheda video fosse impostata per inviare dati a 10 bit, così nel caso in cui il monitor deve visualizzare un colore che non possiede già, può sapere quando fare il trucco
Sinceramente non ti saprei dire, io ho una AMD quindi non so bene come funziona il pannello di controllo Nvidia. A scanso di equivoci, ti direi di reinstallare i driver tramite la classica procedura DDU modalità provvisoria, collegare il monitor con la displayport (se non è già collegato così, come dovrebbe) e vedere se ti dà l'opzione 10bit. Se rimane 8bit, mi sa proprio che è giusto così...aspetterei qualcuno con una Nvidia per conferma :fagiano:
peronedj
26-08-2016, 08:11
Sinceramente non ti saprei dire, io ho una AMD quindi non so bene come funziona il pannello di controllo Nvidia. A scanso di equivoci, ti direi di reinstallare i driver tramite la classica procedura DDU modalità provvisoria, collegare il monitor con la displayport (se non è già collegato così, come dovrebbe) e vedere se ti dà l'opzione 10bit. Se rimane 8bit, mi sa proprio che è giusto così...aspetterei qualcuno con una Nvidia per conferma :fagiano:
Il driver è appena installato (la scheda video è arrivata da poco quindi l'installazione è stata pulita) e il monitor è collegato con displayport, quindi non saprei
Il driver è appena installato (la scheda video è arrivata da poco quindi l'installazione è stata pulita) e il monitor è collegato con displayport, quindi non saprei
Ho trovato questo thread: http://www.avsforum.com/forum/139-display-calibration/2269338-10-bit-gradient-test-patterns.html
Scaricando il test nel primo link: se sei a 8bit dovresti vedere la metà superiore uguale alla metà inferiore (cioè bande verticali discrete), mentre se sei a 10bit (8bit+dithering) dovresti vedere la metà superiore con sfumature uniformi e quella inferiore a bande verticali discrete. Se ho capito bene :D
peronedj
26-08-2016, 15:59
niente, non vedo sfumature omogenee, ma solo diverse "bande"
niente, non vedo sfumature omogenee, ma solo diverse "bande"
Non saprei a questo punto :(
L'ultima cosa che mi viene in mente: Windows ti riconosce lo schermo col suo nome o come generico plug-and-play? Magari devi installare i driver specifici dello schermo, se non l'hai già fatto...
peronedj
26-08-2016, 16:11
Da gestione dispositivi il monitor risulta come generico plug & play, ma non esistono driver specifici. Col monitor non c'era nessun cd e dal sito asus non risultano driver
Sembra che non sei l'unico: https://m.reddit.com/r/Nvidiahelp/comments/4x2djj/cant_enable_10_bit_colour/
Se i driver nvidia li ha installati "sovrascrivendoli" a quelli che ti ha messo windows di default, io rifarei ancora la procedura DDU in modalità provvisoria ed installazione ultimi driver. Se ancora così non va, prova a scrivere una mail a Simon di TFT Central...è disponibilissimo e aiuta davvero: http://www.tftcentral.co.uk/contact.htm
peronedj
30-08-2016, 00:18
niente da fare, ho provato a togliere i driver da modalità provvisoria con DDU, ho reinstallato il tutto ma da sempre 8 bit. Ho provato anche dei driver precedenti ma nulla cambia
niente da fare, ho provato a togliere i driver da modalità provvisoria con DDU, ho reinstallato il tutto ma da sempre 8 bit. Ho provato anche dei driver precedenti ma nulla cambia
Ho scritto su Twitter a Simon. In attesa di risposta...
peronedj
30-08-2016, 07:58
:eek: grazie
:eek: grazie
Lui ricorda che la GTX1080 non supporta i 10bit.
Al che ho cercato in giro e pare che la GTX1080 supporti i 10bit solo in DX11/12 fullscreen e solo con giochi specifici (es: Alien Isolation), mentre sul desktop/photoshop no...serve una Quadro per questo. Poi pare che non appena la GTX1080 rilevi una applicazione/gioco a 10bit, attivi automaticamente il dithering che la porta dagli 8bit selezionati nel pannello ai 10bit (anzi, 8+2).
Qui i link dove ho letto questo:
http://forums.evga.com/gtx-1080-support-for-10-bit-display-m2510043.aspx (post #12)
http://forum.doom9.org/showthread.php?t=172128 (post #1)
In particolare nel secondo link si legge:
In other words, If you can't choose 10bit in nvidia CP and keep it on 8bit, when you run madVR in 10bit FSE, nvidia WILL Dither and you'll see smooth gradient, not true 10bit.
Morale della favola: sembra che nel pannello di controllo Nvidia è giusto che sia selezionabile solo 8bit, poi non appena il sistema rileva una app/gioco a 10bit viene attivato il dithering e si passa a 8bit+dithering.
peronedj
30-08-2016, 13:31
quindi è per questo che con quei pattern di avmagazine non vedevo tutti i gradienti, probabilmente vlc non veniva riconosciuto dal pannello di controllo nvidia come applicazione dx11 in fullscreen
peronedj
30-08-2016, 13:43
ci vorrebbe un'applicazione ad hoc per testare questa cosa
ci vorrebbe un'applicazione ad hoc per testare questa cosa
La trovi proprio nel secondo link ;)
Tale MadVR
peronedj
23-09-2016, 16:05
Che tristezza giocare a the witcher 3 in 4k con settaggi al massimo, poi guardo il cielo notturno e c'è un banding schifoso...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.