Io ho cercato diverse volte di avere una risposta alla domanda:
"le schede video per giochi supportano o no i 10 bit per canale (o 30 bit totali che dir si voglia)?"
(se non vuoi leggere tutto passa alla parte granata!)
La risposta non sono mai riuscito a trovarla, c'era chi diceva "teoricamente si ma non lo so", chi diceva "la connessione display port supporta i 10 bit se la scheda ce l'ha probabilmente li supporta però se per applicaizoni grafiche si usano le quadro ci sarà un motivo", c'era chi diceva un secco "no", insomma non c'era una risposta concreta per un motivo, chi gioca se ne frega dei 10 bit, chi lavora compra la vga consigliata dal venditore e non se ne preoccupa troppo di indagare, ma io faccio entrambe le cose (in realtà non giocavo da parecchio).
Ebbene, alla fine (in un raptus di acquisti folli) ho comprato una Nvidia GTX 970 per giocare a fallout pensando "se non regge i 10 bit chissene, un buon monitor anche a 8 bit resta un buon monitor" ora sono tornato dal mio WE di vacanza-acquisto con il mio bel Dell U3011 usato, l'ho collegato con il cavo DP, sono andato in pannello nvidia e si, c'è 10 bit e si, funziona a 10 bit, chiaramente passa a 8 su programmi che non supportano i 10 bit. Serve? non lo so, devo ancora analizzare i vantaggi perché non ho ancora calibrato il monitor se non a occhio, ma almeno ho risposto alla domanda.
Si, supportano i 10 bit, o meglio la Nvidia GTX 970 (al link quella che ho io, scelta tra le tante esistenti perché ha più uscite video del normale) supporta i 10 bit su cavo display port. Per altro tale scheda video (a dir poco esagerata come potenza per le sole applicazioni grafiche 2D da fotografia) ha una marea di ram (ben 4 gb) e a photoshop CC piace riempire la ram, anche quella video!
Per la cronaca supporta Fallout 4 a 2560x1600 px, qualità "ultra" (tutto a manetta) e mi fa da un minimo di 39 fino a poco più di 60 fps, direi ottimo.
Messaggio modificato da riccardobucchino.com il Nov 22 2015, 11:20 PM
"le schede video per giochi supportano o no i 10 bit per canale (o 30 bit totali che dir si voglia)?"
(se non vuoi leggere tutto passa alla parte granata!)
La risposta non sono mai riuscito a trovarla, c'era chi diceva "teoricamente si ma non lo so", chi diceva "la connessione display port supporta i 10 bit se la scheda ce l'ha probabilmente li supporta però se per applicaizoni grafiche si usano le quadro ci sarà un motivo", c'era chi diceva un secco "no", insomma non c'era una risposta concreta per un motivo, chi gioca se ne frega dei 10 bit, chi lavora compra la vga consigliata dal venditore e non se ne preoccupa troppo di indagare, ma io faccio entrambe le cose (in realtà non giocavo da parecchio).
Ebbene, alla fine (in un raptus di acquisti folli) ho comprato una Nvidia GTX 970 per giocare a fallout pensando "se non regge i 10 bit chissene, un buon monitor anche a 8 bit resta un buon monitor" ora sono tornato dal mio WE di vacanza-acquisto con il mio bel Dell U3011 usato, l'ho collegato con il cavo DP, sono andato in pannello nvidia e si, c'è 10 bit e si, funziona a 10 bit, chiaramente passa a 8 su programmi che non supportano i 10 bit. Serve? non lo so, devo ancora analizzare i vantaggi perché non ho ancora calibrato il monitor se non a occhio, ma almeno ho risposto alla domanda.
Si, supportano i 10 bit, o meglio la Nvidia GTX 970 (al link quella che ho io, scelta tra le tante esistenti perché ha più uscite video del normale) supporta i 10 bit su cavo display port. Per altro tale scheda video (a dir poco esagerata come potenza per le sole applicazioni grafiche 2D da fotografia) ha una marea di ram (ben 4 gb) e a photoshop CC piace riempire la ram, anche quella video!
Per la cronaca supporta Fallout 4 a 2560x1600 px, qualità "ultra" (tutto a manetta) e mi fa da un minimo di 39 fino a poco più di 60 fps, direi ottimo.
Messaggio modificato da riccardobucchino.com il Nov 22 2015, 11:20 PM