FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
Quanti Bit Dal Sensore ?
Rispondi Nuova Discussione
apelle13
Messaggio: #1
Oltre ad avere confusione sto facendo un po' a cazzotti con il nuovo layout del sito e non trovo una mia domanda che credevo di aver già fatto qualche giorno fa, comunque il problema è questo: operando a 8 BIT per ogni pixel "R" i sensori generano 256 valori di luce, ai quali per interpolazione si aggiungono 256 valori di "G" e 256 valori di "B", per un totale di 16 milioni e rotti di colori, GIUSTO ? Allora perchè il RAW della mia D7000 opera a 14 BIT? che significa ?
Infine: se il mio sensore è da 16 Mega quanti bit vengono generati: 16.000.000 x 8 (bit) x 3 (RGB) ?

Grazie !
mm69
Messaggio: #2
https://nikoneurope-it.custhelp.com/app/ans...lla-a-12-bit%3F
apelle13
Messaggio: #3
QUOTE(mm69 @ Jul 8 2012, 07:18 PM) *



Grazie Massimo, quindi se capisco bene ciascun pixel opera a 8 bit generando i famosi 16 milioni di colore, poi però il processore della macchina li converte in 12 o 14 bit di RAW per avere campioni più dettagliati, sia a livello di luminosità che cromatico, giusto ?
Attilio PB
Messaggio: #4
La profondità di 8 bit cui fai riferimento è quella standard del formato Jpeg, dove, come correttamente indichi, ogni canale colore (R, G, B ) è individuato da 256 possibili valori diversi. Questa però non è la profondità colore cui lavora il sensore ma solo il risultato finale dell'elaborazione, riduzione e compressione Jpeg.
Nel formato RAW invece l'acquisizione dei dati di luminosità è fatta con una profondità maggiore, a 12 o 14 bit per ogni canale colore, fino a 16 bit per ogni canale colore sui dorsi digitali delle macchine medio formato. Quando lavori a 14 bit sulla tua D7000 significa che ogni singolo pixel cattura non più 256 livelli diversi di luminosità ma circa 16.000, ognuno dei quali viene interpolato poi con i pixel adiacenti, anch'essi con circa 16.000 livelli di luminosità diversi. Questo comporta che ogni pixel della tua immagine, dopo l'interpolazione, è individuato con una profondità complessiva di 42 bit (14 bit X 3 canali colore).
Non ha senso invece moltiplicare il numero dei bit per il numero dei pixel, ogni pixel avrà un valore colorimetrico contenuto all'interno della gamma dei valori rappresentabili dai 42 bit complessivi (circa 4.000 miliardi di colori).
ciao
a.

Messaggio modificato da Attilio PB il Jul 8 2012, 06:43 PM
apelle13
Messaggio: #5
QUOTE(Attilio PB @ Jul 8 2012, 07:42 PM) *
La profondità di 8 bit cui fai riferimento è quella standard del formato Jpeg, dove, come correttamente indichi, ogni canale colore (R, G, B ) è individuato da 256 possibili valori diversi. Questa però non è la profondità colore cui lavora il sensore ma solo il risultato finale dell'elaborazione, riduzione e compressione Jpeg.
Nel formato RAW invece l'acquisizione dei dati di luminosità è fatta con una profondità maggiore, a 12 o 14 bit per ogni canale colore, fino a 16 bit per ogni canale colore sui dorsi digitali delle macchine medio formato. Quando lavori a 14 bit sulla tua D7000 significa che ogni singolo pixel cattura non più 256 livelli diversi di luminosità ma circa 16.000, ognuno dei quali viene interpolato poi con i pixel adiacenti, anch'essi con circa 16.000 livelli di luminosità diversi. Questo comporta che ogni pixel della tua immagine, dopo l'interpolazione, è individuato con una profondità complessiva di 42 bit (14 bit X 3 canali colore).
Non ha senso invece moltiplicare il numero dei bit per il numero dei pixel, ogni pixel avrà un valore colorimetrico contenuto all'interno della gamma dei valori rappresentabili dai 42 bit complessivi (circa 4.000 miliardi di colori).
ciao
a.



Grazie Attilio della risposta, mi hai fatto un po' di luce, l'unico dubbio che mi rimane riguarda le ultme 2 righe, io volevo semplicemente capire quale fosse il flusso dati generato dal sensore, quindi non capisco perchè l'operazione 42 bit (per pixel) X Numero di pixel sia concettualmente sbagliata.

Ciao, Walter
mm69
Messaggio: #6
Il flusso dati è diverso dalla profondità di colore:
a pag 320 del manuale della D7000 ci sono le dimensioni dei file in base al tipo "qualità immagine selezionata".

Nel caso del formato Raw oltre ai colori ci sono tutta una serie di informazioni aggiuntive sui dati di scatto, e il file da 19,4Mb diventai ben più grande.

La profondità di colore altro non è che il numero di colori che è possibile scegliere tra una certa gamma definita: quindi a 8 bit avrai 2(alla 8)= 256 tipi di colore
a 12 bit (2alla12)=4096 tipi di colore
a 14 bit (2alla14)=16384 tipi di colore
detto in maniera semplice quindi l'immagine sarà più precisa avendo una più ampia capacità di scelta del colore da inserire in un pixel da interpolare con quello adiacente, e via via.

ciao
Attilio PB
Messaggio: #7
QUOTE(apelle13 @ Jul 9 2012, 04:19 PM) *
Grazie Attilio della risposta, mi hai fatto un po' di luce, l'unico dubbio che mi rimane riguarda le ultme 2 righe, io volevo semplicemente capire quale fosse il flusso dati generato dal sensore, quindi non capisco perchè l'operazione 42 bit (per pixel) X Numero di pixel sia concettualmente sbagliata.

Ciao, Walter


Da un lato è vero quanto dice mm69, cioè nel raw hai una serie di informazioni aggiuntive oltre ai singoli dati, ma soprattutto il raw non è un file immagine, i dati registrati sono a monte della demosaicizzazione (cioè l'operazione di interpolazione che genera il file immagine a 42 bit), dal sensore escono solo i dati di luminosità relativi a quel pixel, sarà solo in un secondo tempo che il software interno alla macchina o l'editor esterno si preoccuperanno di interpolare i dati con quelli dei pixel adiacenti, al limite se proprio vuoi fare l'operazione devi assumere che l'informazione relativa ad ogni singolo pixel avrà una profondità di 14 bit (ma poi ogni pixel contiene anche informazioni relative alla posizione ad esempio).
Ciao
a.

Messaggio modificato da Attilio PB il Jul 10 2012, 10:19 AM
mr-fuso
Messaggio: #8
Devi pensare che i pixel sono dei secchi. L'acqua che riescono a contenere sono i bit che ha ogni pixel. Poi il sensore è costituito da tanti secchi.
Se la tua d7000 opera ha 16M di pixel (dimensione dell'immagine), da 14 bit ciascuno, il file che sputerà fuori avrà 16 x 14 = 224 M bit = 28 Mbyte (il sensore cattura solo un valore RGB per ogni pixel, poi il software ricostruirà gli altri). Questa dovrebbe anche essere più o meno la dimensione del raw (se non viene compresso).

I colori del mondo sono infiniti. Il nostro occhio però non è in grado di vederli tutti. Vuoi per la sua sensibilità (che dipende dal livello di illuminazione), vuoi per un fenomeno fisiologico detto metamerismo: cioè, colori diversi li vediamo uguali.

Utilizzando 8 bit per pixel si riescono a rappresentare 16 milioni di colori (in ogni pixel), un numero che per la maggior parte delle volte basta e avanza.

Purtroppo però l'informazione del colore è saldamente legata a quella della luminosità. Se le fotocamere monterebbero sensori con solo 8 bit, il file non avrebbe informazione sufficiente per permettere un recupero delle luci/ombre. Allora ne montano uno da 12, 14, ecc bit. Poi tu, sviluppando, porti quei 14 bit ai classici 8 bit.
apelle13
Messaggio: #9
QUOTE(mr-fuso @ Jul 10 2012, 01:05 PM) *
Devi pensare che i pixel sono dei secchi. L'acqua che riescono a contenere sono i bit che ha ogni pixel. Poi il sensore è costituito da tanti secchi.
Se la tua d7000 opera ha 16M di pixel (dimensione dell'immagine), da 14 bit ciascuno, il file che sputerà fuori avrà 16 x 14 = 224 M bit = 28 Mbyte (il sensore cattura solo un valore RGB per ogni pixel, poi il software ricostruirà gli altri). Questa dovrebbe anche essere più o meno la dimensione del raw (se non viene compresso).

I colori del mondo sono infiniti. Il nostro occhio però non è in grado di vederli tutti. Vuoi per la sua sensibilità (che dipende dal livello di illuminazione), vuoi per un fenomeno fisiologico detto metamerismo: cioè, colori diversi li vediamo uguali.

Utilizzando 8 bit per pixel si riescono a rappresentare 16 milioni di colori (in ogni pixel), un numero che per la maggior parte delle volte basta e avanza.

Purtroppo però l'informazione del colore è saldamente legata a quella della luminosità. Se le fotocamere monterebbero sensori con solo 8 bit, il file non avrebbe informazione sufficiente per permettere un recupero delle luci/ombre. Allora ne montano uno da 12, 14, ecc bit. Poi tu, sviluppando, porti quei 14 bit ai classici 8 bit.




Dopo quello che ha scritto Attilio mi è chiaro, il sensore non fa interpolazione e si limita a consegnare sotto forma di RAW un file NON IMMAGINE di "N" bit a cui vengono aggiunte altre info supplementari. Significa che poi, se capisco "definitivamente" il lavoro di interpolazione lo fa il software a PC che trasforma il RAW in una immagine. Nel caso io scattassi direttamente in JPEG suppongo che a quel punto l'interpolazione la faccia il processore della macchina per poi convertire il tutto "a perdere" a 8 bit di profondità del jpeg. Grazie, bravi !
mr-fuso
Messaggio: #10
QUOTE(apelle13 @ Jul 12 2012, 09:51 PM) *
Dopo quello che ha scritto Attilio mi è chiaro, il sensore non fa interpolazione e si limita a consegnare sotto forma di RAW un file NON IMMAGINE di "N" bit a cui vengono aggiunte altre info supplementari. Significa che poi, se capisco "definitivamente" il lavoro di interpolazione lo fa il software a PC che trasforma il RAW in una immagine. Nel caso io scattassi direttamente in JPEG suppongo che a quel punto l'interpolazione la faccia il processore della macchina per poi convertire il tutto "a perdere" a 8 bit di profondità del jpeg. Grazie, bravi !

Esatto!
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio