FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
8 Pagine: V  « < 2 3 4 5 6 > »   
[DSLR] - Rumore, Segnale e Fotografia Digitale
Definizione di rumore
Rispondi Nuova Discussione
mdj
Messaggio: #76
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 14 2006, 06:26 AM)
Sono quasi certo che un giorno staremo a discutere se una camera a 3 sensori avrà più rumore di una a singolo sensore. wink.gif


E questo che mi rammarica... rolleyes.gif
Al posto di pensare alla fotografia nel senso della parola, gli utilizzatori vanno sempre più sull'aspetto che nulla può influire sulla bellezza di uno scatto, concentrando l'attenzione sull'ingrandimento al microscopio dei pixel, anzichè soffermarsi ad osservare il risultato di una buona stampa.

Io continuerò a far stampare le mie immagini, ed ammirare i risultati. Gli altri facciano quello che vogliono.

Ad ogni modo, non posso che guru.gif inchinarmi di fronte a queste spiegazioni, e porgere i miei più sinceri complimenti a Vincenzo Franchini

grazie.gif
earlybird
Messaggio: #77
QUOTE(mdj @ Feb 20 2006, 04:52 PM)
E questo che mi rammarica...  rolleyes.gif
Al posto di pensare alla fotografia nel senso della parola, gli utilizzatori vanno sempre più sull'aspetto che nulla può influire sulla bellezza di uno scatto, concentrando l'attenzione sull'ingrandimento al microscopio dei pixel, anzichè soffermarsi ad osservare il risultato di una buona stampa.


Se può contare trovo che tu abbia ragione piena: il fine della fotografia è fotografare e goderne i frutti, magari condividendone con altri il piacere.
Almeno, qui, in questa stanzetta, non siamo fuori tema.

QUOTE
Io continuerò a far stampare le mie immagini, ed ammirare i risultati. Gli altri facciano quello che vogliono.

Ad ogni modo, non posso che  guru.gif  inchinarmi di fronte a queste spiegazioni, e porgere i miei più sinceri complimenti a Vincenzo Franchini

grazie.gif
*



Con le macchine digitali ho dovuto in parte tornare anch'io sul banco di scuola, perché presentano problemi per un certo qual verso differenti rispetto a quelle dedicate per astronomia ed imaging scientifico: essenzialmente il forte controllo che il firmware ha sul risultato finale e i valori di FWC relativamente bassi (non sto pensando solo alla nostra marca). Da appassionato di diapositive, sto cercando ancora il modo di riuscire a trasportarne la qualità della proiezione su grande schermo nel campo del digitale.
Ritengo che non sia assolutamente facile: il ricampionamento a scendere per proiettare su grande schermo penalizza grandemente la qualità.

Sulla mia battuta delle macchine a 3 sensori, come ho già detto, è una pura illazione, senza notizie o sentito dire alle spalle. Semplice spunto dalle videocamere e dal fatto che in astronomia usiamo il doppio sensore da anni.

Grazie dell'apprezzamento (...preparati perché sto per rientrare in linea...)

Enzo Franchini
MLJ
Messaggio: #78
Ciao, volevo sapere se un CCD interline "produce" piu' o meno rumore di un CCD full frame, e sapere magari le differenze.
Ciao Gianni MLJ

Messaggio modificato da MLJ il Feb 20 2006, 08:28 PM
kop
Messaggio: #79
salve a tutti ma volevo porvi una domanda che per i più avrà una risposta ovvia,ma per me no,dunque la domanda di ordine puramente pratico è la seguente:è più visibile il rumore generato da una sensibilità maggiore o da un tempo di esposizione più lungo?cioè dovendo scattare in una situazione di luce limite(notte) cosa è conveniente prediligere?ciao.
P.Pazienza
Messaggio: #80
QUOTE(flavio.coppo1@tin.it @ Feb 20 2006, 08:45 PM)
salve a tutti ma volevo porvi una domanda che per i più avrà una risposta ovvia,ma per me no,dunque la domanda di ordine puramente pratico è la seguente:è più visibile il rumore generato da una sensibilità maggiore o da un tempo di esposizione più lungo?cioè dovendo scattare in una situazione di luce limite(notte) cosa è conveniente prediligere?ciao.
*



Credo sia preferibile scattare con un tempo di posa lungo e la sensibilità ISO più bassa possibile; soprattutto perchè, nella pratica, un tempo lungo (da 1/30 in poi) sarà responsabile di un rumore termico e la riduzione di tale disturbo, con la tecnica del Dark Frame, offre risultati migliori delle varie funzioni di riduzione del disturbo causato da una elevata amplificazione ISO perchè consente di contenere la perdita di dettaglio entro valori "accettabili".

Correggetemi se sbaglio...
earlybird
Messaggio: #81
QUOTE(P.Pazienza @ Feb 20 2006, 09:57 PM)
Credo sia preferibile scattare con un tempo di posa lungo e la sensibilità ISO più bassa possibile; soprattutto perchè, nella pratica, un tempo lungo (da 1/30 in poi) sarà responsabile di un rumore termico e la riduzione di tale disturbo, con la tecnica del Dark Frame, offre risultati migliori delle varie funzioni di riduzione del disturbo causato da una elevata amplificazione ISO perchè consente di contenere la perdita di dettaglio entro valori "accettabili".

Correggetemi se sbaglio...
*



Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.

Gianluca_GE
Messaggio: #82
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 21 2006, 06:20 AM)
Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati  sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.
*


Cosa è un esposizione dark?

Grazie

Gianluca

buzz
Staff
Messaggio: #83
dovrebbe essere una esposizione di "buio" atta a far uscire soltanto il rumore causato dal riscaldamento del CCD. Rumore che non è del tutto casuale, ma dipende dalla costruzione stessa del sensore.
Michelangelo Serra
Messaggio: #84
QUOTE
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.


Ciao! Vincenzo innanzi tutto davvero complimenti per la tua preparazione per il modo di esporre un argomento credo per molti interessantissimo ma alquanto ostico.
Perdona la mia poca esperienza sull'argomento potresti spiegare come fare, e, cosa intendi esattamente quando dici di chiedere al software di sottrarla dall'immagine-luce?

Michelangelo
buzz
Staff
Messaggio: #85
QUOTE(Artephoto @ Feb 23 2006, 05:42 PM)
Ciao! Vincenzo innanzi tutto davvero complimenti per la tua preparazione per il modo di esporre un argomento credo per molti interessantissimo ma alquanto ostico.
Perdona la mia  poca esperienza sull'argomento potresti spiegare come fare, e, cosa intendi esattamente quando dici di chiedere al software di sottrarla dall'immagine-luce?

Michelangelo
*



praticamente è quello che fa la macchina in automatico quando mette in funzione il NR su tempi lunghi. Chi non lo avesse ( pochissimi) può fare come suggerito da vincenzo nei suoi post precedenti. Uno scatto DELLO STESSO TEMPO DI ESPOSIZIONE DEL PRECEDENTE eseguitop immediatamente dopo.
Poi in photoshop si sovrappongono i due livelli e si usa come fusione il metodo sottratttivo.
Michelangelo Serra
Messaggio: #86
Buzz come al solito gentilissimo, quindi avendo la D2x per me non sarà un problema, utile comunque sapere come agire per chi non fosse in possesso della Belva! OK!
earlybird
Messaggio: #87
Ripartiamo da dove eravamo rimasti: su una buccia di banana. La forzata e artata semplificazione di concetti non immediatamente percepibili, a volte, conduce ad errori. Il calcolo che avevo suggerito per spiegare un principio basilare conduce ad implicazioni errate sugli alti valori di segnale, perché mancante di un passaggio.
Se avete voglia di seguirmi e vi interessa l’argomento, ripartiamo da una visuale diversa.
Chi non abbia ben chiara la differenza tra analogico e digitale troverà una breve spiegazione nell'allegato che ho accluso .

Possiamo definire la Gamma Dinamica come il rapporto tra il massimo segnale registrabile (alte luci) ed il minimo segnale registrabile (ombre profonde). Poiché gli elettroni non si possono dividere in unità più piccole, quest’ultimo è considerato sempre pari ad 1. Un sensore costituito da pixel con FWC di 40000 elettroni restituisce, in questo modo, una gamma potenziale di 40000/1= 92 decibel. Sono, però, solo discorsi teorici, perché, nella realtà, siamo costretti a tenere conto del rumore del segnale (photon shot noise nella terminologia inglese).
Nel nostro esempio, la gamma reale restituita dal pixel (quindi, per esteso, dal sensore) crolla a 40000:200= 46 decibel. Attenzione che, rispetto a quella teorica, non è dimezzata: è di parecchi ordini di grandezza inferiore, a causa del procedimento che comporta calcoli logaritmici.
Questo dato non deve preoccuparvi: il nostro esempio porta ad una definizione di 200 toni di grigio e l’occhio umano non riesce a distinguerne più di 60-80, mentre i monitor non ne risolvono più di 100-120. Queste considerazioni ci fanno capire perché il formato Jpeg è peggiorativo per la restituzione della risoluzione spaziale, ma non per la restituzione del colore. I suoi 8 bit, che comportano 256 valori, definiscono abbondantemente i 200 toni della gamma del segnale. Ciò per pixel di grandezza fino 8-9 micrometri di lato: oltre questi valori il Jpeg comincia a perdere qualcosa anche nella restituzione della gamma dinamica. Ricordiamoci, però, che visivamente non ce ne accorgeremo: quindi è inutile iniziare “guerre di religione” verso questo formato smile.gif

In ogni fotocamera CCD e CMOS, però, il segnale non viene trasferito indisturbato a causa del rumore di lettura obbligato, possiamo trarre spunto dalla definizione che la Nikon stessa dà, ridefinendo la Gamma Dinamica come il rapporto tra il massimo segnale registrabile ed il rumore di lettura della camera. Il rapporto, quindi, diventa: FWC/readout noise. Nel nostro esempio, ipotizzando un realistico rumore di lettura di 10 elettroni/pixel, otterremmo un rapporto S/N (o gamma dinamica) di 40000/10= 72 db, abbondantemente al di sopra della gamma dinamica resa dal sensore.
Ogni convertitore al mondo restituisce un suo errore, detto di quantizzazione (o quantificazione, forse meglio nella nostra lingua), che è calcolabile dividendo il passo per 3,46 (questo divisore è dettato da leggi statistiche). Utilizzando sempre il nostro esempio, questo errore sarebbe pari, per un ADC a 10 bit, a: (40000/1024)/3,46 = 39/3,46 = 11,3 elettroni, valore superiore al readout noise. Non è accettabile: dove possiamo intervenire? La FWC non possiamo cambiarla, tantomeno il divisore. Ci resta il passo, che possiamo ridurre aumentando i bit del ADC. Se utilizzassimo un ADC a 12 bit otterremmo: (40000/4096)/3,46=2,8 elettroni, più di 3 volte inferiore al readout noise. Questo valore è accettabile. Ecco il perché della scelta di un ADC a 10, 12, 14,16 bit. Le Case calcolano il readout noise della camera e, in base a questo e alla FWC del pixel, calcolano la risoluzione ottimale in bit del ADC. E non porta a nulla la seguente conclusione: allora perché non usare ADC a 16, 24, 32…bit? La risposta è semplice: più alto il numero di bit, più lenta la velocità di codifica, più alto il consumo energetico, più pesante il file immagine. In medio stat virtus.

E che succede alla gamma dinamica del sensore, più bassa rispetto a quella dell’elettronica? Semplicemente si “spalma”: i 200 toni di grigio del nostro esempio, risolti dal sensore, si spalmano sui 4000 della gamma dinamica del circuito. Non pensate di trovare nel file in uscita 20 valori uguali per ognuno dei 200 grigi: saranno in ogni caso tutti lievemente diversi , perché interviene la variabilità statistica del segnale e l’errore di decodifica.

Ecco il senso di quanto affermato nel post precedente: la perdita virtuale di bit di risoluzione del ADC. Una gamma dinamica di 46 decibel può essere processata da un ADC a 72 db, ma non si può creare ciò che non esiste. 46 db entrano, 46 db escono (relativamente al nostro esempio).

Passiamo sul piano pratico e vediamo di tirare qualche conclusione, utile ai fini pratici.

1- a parità di bontà di progetto circuitale, la gamma dinamica è legata alle dimensioni del pixel: pixel minore = gamma minore. Le dimensioni del sensore non contano, se non per qualche piccola variabile che possiamo trascurare. E’ il motivo per cui le compatte, superpopolate da piccoli pixel, non possono reggere il confronto con i sensori delle reflex.

2- Non fidarsi dell’occhio, almeno fino a che la conoscenza con la propria fotocamera si sia approfondita. Valutate i valori di bianco, con i soliti programmi in vostro possesso o con l’istogramma sul display della macchina: il bianco deve saturare il pixel al 70-80 %. Valori inferiori significano luce insufficiente: aumentare l’esposizione. Valori troppo alti, 90-100% significano probabile perdita di alti toni: ridurre l’esposizione. Chi comanda è il bianco: insufficienti valori di bianco significano riduzione della gamma dinamica (è come se riducessimo la FWC) e rumore nelle basse luci. E’ una regola obbligata: non si può chiedere alla macchina l’impossibile. Per vostra curiosità, anche in astrofotografia si controlla il bianco: su stelle di cui si conoscono perfettamente le caratteristiche dello spettro luminoso, riportate nelle tavole astrofotometriche.

3- Un altro fattore peggiorativo dell’immagine è la non uniformità di risposta al segnale luce. I pixel sono tutti un po’ diversi tra loro in fatto di risposta alla luce. Il firmware ne tiene conto, ma deve fare di ogni erba un fascio. Imparate voi stessi ad applicare la funzione Dust Off delle Nikon anche se avete il sensore più pulito al mondo. Questa funzione ha un nome che trae un po’ in inganno, perché non serve solo ad eliminare dall’immagine l’effetto della polvere (dust) presente sul sensore: elimina, di fatto, le disuniformità di risposta dei pixel regalandovi superfici omogenee con colori di tonalità uniforme. Ne potremo riparlare.

4- Spingere gli ISO provoca obbligatoriamente rumore: io mi meraviglio di ciò che riescono a fare i firmware delle grandi Case al proposito. Infatti, un’altra formula che quantifica il readout noise è quella che lo definisce come: (guadagno dell’amplificatore * deviazione standard di immagini-differenza di bias-frames) / radice quadrata di 2. Lasciamo perdere i paroloni e guardiamo ciò che è veramente la chiave di tutto: se raddoppiamo l’amplificazione (ISO 1 valore più alto), il readout noise raddoppia, la gamma dinamica dimezza. Il firmware può solo tentare di correggere qualcosa che non può evitare. Se non avete particolari necessità pratiche o creative, lasciate perdere le regolazioni degli ISO.

5- Ove non sia necessario, evitiamo le 100 pose al secondo….la raffica non può restituire una qualità di immagine pari alle pose singole: peggiora il readout noise in tutte le sue componenti, il ADC scende di precisione, i pixel del sensore non riescono a “svuotarsi” completamente tra una posa e la successiva.

6- In situazioni di luce critica, con soggetti statici, usate la possibilità delle pose multiple (ogni 4 pose il rumore dimezza, su 9 pose il rumore si riduce di 3 volte…) Purtroppo non è utilizzabile per tutto ciò che sia in movimento. Non fatevi venire l’idea di utilizzare la stessa posa per nove volte, perché in questo caso il rumore salirebbe di pari passo.

7- All'inizio di ogni sessione è bene eseguire un paio di pose in piena luce e scartarle: serve a ripulire i pixel e tutta l'elettronica di contorno da elettroni spuri.

Ho enunciato i principi base del rumore, nelle sue principali manifestazioni: molto resta da dire, ma diventerebbe un discorso per puri addetti ai lavori o superappassionati all’argomento.

In molti mi hanno chiesto ove poter approfondire l’argomento. Suggerirei:
Il libro di Maio, che conosciamo tutti.

Christian Buil, CCD Astronomy, Wilkmann-Bell Inc, ISBN 0-943396-29-8
(Molto tecnico nella parte iniziale. Comporta un po’ di conoscenza di elettronica e infarinatura di chimica. La parte dedicata all’astronomia occupa solo la seconda metà del libro e, in ogni caso, fornisce implicazioni interessanti anche per la fotografia tradizionale)

Martinez-Clotz, A practical Guide to CCD, Cambridge University Press, ISBN 0-521590-63-9.
Facile e limitato all’essenziale.

Purtroppo sono in lingua inglese, anche se scientifico, quindi semplice, e non ne esiste traduzione italiana: facilmente reperibili alla libreria Hoepli, Milano (www.hoepli.it) o sui circuiti internet.

Un saluto a tutti

Enzo Franchini

File allegati
File Allegato  AnaDig.txt ( 4.17k ) Numero di download: 276
 
lucaoms
Messaggio: #88
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 03:36 PM)
Ripartiamo da dove eravamo rimasti:
..... alla libreria Hoepli, Milano (www.hoepli.it) o sui circuiti internet.

Un saluto a tutti

Enzo Franchini
*


non me lo sonomletto tutto (è quasi un libro) ma i concetti si...e devo dire che sei riuscito (con un sacco di voglia che io non avrei avuto) ad portare un po di chiarezza su un argomento quantomeno da tesi di laurea....
cpmplimenti e grazie.
robyt
Messaggio: #89
Veramente un lavoro pregevole.
Utilissimi i consigli pratici che possiamo applicare anche alle nostre macchinette.
Grazie Vincenzo.
Gianni_Casanova
Messaggio: #90
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 03:36 PM)
...
Possiamo definire la Gamma Dinamica come il rapporto tra il massimo segnale registrabile (alte luci) ed il minimo segnale registrabile (ombre profonde)....Enzo Franchini


Intanto i miei complimenti per "il dono" che possiedi di rendere intuibili concetti maledettamente ostici...e leggendo il tuo intervento mi è venuta una domanda che ti pongo subito: ...se immaginassimo di fotografare con una macchina digitale una immagine chiara nella parte superiore e scura in quella inferiore, oppure al contrario, e fornissimo ai pixel una matrice che con cui deve confrontarsi e che gli dice se si trova nella parte chiara o in quella scura e quindi può eliminare una parte delle informazioni ....non avremo così la possibilità di eliminare (in questa particolare situazione) il 50 % del rumore?
Se ho detto una stupidaggine fatti una risata cool.gif, comunque grazie per il tuo lavoro e continua su questa strada con passo analogico o digitale... guru.gif
Ciao, Gianni
Gianluca_GE
Messaggio: #91
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 21 2006, 06:20 AM)
Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati  sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.
*



Insomma un pò come un immagine "dust off" per la polvere sul sensore?

grazie.gif
earlybird
Messaggio: #92
QUOTE(gdonadio @ Feb 24 2006, 06:09 PM)
Insomma un pò come un immagine "dust off" per la polvere sul sensore?

grazie.gif
*



Sì. Nei manuali esiste poco su questo argomento, ma è comprensibile. Chi passa dall'analogico al digitale, si ritrova immediatamente con un numero di variabili che incute timore a chiunque: meglio non mettere troppa carne al fuoco e aspettare che la progressiva esperienza e curiosità del fotografo facciano il resto.

Enzo
Gianluca_GE
Messaggio: #93
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 06:15 PM)
Sì. Nei manuali esiste poco su questo argomento, ma è comprensibile. Chi passa dall'analogico al digitale, si ritrova immediatamente con un numero di variabili che incute timore a chiunque: meglio non mettere troppa carne al fuoco e aspettare che la progressiva esperienza e curiosità del fotografo facciano il resto.

Enzo
*



Mi viene in mente che allora potrei provare proprio la funzione dust off di capture...chissà che non funzioni????

Gianluca
Giorgio Ospici
Messaggio: #94
se mi posso permettere... ecco il valore aggiunto di un grande Forum
grazie Vincenzo

ciao
Giorgio
earlybird
Messaggio: #95
QUOTE(gianni534 @ Feb 24 2006, 05:59 PM)
Intanto i miei complimenti per "il dono" che possiedi di rendere intuibili concetti maledettamente ostici...e leggendo il tuo intervento mi è venuta una domanda che ti pongo subito: ...se immaginassimo di fotografare con una macchina digitale una immagine chiara nella parte superiore e scura in quella inferiore, oppure al contrario, e fornissimo ai pixel una matrice che con cui deve confrontarsi e che gli dice se si trova nella parte chiara o in quella scura e quindi può eliminare una parte delle informazioni ....non avremo così la possibilità di eliminare (in questa particolare situazione) il 50 % del rumore?
Se ho detto una stupidaggine fatti una risata  cool.gif, comunque grazie per il tuo lavoro e continua su questa strada con passo analogico o digitale...  guru.gif
Ciao, Gianni
*



No, non hai detto una stupidaggine. Sono io che non ho capito bene i termini della questione, soprattutto riguardo la matrice. Me la riformuli per favore?

Grazie, anche per l'apprezzamento.

Enzo
Gianluca_GE
Messaggio: #96

Hai mai provato ad usare la funzione "dust off" di capture? rinominando ovviamente l'esposizione dark...è una c....ta?

Ciao

Gianluca

Messaggio modificato da gdonadio il Feb 24 2006, 07:29 PM
buzz
Staff
Messaggio: #97
Grandioso intervento!

Solo una cosa mi risulta ostica, perchè viene data per scontata:
la formula per il calcolo dei Db.
quando dici che 40000.1 fa 92 e 40000:200 fa 46 rimango un po' di stucco...
e dire che una volta ci facevo i calcoli per l'audio, sui rapporti S/N..

inoltre: i sensori Cmos, non hanno il sistema di svuotamento a cascata. Le "racciomandazioni" sulla raffica (calore) e sugli scatti "a vuoto" valgono anche per quella tecnologia? e l'LBcast?
Mi permetto di chiedertelo per avere una completezza di nozioni.
earlybird
Messaggio: #98
QUOTE(gdonadio @ Feb 24 2006, 07:28 PM)
Hai mai provato ad usare la funzione "dust off" di capture? rinominando ovviamente l'esposizione dark...è una c....ta?

Ciao

Gianluca
*



Purtroppo non è possibile. Sono due procedimenti totalmente diversi.
Nel Dust off succede questo:
- viene presa come riferimento una posa eseguita verso una sorgente di luce uniforme.
- poiché si suppone che in tal caso il flusso fotonico sia omogeneo, ogni disparità di lettura nei pixel è una conseguenza della diversa risposta alla luce, dovuta sia a differenze costruttive del pixel sia alla presenza di aloni, macchie o polvere sul sensore sia a vignettatura causata dall'obiettivo. Se la causa fosse il pixel, la risposta potrebbe essere minore, uguale o maggiore rispetto alla media estratta da tutti i pixel del sensore. Negli altri casi, naturalmente, solo minore.

- il software calcola la media della risposta dei pixel: diciamo, per esempio, 10000

- esamina la risposta di ogni pixel del sensore dividendo il valore letto per 10000. Ad esempio, se il pixel A facesse leggere 9800, sarebbe 9800/10000=0,98. Se nel pixel B fosse 10300, otterremmo 1,03. Questo calcolo viene eseguito e memorizzato pixel per pixel.

- quando si va ad elaborare un'immagine con la funzione dust off, il software esegue una semplice divisione. Divide il valore del pixel dell'immagine da processare per il valore della risposta relativa a quel pixel. Per esempio, se nel pixel A si leggesse il valore 25000, avremmo: 25000:0,98=25510; se nel pixel B si leggesse 5000, avremmo: 5000:1,02=4902. In pratica il valore di ogni pixel viene ricalcolato sulla base della sua risposta ad una sorgente di luce uniforme.

Il dark (meglio chiamarlo dark frame), invece, è l'immagine della corrente di buio, che va sottratta dall'immagine. Operazione totalmente diversa.

Nikon ha chiamato così la funzione dust off per renderla facilmente capibile e ... amichevole verso l'utilizzatore. Il suo vero nome, in realtà, è "Applicazione del Flat Field" ed è uno dei cardini della fotografia digitale. Ci sono lunghissimi paragrafi e teorie sulle modalità di esecuzione dell'immagine Flat Field (che, tradotto, significa immagine di un campo piatto). Nella fotografia scientifica e in astronomia non esiste immagine digitale cui non venga applicata tale funzione.
Non lo so per certo, ma immagino che il firmware delle nostre macchine abbia in memoria un'immagine di riferimento della risposta di ogni singolo pixel.

Ho fatto una piccola ricerca in tutto il forum, forse non ho inserito le parole giuste, ma non ho trovato alcun lungo 3D sul dust off o flat field. E questo mi meraviglia un po', perché ritengo che almeno i professionisti di studio dovrebbero avere una banca dati sul flat relativo ad ogni obiettivo e ad ogni diaframmatura. Probabilmente si pensa che l'azione del firmware sia sufficiente in ogni situazione. Anche le riviste ne parlano molto poco.

Ho esposto solo il principio del dust off e mi fermo qui, perché il discorso sul flat ci porterebbe molto lontano (esecuzione, calibrazione del flat ...) e non voglio aggiungere troppa carne al fuoco del malloppone che vi ho dato in pasto.


Ciao

Enzo
earlybird
Messaggio: #99
QUOTE(buzz @ Feb 24 2006, 08:18 PM)
Grandioso intervento!

Solo una cosa mi risulta ostica, perchè viene data per scontata:
la formula per il calcolo dei Db.
quando dici che 40000.1 fa 92 e 40000:200 fa 46 rimango un po' di stucco...
e dire che una volta ci facevo i calcoli per l'audio, sui rapporti S/N..


Il moltiplicatore è 20.
Da cui : 20*log(S/N). Naturalmente il logaritmo è in base 10.

QUOTE
inoltre: i sensori Cmos, non hanno il sistema di svuotamento a cascata. Le "racciomandazioni" sulla raffica (calore) e sugli scatti "a vuoto" valgono anche per quella tecnologia? e l'LBcast?
Mi permetto di chiedertelo per avere una completezza di nozioni.
*



Gli scatti a vuoto servono soprattutto per ripulire il sensore dalle cariche che si fossero accumulate anche per il solo effetto della temperatura. Penso che CCD, CMOS, LBcast, superCCD, ICCD...soffrano tutti di questo effetto.
Sulla totale lettura del pixel durante la raffica ho letto che il cmos si comporta meglio: non sono un elettronico e non posso darti una risposta motivata. Anche solo concettualmente, però, capisco che il readout noise nel cmos deve essere maggiore rispetto al ccd, perché si tratta di gestire milioni di singoli amplificatori contro i pochi stadi (se non il singolo) del ccd.

Penso che qualche esperto di elettronica che ci segua possa risponderti più dettagliatamente.

Grazie delle parole.

Enzo



Gianni_Casanova
Messaggio: #100
QUOTE
No, non hai detto una stupidaggine. Sono io che non ho capito bene i termini della questione, soprattutto riguardo la matrice.


Pollice.gif così mi hai risposto!

QUOTE
Non lo so per certo, ma immagino che il firmware delle nostre macchine abbia in memoria un'immagine di riferimento della risposta di ogni singolo pixel


ciao e grazie, Gianni
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
8 Pagine: V  « < 2 3 4 5 6 > »