Versione stampabile della discussione

Clicca qui per visualizzare questa discussione nel suo formato originale

NikonClub.it Community _ Tech Reference _ [DSLR] - Rumore, Segnale e Fotografia Digitale

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 9 2006, 07:13 PM

Frequento da poco il forum Nital: quel tanto che basta per aver notato che uno degli argomenti principali è quello inerente al rumore. Mi occupo di digitale da 25 anni, prima con il video, poi con le still camera, scientifiche, astronomiche e tradizionali. Di queste ultime conservo nei miei cassetti ancora una Canon/Bauer (la primissima!). Di Nikon ho D1, D70, D50 ed è in arrivo una D200. Per motivi miei pratici e non certo per sfizio testo tutte le macchine e in nessuna ho notato livelli di “rumore” come quelli segnalati, spesso impropriamente. Di foto tradizionali ne faccio relativamente poche e, visto che mi reputo un buon giudice di me stesso, ritengo che non siano meritorie di rimando a questo forum.
Mi permetto, però, il tentativo di chiarire il concetto di rumore sperando di far cosa utile a qualcuno. Non userò alcuna formula né diagramma.

Ho notato che molti usano impropriamente il termine “rumore”, non ponendo distinzione tra segnale, rumore del segnale e rumore non dipendente da segnale.
Per capire bene cosa sia, immaginiamo di trovarci sotto una larga tettoia in una giornata di pioggia: se la pioggia è torrenziale, il suono delle gocce che colpiscono il nostro riparo ci sembra giungere uniforme da tutta la sua superficie. In caso di pioggerellina, invece, abbiamo ora l’impressione che piova più a destra, ora più a sinistra, ora più al centro… Questa variazione di direzione ed intensità del suono che colpisce le nostre orecchie è causata dalla non uniformità del numero di gocce piovane che la tettoia raccoglie per unità di superficie in ogni istante. La disuniformità è presente anche nella pioggia battente, solo che è una piccola percentuale della pioggia totale: così il nostro orecchio non riesce a percepirla. Questa disuniformità è ciò che nella fisica dei segnali viene chiamato “rumore” : se rappresentassimo un segnale uniforme ed omogeneo come una linea retta, il rumore insito nella sua raccolta trasformerebbe questa retta in una linea ondulata.
Possiamo asserire, quindi, che questo tipo di rumore è funzione del segnale, perché dipende totalmente da esso. Da notare il fatto che possiamo quantificarlo solo dopo aver raccolto il segnale, quindi non possiamo sapere a priori a quanto ammonterà numericamente. Ho promesso di non presentare formule: dovete quindi credere sulla parola a ciò che segue. Se nel sensore avessimo accumulato un segnale luminoso pari a 100 (pioggerellina), il suo rumore sarebbe pari a 10, cioè il 10%. Se raccogliessimo 1000 (pioggia battente), il rumore sarebbe pari a 31, cioè il 3%.

Qualcuno si chiederà: esiste un rumore elettronico fine a se stesso, cioè che non sia funzione di un segnale? Certamente. Per scoprirlo continuiamo l’esempio della tettoia ed immaginiamo che questa sia ondulata, in modo che la pioggia sia convogliata verso dei secchielli di raccolta. Complichiamoci un poco la vita e facciamo sì che questi secchielli possano essere ruotati ma non staccati dalla tettoia: ora ci poniamo il gramo compito di controllare quanta acqua sia presente in ogni secchiello al termine della pioggia. Siamo costretti ad usare un altro secchiello: lo poniamo sotto quello appeso e solidale alla tettoia, ruotiamo questo, travasiamo l’acqua e ci dirigiamo verso una bilancia o un qualunque misuratore. Questa manovra la eseguiamo per ogni secchiello appeso alla tettoia. Vi sembra intuitivamente possibile che qualche goccia d’acqua non resti nel suo secchiello d’origine? O che non vada persa nel travaso? O che non debordi durante il trasporto? E la bilancia di misura è assolutamente esatta? Impossibile, neanche a pensarci. La quantità d’acqua che misureremo non corrisponderà mai a quella effettivamente raccolta. La differenza tra queste due quantità è un rumore puro, cioè che non dipende da un segnale ma dalla modalità di trattarlo. E’ prevedibile progettualmente? No. E’ misurabile? Sì. Come? Per via sperimentale. Nel caso della tettoia, ad esempio, potremmo versare su di essa una quantità nota di acqua e controllarne, poi, quanta ci risulti alla misurazione finale. Nelle nostre macchine questo rumore si chiama rumore di lettura (readout noise) e, con semplicità, possiamo dire che comprende i processi di trasferimento della carica del pixel, il suo passaggio attraverso l’amplificatore e la sua trasformazione in entità numeriche intellegibili dal computer.
Le case costruttrici misurano in maniera molto sofisticata questo rumore di lettura e le sue possibili variazioni in relazione alle regolazioni dell’utente, regina tra tutte la scelta della sensibilità ISO. A questo proposito cerchiamo di capire bene un concetto: quando scegliamo una pellicola con diverso valore ISO, effettivamente scegliamo un prodotto con la sensibilità desiderata. Quando, invece, impostiamo sulle nostre macchine digitali un valore ISO, stiamo scegliendo solo il livello di amplificazione del segnale proveniente dalla lettura del pixel. Non agiamo sulla sensibilità. Questa dipende dalle scelte del costruttore del sensore ed è immutabile. E aumentando l’amplificazione, cioè il guadagno, aumentiamo esponenzialmente il rumore di lettura.

Per darvi qualche dato esemplificativo, il Read-out noise medio della D70 è di circa 7 elettroni/pixel. Il suo segnale termico è inferiore a 0,1 elettroni/ pixel/secondo! Sono quasi delle nullità se pensate che il pixel della D70 può arrivare a contenere più di 35000 elettroni liberati dal segnale luminoso. Solo 7-10 anni fa costosissimi ccd scientifici (che uso ancora) presentavano un segnale termico a 20° di 20-80 elettroni/pixel/secondo, con rumore di lettura superiore a 40-100 elettroni…

Spero di aver suscitato la curiosità necessaria per leggere il manuale di Maio, dove la trattazione è più completa. Se qualcuno, invece, volesse approfondire tecnicamente l’argomento sono disponibile anche privatamente (il mio riferimento è in chiaro).

Che la luce sia con noi.

Enzo Franchini

Inviato da: libertifrancesco il Feb 9 2006, 07:38 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 9 2006, 07:13 PM)


Che la luce sia con noi.

Enzo Franchini
*




E con la tua D200 biggrin.gif Pollice.gif Pollice.gif

Molto illuminante.
Grazie

Inviato da: zanzo79 il Feb 9 2006, 08:23 PM

Grazie per la spiegaziome, si vede che sei esperto di camere CCD biggrin.gif
infatti nei CCD astronomici e' molto importante il rapporto segnale/rumore


ciauz

Inviato da: libertifrancesco il Feb 9 2006, 08:38 PM

Volevo chiederti una cosa:
Secondo te, quali i sensori migliori, riguardo a cio' che hai spiegato sul Rumore?
CCD - CMOS - LBLAST ce ne qualcun'altro? mi sembra di si ma non ricordo come si chiamino.
Ciao

Inviato da: andreotto il Feb 9 2006, 09:19 PM

Benvenuto Vincenzo e ti ringrazio per la bellissima e utilissima spiegazione
Hai espresso i concetti in maniera comprensibilissima a tutti grazie.gif
Buone foto a tutti andreotto

Inviato da: marcelusfire@tin.it il Feb 9 2006, 09:38 PM

mi piacerebbe che il buon vincenzo proseguisse questa sua trattazione sul rumore, l'ho trovata molto interessante e realizzata x essere compresa agevolmente, senza fare tanto...rumore wink.gif

Inviato da: Cencio il Feb 9 2006, 10:27 PM

Quoto in pieno quelo che è stato scritto e mi sento di aggiungere per concludere che tando è piu ampia la superfice del fotosito minore sarà l'incidenza percentuale del rumore....

Inviato da: Cencio il Feb 9 2006, 10:29 PM

ops mi è partito l'invio....
volevo aggiungere che quello è il ruore generato dal segnale, a questo deve essere aggiunto il rumore elettronico che nel caso nostro, cioè delle nostre macchine fotografice, è quello che maggiormante incide nella quialità finale del fotogramma.

Inviato da: mfossen il Feb 9 2006, 10:30 PM

Grazie per la spiegazione, chiara ed esauriente.
grazie.gif

Inviato da: Cencio il Feb 9 2006, 10:31 PM

per finire dico che in generale il rumore generato da un segnale è la radice quadrata dei fotoni letti nell'unità di tempo.

Inviato da: francesco.p il Feb 9 2006, 10:40 PM

Un grazie a Vincenzo per l'ottima trattazione dell'argomento. Pollice.gif

Grazie a post come questo da quando sono iscritto al forum ho imparato moltissime cose che altrimenti avrei continuato ad ignorare, è bello far parte di una community così disponibile e preparata smile.gif

Inviato da: Led566 il Feb 9 2006, 10:52 PM

QUOTE(Cencio @ Feb 9 2006, 11:27 PM)
Quoto in pieno quelo che è stato scritto e mi sento di aggiungere per concludere che tando è piu ampia la superfice del fotosito minore sarà l'incidenza percentuale del rumore....
*



Dove per superficie del fotosito NON si intende la superficie geometrica del singolo pixel nella matrice del sensore...vero?

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 10 2006, 04:10 AM

QUOTE(Cencio @ Feb 9 2006, 10:27 PM)
Quoto in pieno quelo che è stato scritto e mi sento di aggiungere per concludere che tando è piu ampia la superfice del fotosito minore sarà l'incidenza percentuale del rumore....
*



Nella quantificazione del rumore relativo al segnale non compare mai la superficie di raccolta: è solo la quantità di segnale che conta. A parità di segnale il rumore riscontrato sarà identico, indipendentemente dalla estensione del pixel. La geometria del sensore conta solo nella capacità di raccolta del segnale (ciò che viene chiamato efficienza quantica) e non in maniera direttamente proporzionale.
La superficie del pixel non entra in gioco neanche nel rumore di lettura, perché l'unità di misura è l'elettrone/pixel. Notare che ho usato il termine geometria, di cui la superficie è solo una delle caratteristiche.

QUOTE
per finire dico che in generale il rumore generato da un segnale è la radice quadrata dei fotoni letti nell'unità di tempo


In relazione al segnale-luce l'unità di tempo non conta: il rumore è pura funzione del segnale totale. Che questo sia stato raccolto in 1/8000 di secondo o in 10 secondi non influisce sul calcolo. Forse stai facendo riferimento al segnale -termico indesiderato (corrente di buio), che vede come unità di misura l'elettrone/pixel/secondo. Anche qui, come vedi, il rumore è solo una funzione della quantità del segnale.
La formula di cui parli si riferisce all'analisi del 66,7 % del segnale. Se volessimo estenderci al 99% del segnale dovremmo moltiplicare x 3 il valore ottenuto dalla radice quadrata. Nei calcoli pratici, però, si tiene generalmente conto della sola radice quadrata, come dici tu , a meno che non si stia inseguendo il singolo elettrone.
Faccio notare agli altri che davanti alla radice quadrata va posto il segno +/-.
Mi spiego:
- se raccogliamo 1000 di segnale, la formula riportata da Cencio dice che il rumore è pari a 31. Ciò significa che nell'immagine finale, trascurando per semplicità altri segnali e rumore di lettura, sarà immagazzinato non 1000, ma un valore casuale compreso tra 969 (pari a 1000-31) e 1031 (pari a 1000+31).

Credo che cominci a venire alla luce l'importanza chiave di lavorare su file Raw piuttosto che su jpeg manipolati all'origine.

Grazie a tutti dell'accoglienza.

Enzo Franchini



Inviato da: vincenzo.franchini@fastwebnet.it il Feb 10 2006, 05:03 AM

QUOTE(libertifrancesco @ Feb 9 2006, 08:38 PM)
Volevo chiederti una cosa:
Secondo te, quali i sensori migliori, riguardo a cio' che hai spiegato sul Rumore?
CCD - CMOS - LBLAST  ce ne qualcun'altro? mi sembra di si ma non ricordo come si chiamino.
Ciao
*



Ammetto la mia ignoranza: non conosco gli LBLAST. Hai qualche link? Google non mi ha restituito nulla.

CCD-CMOS
Annosa questione, con argomenti a favore e sfavore sia dell'uno che dell'altro, che, nell'insieme, si pareggiano. Almeno per quanto riguarda la fotografia tradizionale.

Ciò che conta a mio parere è il risultato finale: la stampa. Qualcuno è in grado, di fronte ad una stampa, dire se provenga da un CCD piuttosto che da un CMOS? Io no.

Qualche anno fa la differenza sarebbe stata plateale

Buona giornata

Enzo Franchini


Inviato da: vincenzo.franchini@fastwebnet.it il Feb 10 2006, 05:06 AM

QUOTE(andreotto @ Feb 9 2006, 09:19 PM)
Benvenuto Vincenzo e ti ringrazio per la bellissima e utilissima spiegazione
Hai espresso i concetti in maniera comprensibilissima a tutti grazie.gif
Buone foto a tutti andreotto
*



Detto da te è più che un complimento.

Grazie a te.

Enzo

Inviato da: Led566 il Feb 10 2006, 08:07 AM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 06:03 AM)
Ammetto la mia ignoranza: non conosco gli LBLAST. Hai qualche link? Google non mi ha restituito nulla.

...
*



Voleva dire LBCAST, la tecnologia Nikon del sensore della D2h.

Inviato da: Led566 il Feb 10 2006, 08:17 AM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 05:10 AM)
Nella quantificazione del rumore relativo al segnale non compare mai la superficie di raccolta: è solo la quantità di segnale che conta. A parità di segnale il rumore riscontrato sarà identico, indipendentemente dalla estensione del pixel. La geometria del sensore conta solo nella capacità di raccolta del segnale (ciò che viene chiamato efficienza quantica) e non in maniera direttamente proporzionale.
La superficie del pixel non entra in gioco neanche nel rumore di lettura, perché l'unità di misura è l'elettrone/pixel. Notare che ho usato il termine geometria, di cui la superficie è solo una delle caratteristiche.
...
*



Eh già, e mo' vallo a spiegare... wink.gif biggrin.gif

Ti preavviso che tra poco sarai tacciato di nikonismo becero ed oltranzista: benvenuto tra i "piccoli fans". biggrin.gif

Io, a scanso di equivoci aggiungo che, per quanto mi è dato sapere, uno dei sensori con migliore "efficienza quantica" è quello della Canon 1Dsm2, ma i sensori Sony non sono molto lontani, anzi.

Inviato da: ideal il Feb 10 2006, 09:37 AM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 9 2006, 07:13 PM)
Spero di aver suscitato la curiosità necessaria per leggere il manuale di Maio, dove la trattazione è più completa. Se qualcuno, invece, volesse approfondire tecnicamente l’argomento sono disponibile anche privatamente (il mio riferimento è in chiaro).

Che la luce sia con noi.

Enzo Franchini
*



FINALMENTE il forum riprende la giusta piega e si ricomincia a parlare in maniera costruttiva.
Grazie per le spiegazioni, in merito alla curiosità che la trattazione mi ha scuscitato mi puoi consigliare fonti per attingere spiegazioni con le formule, con queste ultime ci sono abbituato a ragionare.
Intervento molto interessante saluti Gigi

Inviato da: libertifrancesco il Feb 10 2006, 11:24 AM

QUOTE(Led566 @ Feb 10 2006, 08:07 AM)
Voleva dire LBCAST, la tecnologia Nikon del sensore della D2h.
*




Esatto mi e' scappata la L al posto della C LBCAST.

Piu' che sapere quale e' meglio, mi interessava sapere quali i pregi e i difetti piu' ecclatanti. wink.gif

Inviato da: paolodes il Feb 10 2006, 11:46 AM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 05:03 AM)
Ciò che conta a mio parere è il risultato finale: la stampa.

Pollice.gif

Inviato da: MLJ il Feb 10 2006, 01:15 PM

Un grazie a Vincenzo per la spiegazione e speriamo che la discussione continui su questi livelli, la fotografia e'anche tecnologia, molta tecnologia visto le mecchine che usiamo,quindi chi puo' spiegarci qualcosa in piu' per cortesia lo faccia! smile.gif smile.gif
Grazie Vincenzo e continua a parlarci del funzionamento dei sensori/rumore ecc..
Ciao Gianni MLJ

Inviato da: Cencio il Feb 10 2006, 01:45 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 04:10 AM)
Nella quantificazione del rumore relativo al segnale non compare mai la superficie di raccolta: è solo la quantità di segnale che conta. A parità di segnale il rumore riscontrato sarà identico, indipendentemente dalla estensione del pixel. La geometria del sensore conta solo nella capacità di raccolta del segnale (ciò che viene chiamato efficienza quantica) e non in maniera direttamente proporzionale.
La superficie del pixel non entra in gioco neanche nel rumore di lettura, perché l'unità di misura è l'elettrone/pixel. Notare che ho usato il termine geometria, di cui la superficie è solo una delle caratteristiche.
In relazione al segnale-luce l'unità di tempo non conta: il rumore è pura funzione del segnale totale. Che questo sia stato raccolto in 1/8000 di secondo o in 10 secondi non influisce sul calcolo. Forse stai facendo riferimento al segnale -termico indesiderato (corrente di buio), che vede come unità di misura l'elettrone/pixel/secondo. Anche qui, come vedi, il rumore è solo una funzione della quantità del segnale.
La formula di cui parli si riferisce all'analisi del 66,7 % del segnale. Se volessimo estenderci al 99% del segnale dovremmo moltiplicare x 3 il valore ottenuto dalla radice quadrata. Nei calcoli pratici, però, si tiene generalmente conto della sola radice quadrata, come dici tu , a meno  che non si stia inseguendo il singolo elettrone.
Faccio notare agli altri che davanti alla radice quadrata va posto il segno +/-.
Mi spiego:
- se raccogliamo 1000 di segnale, la formula riportata da Cencio dice che il rumore è pari a 31. Ciò significa che nell'immagine finale, trascurando per semplicità altri segnali e rumore di lettura, sarà immagazzinato non 1000, ma un valore casuale compreso tra 969 (pari a 1000-31) e 1031 (pari a 1000+31).

Credo che cominci a venire alla luce l'importanza chiave di lavorare su file Raw piuttosto che su jpeg manipolati all'origine.

Grazie a tutti dell'accoglienza.

Enzo Franchini
*



Ti ringrazio per la tua precisazione, dopo diversi anni non solo i libri hanni preso la polvere ma anche un pochino la mia memoria.....
Ciao.

Inviato da: Eliantos il Feb 10 2006, 02:00 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 9 2006, 07:13 PM)
Mi permetto, però,  il tentativo di chiarire il concetto di rumore sperando di far cosa utile a qualcuno. Non userò alcuna formula né diagramma.
*



Il Prof. Zichichi non avrebbe saputo fare di meglio.
Grazie per l'ottima spiegazione.
Giuseppe

Inviato da: gciavarella il Feb 10 2006, 05:01 PM

grazie vincenzo

una spiegazione dalla chiarezza esemplare

gennaro

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 10 2006, 05:24 PM

QUOTE(Led566 @ Feb 10 2006, 08:17 AM)
Eh già, e mo' vallo a spiegare... wink.gif  biggrin.gif

Ti preavviso che tra poco sarai tacciato di nikonismo becero ed oltranzista: benvenuto tra i "piccoli fans". biggrin.gif

Io, a scanso di equivoci aggiungo che, per quanto mi è dato sapere, uno dei sensori con migliore "efficienza quantica" è quello della Canon 1Dsm2, ma i sensori Sony non sono molto lontani, anzi.
*



Prego tutti di credere che quando parlo non sto pensando ai soli sensori Nikon: quanto scrivo è valido per ogni sensore. Sono principi e regole generali.
Sono nikonista, certo, ma senza fette di salame sugli occhi. Nel particolare, non ho avuto sottomano una Canon per la prova, ma ho provato a lungo i ccd ad interlinea della Sony, fin da quando avevano lo schema colore CMYG invece che quello Beyer delle macchine attuali. Ho provato ed uso i Kodak. Quando dico provare intendo sottoporre il sensore alla luce di led calibrati in lunghezza d'onda e in corrente (purtroppo non posso permettermi gli emittori al gas di trizio!). Nel verde i Sony hanno una efficienza quantica superiore a quella di molti ccd di altri produttori. Nel blu e nel rosso si equivale.
In ogni caso l'efficienza quantica degli attuali ccd (Sony, Kodak ecc ecc), che sono tutti front-illuminated non potrà mai superare il 55-65%, per limiti insiti nella loro struttura. E ciò nella banda del verde e del rosso. Per il blu tale efficienza scende di 10-20 punti percentuali.

Front-illuminated significa che tutta la circuiteria di pilotaggio del pixel è posta tra la luce e la superficie sensibile, quindi si oppone al passaggio dei fotoni. Può sembrare strano, ma anche la nostra retina ha la stessa struttura: tutte le fibre nervose "circuitali" passano al davanti delle cellule sensibili alla luce!

Esiste questa definizione, front-illuminated, per distinguere un'altro tipo di struttura: i ccd back-illuminated, cioè con circuiteria posta sul retro del sensore. La loro efficienza quantica supera il 90%, anche per la banda del blu! Io ne ho uno, per uso astronomico: quindi parlo per conoscenza diretta. Vi state chiedendo perché non ne vengano dotate le nostre macchine. Risposta: una D200 costerebbe non meno di 10000 euro....e guai ad appoggiarla rozzamente su un tavolo...addio al nostro bel sensore.

Ho provato il Foveon, che mi ha sempre affascinato per l'idea brillante, che sfrutta una caratteristica ben nota dei fotoni: quella della diversa penetrazione nel cristallo di silicio a secondo della loro lunghezza d'onda. Potrebbe essere materia di discussione se a qualcuno interessasse l'argomento. La mia opinione, personale ed opinabile naturalmente, è che per ora i foveon non riescono a coniugare la qualità con un prezzo di mercato abbordabile. Teniamoli d'occhio.

Non ho provato gli LBCAST, nati da un'idea circuitale innovativa. La mia opinione conterebbe come il due di picche.


Enzo


Inviato da: vincenzo.franchini@fastwebnet.it il Feb 10 2006, 05:57 PM

QUOTE(ideal @ Feb 10 2006, 09:37 AM)
FINALMENTE il forum riprende la giusta piega e si ricomincia a parlare in maniera costruttiva.
Grazie per le spiegazioni, in merito alla curiosità che la trattazione mi ha scuscitato mi puoi consigliare fonti per attingere spiegazioni con le formule, con queste ultime ci sono abbituato a ragionare.
Intervento molto interessante saluti Gigi
*



Naturalmente ho le mie "Bibbie". Vorrei prima chiedere, però, ai moderatori del forum se è permesso citare libri e pubblicazioni.

Scusami, ma prendilo come un atto di rispetto e correttezza verso il forum, quindi anche verso di te.

Ciao

Enzo


Inviato da: Giuseppe Maio il Feb 10 2006, 06:13 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 05:57 PM)
Naturalmente ho le mie "Bibbie". Vorrei prima chiedere, però, ai moderatori del forum se è permesso citare libri e pubblicazioni.
*


Pubblicare nomi di libri e pubblicazioni varie è consentito se lo spirito è formativo. Ricordo di rispettare le rigide e corrette norme sul copyright. In pratica evitiamo di pubblicare pagine dei rispettivi libri senza l'autorizzazione dell'autore e/o dell'editore.

Nessun problema quindi,

Giuseppe Maio
www.nital.it

Inviato da: Led566 il Feb 10 2006, 06:39 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 06:24 PM)
Prego tutti di credere che quando parlo non sto pensando ai soli sensori Nikon: quanto scrivo è valido per ogni sensore.
*



Io lo avevo capito, mi scuso se mi sono spiegato male, ma il "vissuto" del forum mi spinge spesso ad una eccessiva sintesi.

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 06:24 PM)
Sono principi e regole generali.
*



Certo anche questo avevo capito e sono perfettamente d'accordo, solo che a me è capitato spesso, dopo aver enunciato principi e regole generali o tesi suffragate da fatti, di essere accusato di nikonismo becero e quindi di avere appunto le

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 06:24 PM)
...fette di salame sugli occhi.
*




Ultimamente ci hanno dato anche dei "piccoli fans" blink.gif

Ciao e ...in bocca al lupo wink.gif

Inviato da: onderadio il Feb 10 2006, 08:42 PM

Vincenzo, chiara ed interessante spiegazione.

Mentre leggevo quanto da te scritto pensavo agli altri settori nei quali i medesimi concetti vengono utilizzati: il campo dei segnali sonori ma anche quello della finanza.

Avevo fatto tempo fa una simile discussione con un amico greco che faceva un Ph.D. in fisica. Io spegavo cosa intendevo per noise nella serie storica di un titolo azionario e dove vedevo segnale e dove rumore.
Lui con nozioni piu' ricche ed elaborate delle mie mi illustrava le sue impressioni sui sistemi di filtraggio del segnale che utilizzavo.

Complimenti per aver aperto questa discussione.
Ciao
Nino

Inviato da: MLJ il Feb 11 2006, 08:56 AM

Ciao Vincenzo mi ha incuriosito una cosa, come mai i CCD back-Illuminated sono cosi delicati??Questo c'entra qualcosa con le loro elevate prestazioni(c'e' forse una relazione tra le loro prestazioni e la loro struttura particolarmente delicata?) oppure invece sono cosi delicati perche' nn concepiti per essere "trasportati" dentro una macchina fotografica?
Ciao Gianni MLJ

Inviato da: gu.ru il Feb 11 2006, 09:48 AM

Ciao a tutti,
vorrei esprimere un parere prima che questa interessantissima discussione parta per la tangente trasformandosi in una guerra di religione.

Il fatto è che a prima vista le affermazioni molto ben argomentate di Vincenzo parrebbero contraddire uno dei capisaldi popolari, ovvero che


- un sensore grande funziona meglio di uno piccolo (a parità di tecnologia e di costruzione)



scatenando le perplessità di molti. Quando si ragiona per formule, anche se tradotte in tettoie et similia, non sempre l' intuitività è salvaguardata.

In realtà secondo me le affermazioni di Vincenzo non vanno affatto contro questo principio; quando si afferma che il rumore del segnale "non dipende dalla superficie ma solo dalla quantità di segnale" ci si potrebbe chiedere: ma allora fra una superficie piccola o grande, che differenza c'è? C'è, in quanto, a parità di "densità" di segnale (ovvero di intensità della pioggia sulla tettoia, o di luce che entra nella fotocamera), in un dato intervallo di tempo una tettoia grande raccoglierà come quantità assoluta più segnale (più acqua) di una tettoia piccola. Quindi il segnale raccolto dalla tettoia grande sarà affetto da un rumore (di segnale) inferiore.

Anche nel caso della amplificazione, stessa storia: a parità di numero di pixel (numero di tegole della tettoia) una tettoia più grande avrà tegole più grandi che potranno raccogliere un quantitativo (assoluto) superiore di pioggia (che cada con una stessa intensità). Quindi potremo permetterci una "amplificazione" inferiore per poter misurare la quantità di acqua raccolta. Avremo quindi un minor disturbo nella lettura.

Anche per il tempo, credo che si possa fare una analoga considerazione; la quantità di pioggia raccolta da una tegola su cui piova con una data intensità è proporzionale alla durata della pioggia stessa. Quindi è vero che alcuni parametri non dipendono dal tempo ma solo dalla quantità di acqua raccolta, ma ricordiamoci che se fissiamo l' intensità della pioggia, la quantità d' acqua raccolta dipenderà a sua volta dalla durata della pioggia stessa.

Quindi, a mio avviso, possiamo comunque stare tranquilli che, a parità di tecnologia e di costruzione, un sensore di una compattina avrà degli svantaggi architetturali rispetto ad un sensore DX, e che quest' ultimo avrà degli svantaggi architetturali rispetto ad un sensore FF. Se poi questi svantaggi siano compensati o addirittura annullati (o tramutati in vantaggi) da una superiore tecnologia di implementazione, è tutta un' altra religione....... ehm, storia.

Se ho mal interpretato i concetti, prego Vincenzo di correggermi.

In ogni caso mi piacerebbe che, quando sorgano perplessità su alcune affermazioni, si pongano gli appropriati quesiti a chi tali affermazioni ha fatto, in modo da appurarne la consistenza, evitando però di limitarsi a contrapporre (spesso con dubbia cortesia) una negazione ad una affermazione.

Un saluto
Guido

Inviato da: buzz il Feb 11 2006, 10:23 AM

Ho seguito con estremo interesse tutto il 3d, e ho avuto anche risposte ad alcune perplessità causate da una non completa comprensione delle teorie.
In particolare quest'ultimo intervento di guido mi ha confermato quanto, anche per logica, sia importante la dimensione del singolo sito di raccolta della luce, per la diminuizione del famigerato rumore.

A questo punto mi chiedo: quali possibilità future esistono affinchè a parità di dimensioni (DX) sia possibile produrre un CCD con il minor rumore possibile? ovvero quale è il limite oltre il quale non si può fisicamente arrivare?
Finora forse per motivi economici, si cerca di operare ad una riduzione software, con tute le conseguenze positive e negative che questa comporta. Si capisce che l'ideale sarebbe produrre un sensore ideale, e forse va cambiata la tecnologia.

PS anche a me interesserebbe conoscere le differenze costruttive riguardo alla delicatezza dei CCD back-illuminated, e le possibilità del Foveon, che da anni sembra abbandonato a se stesso.
Saluti
francesco

Inviato da: Led566 il Feb 11 2006, 10:48 AM

QUOTE(gu.ru @ Feb 11 2006, 10:48 AM)
... Quando si ragiona per formule, anche se tradotte in tettoie et similia, non sempre l' intuitività è salvaguardata.
*



Dovendo salvaguardare l'intuito avrei serie difficoltà a non essere tolemaico...

QUOTE(gu.ru @ Feb 11 2006, 10:48 AM)
In realtà secondo me le affermazioni di Vincenzo non vanno affatto contro questo principio; quando si afferma che il rumore del segnale "non dipende dalla superficie ma solo dalla quantità di segnale" ci si potrebbe chiedere: ma allora fra una superficie piccola o grande, che differenza c'è? C'è, in quanto, a parità di "densità" di segnale (ovvero di intensità della pioggia sulla tettoia, o di luce che entra nella fotocamera), in un dato intervallo di tempo una tettoia grande raccoglierà come quantità assoluta più segnale (più acqua) di una tettoia piccola. Quindi il segnale raccolto dalla tettoia grande sarà affetto da un rumore (di segnale) inferiore.
*



Raccoglie più acqua una grande tettoia con molti buchi o una piccola tettoia con pochi e piccoli buchi?

Il ragionamento analitico è di tipo integrale: dipende strettamente dalle condizioni al contorno.

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 11 2006, 11:07 AM

QUOTE(MLJ @ Feb 11 2006, 08:56 AM)
Ciao Vincenzo mi ha incuriosito una cosa, come mai i CCD back-Illuminated sono cosi delicati??Questo c'entra qualcosa con le loro elevate prestazioni(c'e' forse una relazione tra le loro prestazioni e la loro struttura particolarmente delicata?) oppure invece sono cosi delicati perche' nn concepiti per essere "trasportati" dentro una macchina fotografica?
Ciao Gianni MLJ
*



Sono molto delicati perché molto più sottili dei CCD "normali" e facili a rompersi anche per microdeformazioni prodotte dagli urti. Per la loro fragilità hanno degli scarti molto alti in sede di produzione. Si adattano sì a macchine, generalmente di uso astronomico, dove di astronomico ci sono anche i prezzi: quel tanto che ci basta per trattarle molto religiosamente. E' proprio la loro sottigliezza a renderli molto sensibili anche nella banda del blu, perché i fotoni di quella banda non devono percorrere molta strada nel cristallo per colpire le zone sensibili.

Voglio precisare che, dati gli alti livelli di luce che interessano generalmente la fotografia tradizionale, non si sente la mancanza dei back-illuminated. La ridotta sensibilità nel blu dei ccd tradizionali, migliorata moltissimo negli anni, viene compensata dal firmware e dal software.

Ciao, Gianni

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 11 2006, 11:14 AM

QUOTE(onderadio @ Feb 10 2006, 08:42 PM)
Vincenzo, chiara ed interessante spiegazione.

Mentre leggevo quanto da te scritto pensavo agli altri settori nei quali i medesimi concetti vengono utilizzati: il campo dei segnali sonori ma anche quello della finanza.

Avevo fatto tempo fa una simile discussione con un amico greco che faceva un Ph.D. in fisica. Io spegavo cosa intendevo per noise nella serie storica di un titolo azionario e dove vedevo segnale e dove rumore.
Lui con nozioni piu' ricche ed elaborate delle mie mi illustrava le sue impressioni sui sistemi di filtraggio del segnale che utilizzavo.

Complimenti per aver aperto questa discussione.
Ciao
Nino
*




Grazie della della segnalazione: ammetto che mi era giunta un'eco dell'applicazione nel campo finanziario ma non ne so assolutamente nulla.
Mi hai veramente incuriosito: mi dai un link o qualche riferimento?
Magari anche privatamente visto che diventeremmo OT.

Ciao e grazie

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 11 2006, 02:37 PM

QUOTE(gu.ru @ Feb 11 2006, 09:48 AM)
Ciao a tutti,
vorrei esprimere un parere prima che questa interessantissima discussione parta per la tangente trasformandosi in una guerra di religione.

Il fatto è che a prima vista le affermazioni molto ben argomentate di Vincenzo parrebbero contraddire uno dei capisaldi popolari, ovvero che
  - un sensore grande funziona meglio di uno piccolo (a parità di tecnologia e di costruzione)
scatenando le perplessità di molti. Quando si ragiona per formule, anche se tradotte in tettoie et similia, non sempre l' intuitività è salvaguardata.

...(cut)...


Ciao gu.ru.

ho letto e riletto quanto ho scritto nell'apertura del 3D e nella mia replica a Cencio: in nessuna parte affermo che la raccolta del segnale non dipende dalla superficie. Ho cercato di far capire bene la differenza tra segnale, rumore di un segnale e rumore "elettronico". E ribadisco quanto detto relativamente al rumore del segnale: è funzione del segnale e non della superficie del sensore. Tu stai facendo la seguente deduzione: se A dipende da B e B dipende da C, allora anche A dipende da C. Sacrosanto sillogismo. Però, ai fini di calcolare il rumore A abbiamo bisogno solo del dato B. Non andiamo a chiedere quanto vale C. Nel calcolare il rumore statistico del segnale, tutti i software esistenti non vanno a controllare la superficie di raccolta. Sono riuscito a spiegarmi? Ciò che entra in ballo nella raccolta del segnale è la dimensione del pixel, non del sensore. Con pixel identici, il sensore più piccolo avrà caratteristiche di rumore di segnale identiche ad uno più grande. A parità di sensore, quello più frammentato sarà più rumoroso di quello meno frammentato.

Visto che non solo tu hai avuto il dubbio della superficie, affrontiamo questo argomento e vediamo se riesco a sviscerarlo in maniera comprensibile e semplice. Torniamo all'esempio dell'acqua e diciamo che vogliamo calcolare quanta pioggia (immaginata uniforme per semplicità) cada in un metro quadrato in un secondo. Che differenza c'è se uso un secchio di raccolta di 1 m x 1 m o 100 secchi di 10cm x 10cm? Immaginiamo questi secchi ideali, cioè accostati in maniera perfetta in modo che acqua non vada persa negli spazi tra un secchio e l'altro. Per inciso, questa ipotesi di perfezione nei nostri ccd è svolta dalle microlenti, che fanno in modo che non vada persa la luce che altrimenti cadrebbe negli spazi tra un pixel e l'altro, oltre che contribuire a farla convergere verso il centro del pixel. Se la matematica non mi tradisce la quantità d'acqua raccolta sarà sempre uguale.
E allora dov'è la differenza?
Andiamo a calcolare il rumore: se la quantità d'acqua raccolta fosse pari a 10.000 otterremmo per il singolo secchio gigante un valore di rumore pari a 100, cioè l'1%. Per ogni singolo secchiello, invece, che conterrebbe solo 100 cc, il valore sarebbe pari a 10, cioè il 10%. La deduzione logica è che, allora, il rumore dipenda dalla superficie. Sì, ma non da quella del sensore, bensì da quella del pixel. Abbiate la pazienza di continuare a leggere.

Quando parliamo di geometria del sensore non ci riferiamo solo al numero dei pixel, alla loro dimensione e al rapporto tra i loro lati, ma anche allo spessore del cristallo, che, almeno finora, è abbastanza legato alla superficie del pixel: a pixel più esteso corrisponde uno spessore maggiore e viceversa. A questa differenza di volume corrisponde una differente capienza in termini di elettroni. E' ciò che nel linguaggio CCD viene chiamata Full Well Capacity (FWC), cioè la Piena Capacità del Pozzo (cioè del pixel). La sua unità di misura è l'elettrone, non il fotone. In pratica la FWC ci dice quanti elettroni possono essere liberati all'interno del pixel prima che raggiunga la saturazione. Un valore approssimato e grossolano, ma non lontano dalla realtà, della FWC si ottiene dividendo x 2 la superficie del pixel e moltiplicando il risultato per 1200. Così un pixel di 7 micrometri di lato avrebbe una FWC pari, a spanne, a 30000 elettroni, uno di 10 a circa 60000 elettroni e così via.
Ciò cosa comporta? Che a parità di contenuto assoluto, anche il contenuto relativo è pari. Se avessimo raccolto in un solo pixel di 10 micrometri di lato 10.000 elettroni avremmo questi dati:
- pixel di 10 micrometri, FWC= 60.000, percentuale di riempimento = 16%
Se il pixel fosse di 7 micrometri di lato, avremmo bisogno di 2 pixel per coprire la stessa superficie, quindi ogni pixel conterrebbe 5000 elettroni. Da ciò:
- pixel di 7 micrometri, FWC = 30.000, riempimento pari al 16%. Identico!
Cosa succede a livello di rumore?
Che il pixel di 10 micrometri presenterà un rumore di segnale pari 100, cioè l' 1%: quelo di 7 micrometri un rumore pari a 70, cioè 1,4%.

Conclusioni: il rumore del segnale, a parità di segnale totale sul sensore, è proporzionale alla frammentazione del sensore. A parità di superficie un sensore meno frammentato presenta meno rumore di un sensore più frammentato. A parità di dimensioni del pixel la dimensione del sensore non conta ai fini del rumore di segnale. Conta per alcuni parti del read-out noise: la precisione del trasferimento di carica e la velocità di lettura.

Qui, però, apriamo un altro discorso.
Prendiamoci tutti un po' di fiato.

Grazie del commento.

Enzo




Inviato da: vincenzo.franchini@fastwebnet.it il Feb 11 2006, 04:53 PM

QUOTE(buzz @ Feb 11 2006, 10:23 AM)
...(cut)

PS anche a me interesserebbe conoscere le differenze costruttive riguardo alla delicatezza dei CCD back-illuminated, e le possibilità del Foveon, che da anni sembra abbandonato a se stesso.
Saluti
francesco
*



Ho letto proprio recentemente che la Foveon ha ceduto i diritti del sensore ad un colosso Giapponese. Costi di sviluppo troppo alti per una piccola società. Il che fa ben sperare sul futuro di questa geometria CCD.

Enzo

Inviato da: MLJ il Feb 11 2006, 05:06 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 11 2006, 04:53 PM)
Ho letto proprio recentemente che la Foveon ha ceduto i diritti del sensore ad un colosso Giapponese. Costi di sviluppo troppo alti per una piccola società. Il che fa ben sperare sul futuro di questa geometria CCD.

Enzo
*



Quindi il Foveon fa parte della famiglia dei CCD???
Ciao Gianni MLJ

Inviato da: __Claudio__ il Feb 12 2006, 01:25 PM

Ieri sera parlando di questa interessante discussione con Cristiano, non appena ne ho citato l'autore, ha avuto un sobbalzo sulla sedia, è sparito per due minuti poi è tornato da me brandendo un libro. Libro scritto dal nostro Vincenzo, in collaborazione con altri due autori, per una nota collana di una casa Editrice che si occupa proprio di Astronomia oltre che di (video)fotografia astronomica in particolare.
Non cito ovviamente per ragioni di opportunità nè il titolo, nè la casa editrice. Vi assicuro però che tra gli astrofotografi il libro in questione, che non è l'unico scritto da Vincenzo sull'argomento, è considerato quanto di più chiaro si possa trovare.

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 12 2006, 04:14 PM

QUOTE(MLJ @ Feb 11 2006, 05:06 PM)
Quindi il Foveon fa parte della famiglia dei CCD???
Ciao Gianni MLJ
*



No, certo e chiedo scusa dell'imprecisione. La geometria base del Foveon è la sovrapposizione di 3 CMOS, uno per ogni banda di colore rgb.
Anche in altre parti di quanto scritto finora parlo solo di CCD. In realtà, dovrei dire sensore: fatto è che per molti anni il CCD è stato il sensore per antonomasia perché il CMOS non era ancora preso in considerazione. Quando penso ad un sensore, perciò, dalla penna salta fuori automaticamente il termine CCD.

Cercherò di correggermi.

Grazie della segnalazione

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 12 2006, 07:08 PM

QUOTE(buzz @ Feb 11 2006, 10:23 AM)
...(cut)...

A questo punto mi chiedo: quali possibilità future esistono affinchè a parità di dimensioni (DX) sia possibile produrre un CCD con il minor rumore possibile? ovvero quale è il limite oltre il quale non si può fisicamente arrivare?
Finora forse per motivi economici, si cerca di operare ad una riduzione software, con tute le conseguenze positive e negative che questa comporta. Si capisce che l'ideale sarebbe produrre un sensore ideale, e forse va cambiata la tecnologia.

...(cut)...
Saluti
francesco
*



Nel campo delle reflex il pixel sembra assestatosi su una diagonale di circa 9 micrometri, con qualche eccezione. Probabilmente i progettisti hanno raggiunto il miglior compromesso, stante l'attuale tecnologia, tra rumore, sensibilità ISO equivalente e capacità di raffica.
Il rumore in genere non potrà mai ridursi a zero: il fotone non procede per linea retta, le molecole vibrano per moto browniano, gli elettroni spesso fanno gli affaracci loro e non i nostri...:-)
Io non uso valori ISO superiori a 400, esattamente come facevo con la pellicola e, sinceramente, non capisco le polemiche per il rumore che si evidenzia da 400 in su. Considero le pose eseguite a 800 1600 3200... quelle della disperazione e come tali vanno accettate. In più non molti utenti usano il raw e dedicano un poco del loro tempo ad imparare il trattamento post-produzione. Pretendere di usare il jpeg per pulire foto eseguite a 1600 ISO significa chiedere a mamma Nikon, Canon, Olympus ... di darci l'impossibile.

Ciao a tutti

Enzo


Inviato da: buzz il Feb 12 2006, 11:31 PM

Purtroppo le polemiche in merito esistono, anche se se ne farebbe volentieri a meno.
La foto sportiva come quella di matrimonio prevedono l'uso di tempi rapidissimi in condizioni di luce non sempre ottimali. Quando la tecnologia è un limite per tutti, allora ci si accontenta anche dello scatto del "disperato", ma quando c'è chi può offrire di più, ecco che ci si getta a capofitto verso quella piccola migioria che potrebbe fare la differenza.

Concordo con te che comunque principalmemnte bisogna imparare ad usare il proprio mezzo, e sfruttarlo al massimo.

PS - OT quando studiavo astronomia leggevo nelle riviste che qualcuno sensibilizzava le pellicole con refrigeranti estremi fino a portarle ad una sensibilità di 20.000 asa e più. Immagino che adesso se ne possa fare a meno. Tu hai mai fatto qualcosa di simile?

Inviato da: nisex il Feb 13 2006, 12:21 AM

Ciao Vincenzo, lieto di averti letto ma ancor più di averti conosciuto.
una sola domanda: ma da dove vieni? da Marte? il buon De Sica direbbe :"mortacci".
a presto, nic





nota: ho aggiunto un punto di domanda.

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 13 2006, 06:21 AM

QUOTE(buzz @ Feb 12 2006, 11:31 PM)
Purtroppo le polemiche in merito esistono, anche se se ne farebbe volentieri a meno.
La foto sportiva come quella di matrimonio prevedono l'uso di tempi rapidissimi in condizioni di luce non sempre ottimali. Quando la tecnologia è un limite per tutti, allora ci si accontenta anche dello scatto del "disperato", ma quando c'è chi può offrire di più, ecco che ci si getta a capofitto verso quella piccola migioria che potrebbe fare la differenza.

Concordo con te che comunque principalmemnte bisogna imparare ad usare il proprio mezzo, e sfruttarlo al massimo.

Quando partecipo a matrimoni provo una stretta al cuore vedendovi all'opera in chiese con luce catacombale. Qualcosa al Padreterno dovete aver pur fatto...

Parlando seriamente, non avete soluzioni software per migliorare il rapporto segnale/rumore perché il rumore che compare ad alti ISO è quasi esclusivamente di tipo readout ed è causato dalla amplificazione del segnale. Via software è possibile, invece, migliorare moltissimo il micromosso e il fuorifuoco: non è una tecnica facile ma si ottengono risultati spettacolari. Questo permette di ridurre l'ISO e utilizzare tempi più lunghi. C'è poco da fare: si deve ridurre l'amplificazione, cioè aumentare il rapporto segnale/rumore di amplificazione. Niente scatti a raffica, perché il rumore di readout aumenta con il numero di pose al secondo.
Pensa che in astrofotografia, in condizioni di luce tragiche, sono ben pochi i ccd che permettono di scegliere il livello di amplificazione, in ogni caso minimo: ammetto che abbiamo il non trascurabile vantaggio che i soggetti stannno fermi!

QUOTE
PS - OT quando studiavo astronomia leggevo nelle riviste che qualcuno sensibilizzava le pellicole con refrigeranti estremi fino a portarle ad una sensibilità di 20.000 asa e più. Immagino che adesso se ne possa fare a meno. Tu hai mai fatto qualcosa di simile?
*



Iniziai l'astrofotografia già con il ccd (matrici di 250x250 pixel...la cosa più difficile era inquadrare gli oggetti su un sensore di 3 mm x 3mm...impresa titanica)
Lo scopo principale del trattamento della pellicola è quello di ridurre l'effetto di reciprocità.
La via digitale ormai è dilagata anche in questo campo e note case produttrici di pellicole specificamente trattate per l'astrofotgrafia hanno tolto i loro prodotti dal catalogo. Non pochi appassionati, però, restano legati alla pellicola, soprattutto a colori. Se ti sei interessato all'argomento, saprai che i ccd per astronomia e molti di quelli per altre applicazioni scientifiche vengono raffreddati a temperature di 30-60° al di sotto della T° ambiente. Ciò, però, influenza principalmente la corrente di buio, di poco interesse nella fotografia tradizionale.

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 13 2006, 06:23 AM

QUOTE(nisex @ Feb 13 2006, 12:21 AM)
Ciao Vincenzo, lieto di averti letto ma ancor più di averti conosciuto.
una sola domanda: ma da dove vieni? da Marte? il buon De Sica direbbe :"mortacci".
a presto, nic
nota: ho aggiunto un punto di domanda.
*



...spero che tu non dica a tutti che ci siamo trovati a parlare bene della concorrenza...

Buon inizio settimana

Enzo

Inviato da: gu.ru il Feb 13 2006, 09:50 AM

Ciao Vincenzo,
grazie per la convincente spiegazione. Quindi la vera responsabile della quantità di rumore del segnale è la superficie del singolo pixel, non tanto perchè riceva - in percentuale alla sua capienza - meno segnale, quanto SOLTANTO per il fatto che la quantità assoluta di segnale ricevuto sarebbe minore.

Anche se il rumore raccolto dal pixel più piccolo è in quantità assoluta minore, la sua percentuale rispetto alla quantità di segnale totale ricevuto dal pixel stesso risulta comunque sfavorevole rispetto all' analoga percentuale calcolata sui parametri di un pixel più grande.

La responsabilità è quindi della dimensione della tegola, non della tettoia nel suo insieme, giusto?

Un saluto
Guido

Inviato da: gu.ru il Feb 13 2006, 10:00 AM

Dimenticavo.......

rimane anche il secondo aspetto, ovvero che comunque la quantità di segnale raccolto da un pixel si superficie inferiore è in valore assoluto minore, e quindi necessita di una amplificazione maggiore per avere una lettura al livello voluto.

Quindi, a parità di megapixel (e di tecnologia), un sensore di dimensioni maggiori avrà:

- un rumore di segnale inferiore in quanto le dimensioni dei suoi frammenti sono di dimensioni maggiori - SOLO e SOLTANTO per quello.
- un rumore di lettura inferiore perchè alla lettura del singolo pixel si dovrà applicare una amplificazione minore.

Sempre se non mi sfugge ancora qualcosa.

Ciao a tutti
Guido

Inviato da: buzz il Feb 13 2006, 10:33 AM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 06:21 AM)
Quando partecipo a matrimoni provo una stretta al cuore vedendovi all'opera in chiese con luce catacombale. Qualcosa al Padreterno dovete aver pur fatto...

Parlando seriamente, non avete soluzioni software per migliorare il rapporto segnale/rumore perché il rumore che compare ad alti ISO è quasi esclusivamente  di tipo readout ed è causato dalla amplificazione del segnale. Via software è possibile, invece, migliorare moltissimo il micromosso e il fuorifuoco: non è una tecnica facile ma si ottengono risultati spettacolari. Questo permette di ridurre l'ISO e utilizzare tempi più lunghi. C'è poco da fare: si deve ridurre l'amplificazione, cioè aumentare il rapporto segnale/rumore di amplificazione. Niente scatti a raffica, perché  il rumore di readout aumenta con il numero di pose al secondo.
*



Immagino che il readout aumenti in quel caso perchè il sensore si riscalda e dotare le DSLR di cella di peltier e ventolina sarebbe proprio antieconomico. Immgino poi la durata delle batterie!

Scusami se ti tengo ancora impegnato, ma credo che sia nell'interesse generale conoscere quali programmi o artifici consigli per ridurre la percezione del micromosso e/o sfocato.

Grazie del tempo che ci stai dedicando.

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 13 2006, 02:48 PM

QUOTE(gu.ru @ Feb 13 2006, 09:50 AM)
...(cut)..

La responsabilità è quindi della dimensione della tegola, non della tettoia nel suo insieme, giusto?

Un saluto
Guido
*



Esatto. Mi fa piacere essere riuscito a spiegarmi, almeno con te. Parlare senza formule e diagrammi non è, francamente, molto facile.

Per tutti coloro che hanno avuto la pazienza di seguirmi: sto preparando un altro...come possiamo chiamarlo...articolo?...discussione?...quattro chiacchere?..., sul rapporto esistente tra la dimensione della tegola, la risoluzione, il campionamento e gli obiettivi.
Pensate vi possa interessare o vi complicherebbe solo la vita?
Poiché è un argomento un po' ostico sto ancora cercando la via per renderlo capibile senza conoscere radianti, seni e coseni.
Se pensate sia di poco interesse generale, mi evito la fatica.

Un saluto a tutti voi.

Enzo

Inviato da: ideal il Feb 13 2006, 03:13 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 02:48 PM)
.
Se pensate sia di poco interesse generale, mi evito la fatica.

Un saluto a tutti voi.

Enzo
*



A me interessa e la tua fatica è degna di encomio.
Sarei sempre interessato ai titoli delle tue "bibbie" l'ing. Maio ha gia risposto qualche post fà che non ci sono problemi.
Quindi se non hai problemi specifici a citare le fonti almeno puoi inviarmi un MP.
In attesa ti auguro buona giornata e buon lavoro

Gigi

Inviato da: onderadio il Feb 13 2006, 03:25 PM

Gentile Enzo, si potrebbe continuare in questa discussione che peraltro si sta svolgendo in maniera ordinata con tanti spunti interessanti ed è in evidenza in quest'area di discussione.
Ciao
Nino

Inviato da: Led566 il Feb 13 2006, 04:08 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 11 2006, 03:37 PM)
...
Ciò che entra in ballo nella raccolta del segnale è la dimensione del pixel, non del sensore. Con pixel identici, il sensore più piccolo avrà caratteristiche di rumore di segnale identiche ad uno più grande. A parità di sensore, quello più frammentato sarà più rumoroso di quello meno frammentato.
...
*




Tutto OK però bisogna anche tener conto di quello che c'é "dentro" il pixel e quindi della tecnologia utilizzata per la costruzione del sensore.
Tu stesso parli di FWC, ma la FWC non dipende da come è "fatto" il pixel?
Se la parte che raccoglie i fotoni è un fotodiodo o un fotogate, se sulla stessa superficie del pixel ci devono anche essere 3, 4 o 5 transistor per l'amplificazione?
Cioè non ci possiamo limitare alle dimensioni geometriche del pixel quando parliamo di rumore:
user posted image
(la superficie fotosensibile è quella celeste!)

Io questo volevo dire ma forse non mi sono spiegato bene.

Inviato da: gu.ru il Feb 13 2006, 04:30 PM

Ciao,
una prosecuzione di questa discussione interesserebbe molto anche a me.

Grazie fin da ora per l' impegno.
Guido

Inviato da: padrino il Feb 13 2006, 04:58 PM

Scusate l'OT...

COMPLIMENTI per la Signorilità e per la Preparazione Vincenzo!!!

Giuseppe

Inviato da: buzz il Feb 13 2006, 05:02 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 02:48 PM)
Esatto. Mi fa piacere essere riuscito a spiegarmi, almeno con te. Parlare senza formule e diagrammi non è, francamente, molto facile.

Per tutti coloro che hanno avuto la pazienza di seguirmi: sto preparando un altro...come possiamo chiamarlo...articolo?...discussione?...quattro chiacchere?..., sul rapporto esistente tra la dimensione della tegola, la risoluzione, il campionamento e gli obiettivi.
Pensate vi possa interessare o vi complicherebbe solo la vita?
Poiché è un argomento un po' ostico sto ancora cercando la via per renderlo capibile senza conoscere radianti, seni e coseni.
Se pensate sia di poco interesse generale, mi evito la fatica.

Un saluto a tutti voi.

Enzo
*



Credo che tu sia riuscito a spiegati con tutti, e se il tuo modo di tratare il prossimo argomento sarà simile al primo, sarai capito da chi ti vorrà capire.
E' vero, non mensionare formule o diagrammi rende i concetti meno... matematici, ma quello che conta per i comuni utilizzatori credo sia capire il concetto che sta alla base, in linee di principio.
Sicuramente sarà apprezzato da molti.

Inviato da: buzz il Feb 13 2006, 05:05 PM

QUOTE(Led566 @ Feb 13 2006, 04:08 PM)
Tutto OK però bisogna anche tener conto di quello che c'é "dentro" il pixel e quindi della tecnologia utilizzata per la costruzione del sensore.
Tu stesso parli di FWC, ma la FWC non dipende da come è "fatto" il pixel?
Se la parte che raccoglie i fotoni è un fotodiodo o un fotogate, se sulla stessa superficie del pixel ci devono anche essere 3, 4 o 5 transistor per l'amplificazione?
Cioè non ci possiamo limitare alle dimensioni geometriche del pixel quando parliamo di rumore:
user posted image
(la superficie fotosensibile è quella celeste!)

Io questo volevo dire ma forse non mi sono spiegato bene.
*



Credo di aver capito che questo era sottinteso quando si parlava di dimensioni del singolo "fotosito"
Che poi questo occupi tutta o parte della casella al lui dedicata, fa la differenza.
Quello che ancora mi lascia perplesso è come un Cmos che ha dimensioni attive più ridotte del CCD abbia meno rumore. E' solo una leggenda? è la post produzione on camera? il convertitore A/D?

Inviato da: MLJ il Feb 13 2006, 05:07 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 02:48 PM)
Esatto. Mi fa piacere essere riuscito a spiegarmi, almeno con te. Parlare senza formule e diagrammi non è, francamente, molto facile.

Per tutti coloro che hanno avuto la pazienza di seguirmi: sto preparando un altro...come possiamo chiamarlo...articolo?...discussione?...quattro chiacchere?..., sul rapporto esistente tra la dimensione della tegola, la risoluzione, il campionamento e gli obiettivi.
Pensate vi possa interessare o vi complicherebbe solo la vita?
Poiché è un argomento un po' ostico sto ancora cercando la via per renderlo capibile senza conoscere radianti, seni e coseni.
Se pensate sia di poco interesse generale, mi evito la fatica.

Un saluto a tutti voi.

Enzo
*



Certo che ci interessa, e grazie per tutto quello fin ora spiegato.!Aspetto con impazienza ...
Ciao Gianni MLJ

Inviato da: Led566 il Feb 13 2006, 05:47 PM

QUOTE(buzz @ Feb 13 2006, 06:05 PM)
Credo di aver capito che questo era sottinteso quando si parlava di dimensioni del singolo "fotosito"
Che poi questo occupi tutta o parte della casella al lui dedicata, fa la differenza.
Quello che ancora mi lascia perplesso è come un Cmos che ha dimensioni attive più ridotte del CCD abbia meno rumore. E' solo una leggenda? è la post produzione on camera? il convertitore A/D?
*



Boh? sicuramente che la FWC dei pixel della 1dm2 è 53000 (CMOS) e quella dei pixel della D70 è 49000 (CCD interline transfer) l'ho letto da qualche parte, ma una cosa emerge chiara, se si parla di rumore percepito sulla foto le variabili da considerare sono veramente molte.

Inviato da: Marvin il Feb 13 2006, 07:01 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 02:48 PM)

Se pensate sia di poco interesse generale, mi evito la fatica.

*



Interessa eccome!! Faccio un pò fatica a seguire tutti sti ragionamenti ma qualcosa assorbo!
Se poi ogni tanto trai delle conclusioni molto riassuntive e schiette il concetto rimane più evidente
Grazie! grazie.gif

Inviato da: gianni534 il Feb 13 2006, 07:11 PM

QUOTE
Pensate vi possa interessare o vi complicherebbe solo la vita?
Poiché è un argomento un po' ostico sto ancora cercando la via per renderlo capibile senza conoscere radianti, seni e coseni.
Se pensate sia di poco interesse generale, mi evito la fatica.


Appoggio con tutto quello che posso, non è molto se non la forza delle parole, il tuo sforzo e ti sarei grato per la prosecuzione degli argomenti...grazie per il tuo lavoro e lo sforzo di elaborazione...
Gianni guru.gif guru.gif guru.gif

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 13 2006, 08:37 PM

QUOTE(gu.ru @ Feb 13 2006, 10:00 AM)
Dimenticavo.......

rimane anche il secondo aspetto, ovvero che comunque la quantità di segnale raccolto da un pixel si superficie inferiore è in valore assoluto minore


vero
QUOTE
, e quindi necessita di una amplificazione maggiore per avere una lettura al livello voluto.

Sì e No.
Qui entriamo nel campo della conversione analogico-digitale, cioè della trasformazione della tensione esistente nel pixel al termine dell'esposizione in un numero intellegibile dal calcolatore.
Entriamo anche nel campo della Efficienza di Trasferimento della Carica (CTE).
Seguimi (seguitemi) perché entriamo in un mondo almeno per me affascinante.

Cominciamo dalla CTE, perché più semplice da spiegare e far capire.
Nel sensore il segnale presente nel pixel alla fine dell'esposizione deve essere trasferito verso l'amplificatore e da qui al decodificatore.
I Pixel del CCD (nel CMOS è diverso, ma restiamo nel campo della nostra marca)sono organizzati per colonne: ciò significa che, dopo aver trasferito la carica del primo pixel in basso, tutte le cariche dei pixel dal secondo in su devono essere trasferite nel pixel immediatamente inferiore. 2000 pixel verticali, 2000 trasferimenti!
L'efficienza di questo trasferimento è altissima: siamo nell'ordine dello 0,999995 e più: vuol dire che se trasferiamo una carica di 20000 elettroni, circa 1 elettrone resta "indietro" ogni 2 trasferimenti. Questo per i primi 2 pixel trasferiti; per l'ultimo, la cui carica deve subire 2000 trasferimenti, gli elettroni lasciati indietro risulteranno circa 1000. Il 5% della carica! Per fortuna il firmware tiene conto di questa perdita.
In ogni caso è una fonte di rumore di lettura con la quale fare i conti. Infatti aumenta significativamente se la carica è inferiore a 1000 elettroni e in caso di alte velocità, come nelle pose multiple.

Ed ora andiamo ad incontrare il rumore della conversione analogico-digitale.
Continuiamo a parlare in termini di elettroni che si accumulano nel pixel, e non di voltaggio. Non è un modo improprio perché il voltaggio nel pixel è direttamente proporzionale al numero di elettroni: ritengo che sia più intuitiva la metafora delle gocce di pioggia piuttosto che della pressione che queste esercitano.

I C(onvertitori) A(nalogico)-D(igitali) si differenziano, oltre che per la velocità della conversione, per una caratteristica chiave: i passi. I convertitori più usati sono a 8, 12, 14, 15 e 16 bit. Che significa? Significa che quello ad 8 bit può suddividere il segnale in 256 passi (è il risultato di 2 moltiplicato per se stesso 8 volte), quello a 12 bit in 4096, quello a 14 bit in 16384, quello a 15 in 32768 e quello a 16 bit in 65536 passi.
Se un pixel avesse una FWC (la capacità di contenere elettroni di segnale) pari a 50000 e dipendesse da un ADC a 12 bit, questo suddividerebbe la sua carica in passi di 12 elettroni ciascuno (risulta da 50000:4096). Tralascio le virgole per spiegare il concetto: avviso però che sono importanti ai fini del computo.
Vi pare che possa essere tutto così semplice? Neanche per idea. Restiamo legati per ora al ADC a 12 bit.
Anche nella conversione esiste un errore ben quantificabile: l'errore di codifica numerica. Come si trova? Dividendo il passo per 3,464, che corrisponde alla radice quadrata di 12. Nel nostro caso, un passo pari a 12 elettroni vedrebbe un errore pari a poco più di 3 elettroni.

Facciamo un po' di conti della spesa e vediamo come sia realmente la situazione, analizzando tutti i rumori.
Il nostro pixel, con una FWC di 50000 elettroni ne ha accumulati 10000, in un tempo di esposizione breve.

Segnale: 10.000
Rumore di Segnale: 100
Currente di Buio: trascurabile
Rumore di reset = 0
Rumore di trasferimento: 31 elettroni
Rumore di codifica: 3 elettroni

Rumore complessivo : 104 elettroni (è la radice quadrata della somma dei quadrati dei singoli rumori)
Anch'esso entra nel ADC: se ogni suo passo contiene 12 elettroni, abbiamo come conseguenza che il rumore "si mangia" 104:12= 9 passi, cioè 4 bit dei 12 del ADC. La nostra gamma dinamica è scesa da 12 bit a 8 bit, da 4096 tonalità possibili a sole 256.
Se aumentiamo l'amplificazione è facile passare ad un rumore totale che impegna 5 o 6 dei 12 bit, con una gamma di tonalità che crolla a 128 se non 64! E, poiché se scende uno sale l'altro, il rumore, visto come valore quantificabile nella media del sensore ma imponderabile nel singolo pixel, diventa evidente visivamente.




QUOTE
Quindi, a parità di megapixel (e di tecnologia), un sensore di dimensioni maggiori avrà:

- un rumore di segnale inferiore in quanto le dimensioni dei suoi frammenti sono di dimensioni maggiori - SOLO e SOLTANTO per quello.
- un rumore di lettura inferiore perchè alla lettura del singolo pixel si dovrà applicare una amplificazione minore.

Sempre se non mi sfugge ancora qualcosa.

Ciao a tutti
Guido
*



Sì; per il punto due vale quanto ho scritto sopra.

Ciao a tutti e grazie a chi è riuscito a seguirmi. L'argomento non è semplicissimo.

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 13 2006, 08:44 PM

QUOTE(Marvin @ Feb 13 2006, 07:01 PM)
Interessa eccome!! Faccio un pò fatica a seguire tutti sti ragionamenti ma qualcosa assorbo!
Se poi ogni tanto trai delle conclusioni molto riassuntive e schiette il concetto rimane più evidente
Grazie! grazie.gif
*



Hai ragione, scusami, ogni tanto me ne scordo.

La conclusione è sempre una, per me: luce, luce, luce.

Che la luce sia con noi.

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 13 2006, 09:13 PM

QUOTE(Led566 @ Feb 13 2006, 04:08 PM)
Tutto OK però bisogna anche tener conto di quello che c'é "dentro" il pixel e quindi della tecnologia utilizzata per la costruzione del sensore.
Tu stesso parli di FWC, ma la FWC non dipende da come è "fatto" il pixel?

Certo, ma non dal fill factor, cui ti riferisci sotto.
La FWC possiamo considerarla un Volume massimo di possibile riempimento. Questo dipende dalla efficienza quantica, nella quale entra in gioco anche il fill factor.
QUOTE
Se la parte che raccoglie i fotoni è un fotodiodo o un fotogate, se sulla stessa superficie del pixel ci devono anche essere 3, 4 o 5 transistor per l'amplificazione?
Cioè non ci possiamo limitare alle dimensioni geometriche del pixel quando parliamo di rumore:(la superficie fotosensibile è quella celeste!)

Io questo volevo dire ma forse non mi sono spiegato bene.
*



Ti sei spiegato benissimo: probabilmente sono io che non sono riuscito a farmi capire a dovere. Stai parlando del fill factor, in soldoni la percentuale di superficie coperta del sensore. Il CMOS in questo è parecchio penalizzato rispetto al CCD. E' drasticamente migliorato, però, negli ultimi anni, tanto da poter essere proposto a livello professionale.

Riassumendo, la FWC non dipende dalla efficienza quantica, di cui il fill factor è uno dei fattori. E'vero, invece, che il poter raggiungere i valori della FWC dipende da essa.

Riguardo alla FWC sarebbe bene non raggiungerla mai e starne di un 10-15 % al di sotto. Ciò perché:
1- cominceremmo a perdere in linearità tra tempo di esposizione e quantità del segnale
2- perderemmo i dettagli nella gamma alta.

Per sapere se abbiamo troppi pixel in saturazione basta osservare l'istogramma dell'immagine: lo sbilanciamento all'estrema dx indica sovrassaturazione.

Ho chiarito i dubbi?

Ciao

Enzo


Inviato da: vincenzo.franchini@fastwebnet.it il Feb 14 2006, 06:26 AM

QUOTE(buzz @ Feb 13 2006, 05:05 PM)
Credo di aver capito che questo era sottinteso quando si parlava di dimensioni del singolo "fotosito"
Che poi questo occupi tutta o parte della casella al lui dedicata, fa la differenza.
Quello che ancora mi lascia perplesso è come un Cmos che ha dimensioni attive più ridotte del CCD abbia meno rumore. E' solo una leggenda? è la post produzione on camera? il convertitore A/D?
*



Come ho già risposto a Led566 il fill factor penalizza ancora il Cmos.

Provengo da anni ed anni nei quali il Cmos era inguardabile: però bisogna anche ammettere che se lo propongono a livello professionale significa che la tecnologia deve aver fatto passi da gigante.
Io non sono in grado di dire, come ho già scritto, se una foto tradizionale provenga da un ccd o da un cmos.
Sono quasi certo che un giorno staremo a discutere se una camera a 3 sensori avrà più rumore di una a singolo sensore. wink.gif

Mi spiace se non mi dilungo di più, ma, se non ho qualcosa di valido da dire, preferisco star zitto.

Ciao

Enzo

Inviato da: gu.ru il Feb 14 2006, 11:54 AM

Ciao Vincenzo,
è tutto molto interessante e istruttivo.

Vorrei solo una conferma sul calcolo delle conseguenze dei bit "mangiati" dal rumore. Prendendo i valori dell' esempio, ovvero un rumore di 104 elettroni, con un convertitore a 12 bit (e conseguentemente responsabile di una discretizzazione in 4096 passi) che nel sensore dell' esempio "apprezza" 12 elettroni a passo. Va tutto bene finchè affermiamo che 104 elettroni ovviamente "occupano" 9 passi.

Cerchiamo di capire come solo 9 passi su 4096 possano far precipitare 4096 tonalità a sole 256 !!!

Sono riuscito a seguirti solo fino a un certo punto, ovvero: alla fine della fiera il numero di elettroni "contati" ha una incertezza di 104, ovvero potrà essere 10000 +/- 104, che in passi si traduce in 4096 +/- 9. Questo, tradotto in binario, farà "ballare" gli ultimi 4 bit dei 12 del convertitore, in quanto il +/-9 sulle unità decimali è espresso dagli ultimi 4 dei 12 bit.

Fin qui tutto bene.

Ma a questo punto tu, dicendo che allora i bit significativi da 12 diventavano 8, quegli ultimi 4 bit li hai disintegrati, "shiftando", come si dice in gergo, i rimanenti bit verso destra di quattro posizioni; hai di fatto diviso per 2 alla quarta (16) il numero iniziale (4096).

Perchè?

Perchè adesso io mi ritroverei con sole 256 tonalità sul pixel, piuttosto che con le mie 4096 iniziali, e semplicemente una lettura che mi lascerebbe una incertezza di 18 (+/-9) tonalità su 4096?

Un saluto
Guido


Inviato da: Led566 il Feb 14 2006, 12:10 PM

QUOTE(gu.ru @ Feb 14 2006, 12:54 PM)
Ciao Vincenzo,
è tutto molto interessante e istruttivo.
...
Cerchiamo di capire come solo 9 passi su 4096 possano far precipitare 4096 tonalità a sole 256 !!!
...
Un saluto
Guido
*



Ci provo io: per contare da 0 a 9 hai bisogno di 4 bit...quindi tutto quello che per esempio sta in mezzo tra 10101010XXXX e 10101011XXXX non conta perché é rumore: i passi significativi non affetti da rumore restano 256 (8 bit).


P.S. battutaccia (non è rivolta a te gu.ru, mi raccomando wink.gif ):

La gente si divide in 10 categorie: quelli che capiscono il sistema binario e quelli che non lo capiscono... biggrin.gif

Inviato da: digiborg il Feb 14 2006, 01:30 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 14 2006, 06:26 AM)

Sono quasi certo che un giorno staremo a discutere se una camera a 3 sensori avrà più rumore di una a singolo sensore. wink.gif
*



quindi pensi che in futuro, come già successo per altre tecnologie (vedi stabilizzatore), seguiremo la strada delle videocamere di ultima generazione con 3 CCD, uno per ogni colore?
non sarebbe male come idea smile.gif

Inviato da: digiborg il Feb 14 2006, 01:37 PM

QUOTE(Led566 @ Feb 14 2006, 12:10 PM)

La gente si divide in 10 categorie: quelli che capiscono il sistema binario e quelli che non lo capiscono... biggrin.gif
*



io sono della... "01" categoria tongue.gif

Inviato da: gu.ru il Feb 14 2006, 01:58 PM


"Ci provo io: per contare da 0 a 9 hai bisogno di 4 bit...quindi tutto quello che per esempio sta in mezzo tra 10101010XXXX e 10101011XXXX non conta perché é rumore: i passi significativi non affetti da rumore restano 256 (8 bit)."

Sicuro, non ci piove.

Cerco di spiegare meglio la mia perplessità: quello che voglio dire è che non solo conta il numero di bit, ma anche la loro posizione. Rendere non significativi i 4 bit di sinistra non significa toglierli e "spostare" verso destra i rimanenti. Fare questo significherebbe dividere il numero iniziale per 2 alla quarta.

I passi significativi sono senza dubbio 256 perchè i bit significativi sono 8, ma il numero esprimibile dal convertitore rimane sempre di 4096.

Il rumore non riduce l' output a 256 tonalità, ma le tonalità rimangono sempre 4096, suddivisibili però in 256 "gruppi". Secondo me ci sta una grande differenza.

Scusate, ma non riesco ad esprimermi meglio.

Un saluto
Guido



Inviato da: giulianodits il Feb 14 2006, 05:01 PM

Un grazie all'autore di questa discussione, che mi ha molto interessato, e complimenti per il suo alto livello di preparazione e per le non comuni doti di capacità di divulgazione e semplificazione in una materia in realtà altamente tecnica e specialistica.

Fa certamente piacere leggere ogni tanto una discussione d'alto livello e per di più priva delle polemiche e delle liti che purtroppo sembrano essere diventate una consuetudine anche dove gli argomenti e la preparazione dei partecipanti potrebbero offrire ben di meglio.

Saluti.

Inviato da: marcellop il Feb 14 2006, 05:12 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 9 2006, 07:13 PM)
Frequento da poco il forum Nital: quel tanto che basta per aver notato che uno degli argomenti principali è quello inerente al rumore. Mi occupo di digitale da 25 anni, prima con il video, poi con le still camera, scientifiche, astronomiche e tradizionali. Di queste ultime conservo nei miei cassetti ancora una Canon/Bauer (la primissima!). Di Nikon ho D1, D70, D50 ed è in arrivo una D200. Per motivi miei pratici e non certo  per sfizio testo tutte le macchine e in nessuna ho notato livelli di “rumore” come quelli segnalati, spesso impropriamente. Di foto tradizionali ne faccio relativamente poche e, visto che mi reputo un buon giudice di me stesso, ritengo che non siano meritorie di rimando a questo forum.
Mi permetto, però,  il tentativo di chiarire il concetto di rumore sperando di far cosa utile a qualcuno. Non userò alcuna formula né diagramma.

Ho notato che molti usano impropriamente il termine “rumore”, non ponendo distinzione tra segnale, rumore del segnale e rumore non dipendente da segnale.
Per capire bene cosa sia, immaginiamo di trovarci sotto una larga tettoia in una giornata di pioggia: se la pioggia è torrenziale, il suono delle gocce che colpiscono il nostro riparo ci sembra giungere uniforme da tutta la sua superficie. In caso di pioggerellina, invece, abbiamo ora l’impressione che piova più a destra, ora più a sinistra, ora più al centro… Questa variazione di direzione ed intensità del suono che colpisce le nostre orecchie è causata dalla non uniformità del numero di gocce piovane che la tettoia raccoglie per unità di superficie in ogni istante. La disuniformità è presente anche nella pioggia battente, solo che è una piccola percentuale della pioggia totale: così il nostro orecchio non riesce a percepirla. Questa disuniformità è ciò che nella fisica dei segnali viene chiamato “rumore” : se rappresentassimo un segnale uniforme ed omogeneo come una linea retta, il rumore insito nella sua raccolta trasformerebbe questa retta in una linea ondulata.
Possiamo asserire, quindi, che questo tipo di rumore è funzione del segnale, perché dipende totalmente da esso. Da notare il fatto che possiamo quantificarlo solo dopo aver raccolto il segnale, quindi non possiamo sapere a priori a quanto ammonterà numericamente. Ho promesso di non presentare formule: dovete quindi credere sulla parola a ciò che segue. Se nel sensore avessimo  accumulato un segnale luminoso pari a 100 (pioggerellina), il suo rumore sarebbe pari a 10, cioè il 10%. Se raccogliessimo 1000 (pioggia battente), il rumore sarebbe pari a 31, cioè il 3%.

Qualcuno si chiederà: esiste un rumore elettronico fine a se stesso, cioè che non sia funzione di un segnale? Certamente. Per scoprirlo continuiamo l’esempio della tettoia ed immaginiamo che questa sia ondulata, in modo che la pioggia sia convogliata verso dei secchielli di raccolta. Complichiamoci un poco la vita e facciamo sì che questi secchielli possano essere ruotati ma non staccati dalla tettoia: ora ci poniamo il gramo compito di controllare quanta acqua sia presente in ogni secchiello al termine della pioggia. Siamo costretti ad usare un altro secchiello: lo poniamo sotto quello appeso e solidale alla tettoia, ruotiamo questo, travasiamo l’acqua e ci dirigiamo verso una bilancia o un qualunque misuratore. Questa manovra la eseguiamo per ogni secchiello appeso alla tettoia. Vi sembra intuitivamente possibile che qualche goccia d’acqua non resti nel suo secchiello d’origine? O che non vada persa nel travaso? O che non debordi durante il trasporto? E la bilancia di misura è assolutamente esatta? Impossibile, neanche a pensarci. La quantità d’acqua che misureremo non corrisponderà mai a quella effettivamente raccolta. La differenza tra queste due quantità è un rumore puro, cioè che non dipende da un segnale ma dalla modalità di trattarlo. E’ prevedibile progettualmente? No. E’ misurabile? Sì. Come? Per via sperimentale. Nel caso della tettoia, ad esempio, potremmo versare su di essa una quantità nota di acqua e controllarne, poi, quanta ci risulti alla misurazione finale. Nelle nostre macchine questo rumore si chiama rumore di lettura (readout noise) e, con semplicità,  possiamo dire che comprende i processi di trasferimento della carica del pixel, il suo passaggio attraverso l’amplificatore e la sua trasformazione in entità numeriche intellegibili dal computer.
Le case costruttrici misurano in maniera molto sofisticata questo rumore di lettura e le sue possibili variazioni in relazione alle regolazioni dell’utente, regina tra tutte la scelta della sensibilità ISO. A questo proposito cerchiamo di capire bene un concetto: quando scegliamo una pellicola con diverso valore ISO, effettivamente scegliamo un prodotto con la sensibilità desiderata. Quando, invece, impostiamo sulle nostre macchine digitali un valore ISO, stiamo scegliendo solo il livello di amplificazione del segnale proveniente dalla lettura del pixel. Non agiamo sulla sensibilità. Questa dipende dalle scelte del costruttore del sensore ed è immutabile. E aumentando l’amplificazione, cioè il guadagno, aumentiamo esponenzialmente il rumore di lettura.

Per darvi qualche dato esemplificativo, il Read-out noise medio della D70 è di circa 7 elettroni/pixel. Il suo segnale termico è inferiore a 0,1 elettroni/ pixel/secondo! Sono quasi delle nullità se pensate che il pixel della D70 può arrivare a contenere più di 35000 elettroni liberati dal segnale luminoso. Solo 7-10 anni fa costosissimi ccd scientifici (che uso ancora) presentavano un segnale termico a 20° di 20-80 elettroni/pixel/secondo, con rumore di lettura superiore a 40-100 elettroni…

Spero di aver suscitato la curiosità necessaria per leggere il manuale di Maio, dove la trattazione è più completa. Se qualcuno, invece, volesse approfondire tecnicamente l’argomento sono disponibile anche privatamente (il mio riferimento è in chiaro).

Che la luce sia con noi.

Enzo Franchini
*



Grazie Enzo Lampadina.gif Sicuramente illuminante.

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 15 2006, 07:51 PM

QUOTE(gu.ru @ Feb 14 2006, 11:54 AM)
Ciao Vincenzo,
è tutto molto interessante e istruttivo.

Vorrei solo una conferma sul calcolo delle conseguenze dei bit "mangiati" dal rumore. Prendendo i valori dell' esempio, ovvero un rumore di 104 elettroni, con un convertitore a 12 bit (e conseguentemente responsabile di una discretizzazione in 4096 passi) che nel sensore dell' esempio "apprezza" 12 elettroni a passo. Va tutto bene finchè affermiamo che 104 elettroni ovviamente "occupano" 9 passi.

Cerchiamo di capire come solo 9 passi su 4096 possano far precipitare 4096 tonalità a sole 256 !!!

Sono riuscito a seguirti solo fino a un certo punto, ovvero: alla fine della fiera il numero di elettroni "contati" ha una incertezza di 104, ovvero potrà essere 10000 +/- 104, che in passi si traduce in 4096 +/- 9. Questo, tradotto in binario, farà "ballare" gli ultimi 4 bit dei 12 del convertitore, in quanto il +/-9 sulle unità decimali è espresso dagli ultimi 4 dei 12 bit.

Fin qui tutto bene.

Ma a questo punto tu, dicendo che allora i bit significativi da 12 diventavano 8, quegli ultimi 4 bit li hai disintegrati, "shiftando", come si dice in gergo, i rimanenti bit verso destra di quattro posizioni; hai di fatto diviso per 2 alla quarta (16) il numero iniziale (4096).

Perchè?

Perchè adesso io mi ritroverei con sole 256 tonalità sul pixel, piuttosto che con le mie 4096 iniziali, e semplicemente una lettura che mi lascerebbe una incertezza di 18 (+/-9) tonalità su 4096?

Un saluto
Guido
*



Ciao Guido,

vediamola da un'altro punto di vista, mantenendo l'esempio precedente.
Abbiamo ripreso un soggetto ricco di dettagli finissimi, che poco si discostano tra loro. Un esempio potrebbe essere la fine peluria di un tipico incarnato femminile: non complichiamoci la vita e riprendiamo in bianco e nero. I due particolari, il volto e la peluria, saranno rappresentati da toni di grigio ravvicinatissimi tra loro e assegniamo alla peluria una tonalità più chiara di grigio. Modifico appena i valori per avere cifre tonde. Diciamo che l'incarnato totalizza 9996 elettroni. Dal convertitore uscirà un valore di (9996:12)=833.Ti ricordo che 12 è il passo. Abbiamo calcolato un rumore di 108, significa che per distinguere la peluria questa deve avere un valore almeno di 108 elettroni superiore ai 9996 del volto, cioè 10104, pari ad un valore tradotto di (10104:12)= 842. Quindi, ogni particolare che dia un valore compreso tra 833 e 841 non si distinguerà dall'incarnato in stampa. Che differenza c'è tra 842 e 833? 9 valori. Se dividiamo 4096 per 9 (cioè per gli intervelli reali di risoluzione delle tonalità di grigio), otteniamo 455 intervalli reali all'interno dei 4096 teorici. Da 12 bit siamo scesi a 9! Se poi vogliamo calcolare le virgole e considerare l'imprecisione obbligata della conversione a colori, scompare un altro bit.

Sono riuscito a spiegarmi meglio?
Vedi che non c'è nessuno shift a dx, nè carry flags che si accendono?

Manca qualche passaggio peggiorativo, ma sto cercano di spiegare il principio.

Ed ecco un'altra grande differenza tra raw e jpeg: il jpeg codifica ad 8 bit. Nel NEF (raw) potremo invece analizzare anche il rumore, con tutta l'estensione dei 12 bit.

Ciao a tutti e scusate la mia breve assenza.

Enzo




Inviato da: vincenzo.franchini@fastwebnet.it il Feb 15 2006, 07:58 PM

QUOTE(giulianodits @ Feb 14 2006, 05:01 PM)
Un grazie all'autore di questa discussione, che mi ha molto interessato, e complimenti per il suo alto livello di preparazione e per le non comuni doti di capacità di divulgazione e semplificazione in una materia in realtà altamente tecnica e specialistica.

Fa certamente piacere leggere ogni tanto una discussione d'alto livello e per di più priva delle polemiche e delle liti che purtroppo sembrano essere diventate una consuetudine anche dove gli argomenti e la preparazione dei partecipanti potrebbero offrire ben di meglio.

Saluti.
*




Grazie a tutti voi che replicate con spirito costruttivo.

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 15 2006, 08:09 PM

QUOTE(digiborg @ Feb 14 2006, 01:30 PM)
quindi pensi che in futuro, come già successo per altre tecnologie (vedi stabilizzatore), seguiremo la strada delle videocamere di ultima generazione con 3 CCD, uno per ogni colore?
non sarebbe male come idea smile.gif
*



Ho solo tratto spunto dal mondo delle videocamere: tecnicamente, una volta risolto il problema della compatibilità del parco ottiche esistente, non dovrebbero esserci grandi problemi.
Sono solo mie illazioni non supportate da nulla di concreto.

Ciao

Enzo

Inviato da: Giuseppe Maio il Feb 19 2006, 09:46 PM

Dear All..

Riapro questa discussione dopo il make-up resosi necessario.
Mi scuso con coloro che avevano postato utili argomentazioni tra i messaggi successivi consapevole che tutti gli interessati hanno compreso il fine.

Buona continuazione...

Giuseppe Maio
www.nital.it

Inviato da: mdj il Feb 20 2006, 04:52 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 14 2006, 06:26 AM)
Sono quasi certo che un giorno staremo a discutere se una camera a 3 sensori avrà più rumore di una a singolo sensore. wink.gif


E questo che mi rammarica... rolleyes.gif
Al posto di pensare alla fotografia nel senso della parola, gli utilizzatori vanno sempre più sull'aspetto che nulla può influire sulla bellezza di uno scatto, concentrando l'attenzione sull'ingrandimento al microscopio dei pixel, anzichè soffermarsi ad osservare il risultato di una buona stampa.

Io continuerò a far stampare le mie immagini, ed ammirare i risultati. Gli altri facciano quello che vogliono.

Ad ogni modo, non posso che guru.gif inchinarmi di fronte a queste spiegazioni, e porgere i miei più sinceri complimenti a Vincenzo Franchini

grazie.gif

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 20 2006, 08:04 PM

QUOTE(mdj @ Feb 20 2006, 04:52 PM)
E questo che mi rammarica...  rolleyes.gif
Al posto di pensare alla fotografia nel senso della parola, gli utilizzatori vanno sempre più sull'aspetto che nulla può influire sulla bellezza di uno scatto, concentrando l'attenzione sull'ingrandimento al microscopio dei pixel, anzichè soffermarsi ad osservare il risultato di una buona stampa.


Se può contare trovo che tu abbia ragione piena: il fine della fotografia è fotografare e goderne i frutti, magari condividendone con altri il piacere.
Almeno, qui, in questa stanzetta, non siamo fuori tema.

QUOTE
Io continuerò a far stampare le mie immagini, ed ammirare i risultati. Gli altri facciano quello che vogliono.

Ad ogni modo, non posso che  guru.gif  inchinarmi di fronte a queste spiegazioni, e porgere i miei più sinceri complimenti a Vincenzo Franchini

grazie.gif
*



Con le macchine digitali ho dovuto in parte tornare anch'io sul banco di scuola, perché presentano problemi per un certo qual verso differenti rispetto a quelle dedicate per astronomia ed imaging scientifico: essenzialmente il forte controllo che il firmware ha sul risultato finale e i valori di FWC relativamente bassi (non sto pensando solo alla nostra marca). Da appassionato di diapositive, sto cercando ancora il modo di riuscire a trasportarne la qualità della proiezione su grande schermo nel campo del digitale.
Ritengo che non sia assolutamente facile: il ricampionamento a scendere per proiettare su grande schermo penalizza grandemente la qualità.

Sulla mia battuta delle macchine a 3 sensori, come ho già detto, è una pura illazione, senza notizie o sentito dire alle spalle. Semplice spunto dalle videocamere e dal fatto che in astronomia usiamo il doppio sensore da anni.

Grazie dell'apprezzamento (...preparati perché sto per rientrare in linea...)

Enzo Franchini

Inviato da: MLJ il Feb 20 2006, 08:27 PM

Ciao, volevo sapere se un CCD interline "produce" piu' o meno rumore di un CCD full frame, e sapere magari le differenze.
Ciao Gianni MLJ

Inviato da: flavio.coppo1@tin.it il Feb 20 2006, 08:45 PM

salve a tutti ma volevo porvi una domanda che per i più avrà una risposta ovvia,ma per me no,dunque la domanda di ordine puramente pratico è la seguente:è più visibile il rumore generato da una sensibilità maggiore o da un tempo di esposizione più lungo?cioè dovendo scattare in una situazione di luce limite(notte) cosa è conveniente prediligere?ciao.

Inviato da: P.Pazienza il Feb 20 2006, 09:57 PM

QUOTE(flavio.coppo1@tin.it @ Feb 20 2006, 08:45 PM)
salve a tutti ma volevo porvi una domanda che per i più avrà una risposta ovvia,ma per me no,dunque la domanda di ordine puramente pratico è la seguente:è più visibile il rumore generato da una sensibilità maggiore o da un tempo di esposizione più lungo?cioè dovendo scattare in una situazione di luce limite(notte) cosa è conveniente prediligere?ciao.
*



Credo sia preferibile scattare con un tempo di posa lungo e la sensibilità ISO più bassa possibile; soprattutto perchè, nella pratica, un tempo lungo (da 1/30 in poi) sarà responsabile di un rumore termico e la riduzione di tale disturbo, con la tecnica del Dark Frame, offre risultati migliori delle varie funzioni di riduzione del disturbo causato da una elevata amplificazione ISO perchè consente di contenere la perdita di dettaglio entro valori "accettabili".

Correggetemi se sbaglio...

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 21 2006, 06:20 AM

QUOTE(P.Pazienza @ Feb 20 2006, 09:57 PM)
Credo sia preferibile scattare con un tempo di posa lungo e la sensibilità ISO più bassa possibile; soprattutto perchè, nella pratica, un tempo lungo (da 1/30 in poi) sarà responsabile di un rumore termico e la riduzione di tale disturbo, con la tecnica del Dark Frame, offre risultati migliori delle varie funzioni di riduzione del disturbo causato da una elevata amplificazione ISO perchè consente di contenere la perdita di dettaglio entro valori "accettabili".

Correggetemi se sbaglio...
*



Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.


Inviato da: gdonadio il Feb 21 2006, 10:44 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 21 2006, 06:20 AM)
Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati  sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.
*


Cosa è un esposizione dark?

Grazie

Gianluca


Inviato da: buzz il Feb 21 2006, 11:23 PM

dovrebbe essere una esposizione di "buio" atta a far uscire soltanto il rumore causato dal riscaldamento del CCD. Rumore che non è del tutto casuale, ma dipende dalla costruzione stessa del sensore.

Inviato da: Artephoto il Feb 23 2006, 05:42 PM

QUOTE
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.


Ciao! Vincenzo innanzi tutto davvero complimenti per la tua preparazione per il modo di esporre un argomento credo per molti interessantissimo ma alquanto ostico.
Perdona la mia poca esperienza sull'argomento potresti spiegare come fare, e, cosa intendi esattamente quando dici di chiedere al software di sottrarla dall'immagine-luce?

Michelangelo

Inviato da: buzz il Feb 23 2006, 09:09 PM

QUOTE(Artephoto @ Feb 23 2006, 05:42 PM)
Ciao! Vincenzo innanzi tutto davvero complimenti per la tua preparazione per il modo di esporre un argomento credo per molti interessantissimo ma alquanto ostico.
Perdona la mia  poca esperienza sull'argomento potresti spiegare come fare, e, cosa intendi esattamente quando dici di chiedere al software di sottrarla dall'immagine-luce?

Michelangelo
*



praticamente è quello che fa la macchina in automatico quando mette in funzione il NR su tempi lunghi. Chi non lo avesse ( pochissimi) può fare come suggerito da vincenzo nei suoi post precedenti. Uno scatto DELLO STESSO TEMPO DI ESPOSIZIONE DEL PRECEDENTE eseguitop immediatamente dopo.
Poi in photoshop si sovrappongono i due livelli e si usa come fusione il metodo sottratttivo.

Inviato da: Artephoto il Feb 23 2006, 09:12 PM

Buzz come al solito gentilissimo, quindi avendo la D2x per me non sarà un problema, utile comunque sapere come agire per chi non fosse in possesso della Belva! OK!

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 24 2006, 03:36 PM

Ripartiamo da dove eravamo rimasti: su una buccia di banana. La forzata e artata semplificazione di concetti non immediatamente percepibili, a volte, conduce ad errori. Il calcolo che avevo suggerito per spiegare un principio basilare conduce ad implicazioni errate sugli alti valori di segnale, perché mancante di un passaggio.
Se avete voglia di seguirmi e vi interessa l’argomento, ripartiamo da una visuale diversa.
Chi non abbia ben chiara la differenza tra analogico e digitale troverà una breve spiegazione nell'allegato che ho accluso .

Possiamo definire la Gamma Dinamica come il rapporto tra il massimo segnale registrabile (alte luci) ed il minimo segnale registrabile (ombre profonde). Poiché gli elettroni non si possono dividere in unità più piccole, quest’ultimo è considerato sempre pari ad 1. Un sensore costituito da pixel con FWC di 40000 elettroni restituisce, in questo modo, una gamma potenziale di 40000/1= 92 decibel. Sono, però, solo discorsi teorici, perché, nella realtà, siamo costretti a tenere conto del rumore del segnale (photon shot noise nella terminologia inglese).
Nel nostro esempio, la gamma reale restituita dal pixel (quindi, per esteso, dal sensore) crolla a 40000:200= 46 decibel. Attenzione che, rispetto a quella teorica, non è dimezzata: è di parecchi ordini di grandezza inferiore, a causa del procedimento che comporta calcoli logaritmici.
Questo dato non deve preoccuparvi: il nostro esempio porta ad una definizione di 200 toni di grigio e l’occhio umano non riesce a distinguerne più di 60-80, mentre i monitor non ne risolvono più di 100-120. Queste considerazioni ci fanno capire perché il formato Jpeg è peggiorativo per la restituzione della risoluzione spaziale, ma non per la restituzione del colore. I suoi 8 bit, che comportano 256 valori, definiscono abbondantemente i 200 toni della gamma del segnale. Ciò per pixel di grandezza fino 8-9 micrometri di lato: oltre questi valori il Jpeg comincia a perdere qualcosa anche nella restituzione della gamma dinamica. Ricordiamoci, però, che visivamente non ce ne accorgeremo: quindi è inutile iniziare “guerre di religione” verso questo formato smile.gif

In ogni fotocamera CCD e CMOS, però, il segnale non viene trasferito indisturbato a causa del rumore di lettura obbligato, possiamo trarre spunto dalla definizione che la Nikon stessa dà, ridefinendo la Gamma Dinamica come il rapporto tra il massimo segnale registrabile ed il rumore di lettura della camera. Il rapporto, quindi, diventa: FWC/readout noise. Nel nostro esempio, ipotizzando un realistico rumore di lettura di 10 elettroni/pixel, otterremmo un rapporto S/N (o gamma dinamica) di 40000/10= 72 db, abbondantemente al di sopra della gamma dinamica resa dal sensore.
Ogni convertitore al mondo restituisce un suo errore, detto di quantizzazione (o quantificazione, forse meglio nella nostra lingua), che è calcolabile dividendo il passo per 3,46 (questo divisore è dettato da leggi statistiche). Utilizzando sempre il nostro esempio, questo errore sarebbe pari, per un ADC a 10 bit, a: (40000/1024)/3,46 = 39/3,46 = 11,3 elettroni, valore superiore al readout noise. Non è accettabile: dove possiamo intervenire? La FWC non possiamo cambiarla, tantomeno il divisore. Ci resta il passo, che possiamo ridurre aumentando i bit del ADC. Se utilizzassimo un ADC a 12 bit otterremmo: (40000/4096)/3,46=2,8 elettroni, più di 3 volte inferiore al readout noise. Questo valore è accettabile. Ecco il perché della scelta di un ADC a 10, 12, 14,16 bit. Le Case calcolano il readout noise della camera e, in base a questo e alla FWC del pixel, calcolano la risoluzione ottimale in bit del ADC. E non porta a nulla la seguente conclusione: allora perché non usare ADC a 16, 24, 32…bit? La risposta è semplice: più alto il numero di bit, più lenta la velocità di codifica, più alto il consumo energetico, più pesante il file immagine. In medio stat virtus.

E che succede alla gamma dinamica del sensore, più bassa rispetto a quella dell’elettronica? Semplicemente si “spalma”: i 200 toni di grigio del nostro esempio, risolti dal sensore, si spalmano sui 4000 della gamma dinamica del circuito. Non pensate di trovare nel file in uscita 20 valori uguali per ognuno dei 200 grigi: saranno in ogni caso tutti lievemente diversi , perché interviene la variabilità statistica del segnale e l’errore di decodifica.

Ecco il senso di quanto affermato nel post precedente: la perdita virtuale di bit di risoluzione del ADC. Una gamma dinamica di 46 decibel può essere processata da un ADC a 72 db, ma non si può creare ciò che non esiste. 46 db entrano, 46 db escono (relativamente al nostro esempio).

Passiamo sul piano pratico e vediamo di tirare qualche conclusione, utile ai fini pratici.

1- a parità di bontà di progetto circuitale, la gamma dinamica è legata alle dimensioni del pixel: pixel minore = gamma minore. Le dimensioni del sensore non contano, se non per qualche piccola variabile che possiamo trascurare. E’ il motivo per cui le compatte, superpopolate da piccoli pixel, non possono reggere il confronto con i sensori delle reflex.

2- Non fidarsi dell’occhio, almeno fino a che la conoscenza con la propria fotocamera si sia approfondita. Valutate i valori di bianco, con i soliti programmi in vostro possesso o con l’istogramma sul display della macchina: il bianco deve saturare il pixel al 70-80 %. Valori inferiori significano luce insufficiente: aumentare l’esposizione. Valori troppo alti, 90-100% significano probabile perdita di alti toni: ridurre l’esposizione. Chi comanda è il bianco: insufficienti valori di bianco significano riduzione della gamma dinamica (è come se riducessimo la FWC) e rumore nelle basse luci. E’ una regola obbligata: non si può chiedere alla macchina l’impossibile. Per vostra curiosità, anche in astrofotografia si controlla il bianco: su stelle di cui si conoscono perfettamente le caratteristiche dello spettro luminoso, riportate nelle tavole astrofotometriche.

3- Un altro fattore peggiorativo dell’immagine è la non uniformità di risposta al segnale luce. I pixel sono tutti un po’ diversi tra loro in fatto di risposta alla luce. Il firmware ne tiene conto, ma deve fare di ogni erba un fascio. Imparate voi stessi ad applicare la funzione Dust Off delle Nikon anche se avete il sensore più pulito al mondo. Questa funzione ha un nome che trae un po’ in inganno, perché non serve solo ad eliminare dall’immagine l’effetto della polvere (dust) presente sul sensore: elimina, di fatto, le disuniformità di risposta dei pixel regalandovi superfici omogenee con colori di tonalità uniforme. Ne potremo riparlare.

4- Spingere gli ISO provoca obbligatoriamente rumore: io mi meraviglio di ciò che riescono a fare i firmware delle grandi Case al proposito. Infatti, un’altra formula che quantifica il readout noise è quella che lo definisce come: (guadagno dell’amplificatore * deviazione standard di immagini-differenza di bias-frames) / radice quadrata di 2. Lasciamo perdere i paroloni e guardiamo ciò che è veramente la chiave di tutto: se raddoppiamo l’amplificazione (ISO 1 valore più alto), il readout noise raddoppia, la gamma dinamica dimezza. Il firmware può solo tentare di correggere qualcosa che non può evitare. Se non avete particolari necessità pratiche o creative, lasciate perdere le regolazioni degli ISO.

5- Ove non sia necessario, evitiamo le 100 pose al secondo….la raffica non può restituire una qualità di immagine pari alle pose singole: peggiora il readout noise in tutte le sue componenti, il ADC scende di precisione, i pixel del sensore non riescono a “svuotarsi” completamente tra una posa e la successiva.

6- In situazioni di luce critica, con soggetti statici, usate la possibilità delle pose multiple (ogni 4 pose il rumore dimezza, su 9 pose il rumore si riduce di 3 volte…) Purtroppo non è utilizzabile per tutto ciò che sia in movimento. Non fatevi venire l’idea di utilizzare la stessa posa per nove volte, perché in questo caso il rumore salirebbe di pari passo.

7- All'inizio di ogni sessione è bene eseguire un paio di pose in piena luce e scartarle: serve a ripulire i pixel e tutta l'elettronica di contorno da elettroni spuri.

Ho enunciato i principi base del rumore, nelle sue principali manifestazioni: molto resta da dire, ma diventerebbe un discorso per puri addetti ai lavori o superappassionati all’argomento.

In molti mi hanno chiesto ove poter approfondire l’argomento. Suggerirei:
Il libro di Maio, che conosciamo tutti.

Christian Buil, CCD Astronomy, Wilkmann-Bell Inc, ISBN 0-943396-29-8
(Molto tecnico nella parte iniziale. Comporta un po’ di conoscenza di elettronica e infarinatura di chimica. La parte dedicata all’astronomia occupa solo la seconda metà del libro e, in ogni caso, fornisce implicazioni interessanti anche per la fotografia tradizionale)

Martinez-Clotz, A practical Guide to CCD, Cambridge University Press, ISBN 0-521590-63-9.
Facile e limitato all’essenziale.

Purtroppo sono in lingua inglese, anche se scientifico, quindi semplice, e non ne esiste traduzione italiana: facilmente reperibili alla libreria Hoepli, Milano (www.hoepli.it) o sui circuiti internet.

Un saluto a tutti

Enzo Franchini


 AnaDig.txt ( 4.17k ) : 276
 

Inviato da: lucaoms il Feb 24 2006, 03:46 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 03:36 PM)
Ripartiamo da dove eravamo rimasti:
..... alla libreria Hoepli, Milano (www.hoepli.it) o sui circuiti internet.

Un saluto a tutti

Enzo Franchini
*


non me lo sonomletto tutto (è quasi un libro) ma i concetti si...e devo dire che sei riuscito (con un sacco di voglia che io non avrei avuto) ad portare un po di chiarezza su un argomento quantomeno da tesi di laurea....
cpmplimenti e grazie.

Inviato da: robyt il Feb 24 2006, 04:18 PM

Veramente un lavoro pregevole.
Utilissimi i consigli pratici che possiamo applicare anche alle nostre macchinette.
Grazie Vincenzo.

Inviato da: gianni534 il Feb 24 2006, 05:59 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 03:36 PM)
...
Possiamo definire la Gamma Dinamica come il rapporto tra il massimo segnale registrabile (alte luci) ed il minimo segnale registrabile (ombre profonde)....Enzo Franchini


Intanto i miei complimenti per "il dono" che possiedi di rendere intuibili concetti maledettamente ostici...e leggendo il tuo intervento mi è venuta una domanda che ti pongo subito: ...se immaginassimo di fotografare con una macchina digitale una immagine chiara nella parte superiore e scura in quella inferiore, oppure al contrario, e fornissimo ai pixel una matrice che con cui deve confrontarsi e che gli dice se si trova nella parte chiara o in quella scura e quindi può eliminare una parte delle informazioni ....non avremo così la possibilità di eliminare (in questa particolare situazione) il 50 % del rumore?
Se ho detto una stupidaggine fatti una risata cool.gif, comunque grazie per il tuo lavoro e continua su questa strada con passo analogico o digitale... guru.gif
Ciao, Gianni

Inviato da: gdonadio il Feb 24 2006, 06:09 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 21 2006, 06:20 AM)
Concordo. Il motivo per cui è meglio un segnale termico con il suo rumore che un rumore di amplificazione consiste proprio in ciò che hai detto: è riproducibile abbastanza bene e, quindi, eliminabile. Dalle prove sulle macchine in mio possesso, comunque, direi che fino ad ISO 400, in condizione di bassa luminosità, i risultati  sono accettabili. Sul segnale termico il firmware fa bene il suo dovere anche fino ad 1 sec di esposizione; comincia a notarsi, ma sempre su valori inimmaginabili fino a 5-6 anni fa, in esposizioni più lunghe.
Per eliminare il segnale termico da immagini non critiche, eseguite, immediatamente dopo l'esposizione, un'altra esposizione identica, ma con obiettivo chiuso, e dite al software di sottrarla dall'immagine-luce.
Nelle immagini molto critiche il procedimento diventa più lungo: eseguite, immediatamente, 9 esposizioni dark, fate estrarre al programma la mediana (non la media) su tutte le 9 pose dark e fategli sottrarre il risultato dall'immagine luce.

Se si pensa di non aver il tempo per eseguire 9 dark, si può sempre creare, a casa o in studio, una piccola banca dati dei dark, suddivisa per diversi livelli di temperatura ambiente per diversi tempi di esposizione, per poi utilizzarla nelle situazioni limite. E' ovvio che ogni tanto questa banca dati andrebbe aggiornata.
*



Insomma un pò come un immagine "dust off" per la polvere sul sensore?

grazie.gif

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 24 2006, 06:15 PM

QUOTE(gdonadio @ Feb 24 2006, 06:09 PM)
Insomma un pò come un immagine "dust off" per la polvere sul sensore?

grazie.gif
*



Sì. Nei manuali esiste poco su questo argomento, ma è comprensibile. Chi passa dall'analogico al digitale, si ritrova immediatamente con un numero di variabili che incute timore a chiunque: meglio non mettere troppa carne al fuoco e aspettare che la progressiva esperienza e curiosità del fotografo facciano il resto.

Enzo

Inviato da: gdonadio il Feb 24 2006, 06:22 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 06:15 PM)
Sì. Nei manuali esiste poco su questo argomento, ma è comprensibile. Chi passa dall'analogico al digitale, si ritrova immediatamente con un numero di variabili che incute timore a chiunque: meglio non mettere troppa carne al fuoco e aspettare che la progressiva esperienza e curiosità del fotografo facciano il resto.

Enzo
*



Mi viene in mente che allora potrei provare proprio la funzione dust off di capture...chissà che non funzioni????

Gianluca

Inviato da: Seawolf D70 il Feb 24 2006, 06:27 PM

se mi posso permettere... ecco il valore aggiunto di un grande Forum
grazie Vincenzo

ciao
Giorgio

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 24 2006, 06:28 PM

QUOTE(gianni534 @ Feb 24 2006, 05:59 PM)
Intanto i miei complimenti per "il dono" che possiedi di rendere intuibili concetti maledettamente ostici...e leggendo il tuo intervento mi è venuta una domanda che ti pongo subito: ...se immaginassimo di fotografare con una macchina digitale una immagine chiara nella parte superiore e scura in quella inferiore, oppure al contrario, e fornissimo ai pixel una matrice che con cui deve confrontarsi e che gli dice se si trova nella parte chiara o in quella scura e quindi può eliminare una parte delle informazioni ....non avremo così la possibilità di eliminare (in questa particolare situazione) il 50 % del rumore?
Se ho detto una stupidaggine fatti una risata  cool.gif, comunque grazie per il tuo lavoro e continua su questa strada con passo analogico o digitale...  guru.gif
Ciao, Gianni
*



No, non hai detto una stupidaggine. Sono io che non ho capito bene i termini della questione, soprattutto riguardo la matrice. Me la riformuli per favore?

Grazie, anche per l'apprezzamento.

Enzo

Inviato da: gdonadio il Feb 24 2006, 07:28 PM


Hai mai provato ad usare la funzione "dust off" di capture? rinominando ovviamente l'esposizione dark...è una c....ta?

Ciao

Gianluca

Inviato da: buzz il Feb 24 2006, 08:18 PM

Grandioso intervento!

Solo una cosa mi risulta ostica, perchè viene data per scontata:
la formula per il calcolo dei Db.
quando dici che 40000.1 fa 92 e 40000:200 fa 46 rimango un po' di stucco...
e dire che una volta ci facevo i calcoli per l'audio, sui rapporti S/N..

inoltre: i sensori Cmos, non hanno il sistema di svuotamento a cascata. Le "racciomandazioni" sulla raffica (calore) e sugli scatti "a vuoto" valgono anche per quella tecnologia? e l'LBcast?
Mi permetto di chiedertelo per avere una completezza di nozioni.

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 25 2006, 04:37 AM

QUOTE(gdonadio @ Feb 24 2006, 07:28 PM)
Hai mai provato ad usare la funzione "dust off" di capture? rinominando ovviamente l'esposizione dark...è una c....ta?

Ciao

Gianluca
*



Purtroppo non è possibile. Sono due procedimenti totalmente diversi.
Nel Dust off succede questo:
- viene presa come riferimento una posa eseguita verso una sorgente di luce uniforme.
- poiché si suppone che in tal caso il flusso fotonico sia omogeneo, ogni disparità di lettura nei pixel è una conseguenza della diversa risposta alla luce, dovuta sia a differenze costruttive del pixel sia alla presenza di aloni, macchie o polvere sul sensore sia a vignettatura causata dall'obiettivo. Se la causa fosse il pixel, la risposta potrebbe essere minore, uguale o maggiore rispetto alla media estratta da tutti i pixel del sensore. Negli altri casi, naturalmente, solo minore.

- il software calcola la media della risposta dei pixel: diciamo, per esempio, 10000

- esamina la risposta di ogni pixel del sensore dividendo il valore letto per 10000. Ad esempio, se il pixel A facesse leggere 9800, sarebbe 9800/10000=0,98. Se nel pixel B fosse 10300, otterremmo 1,03. Questo calcolo viene eseguito e memorizzato pixel per pixel.

- quando si va ad elaborare un'immagine con la funzione dust off, il software esegue una semplice divisione. Divide il valore del pixel dell'immagine da processare per il valore della risposta relativa a quel pixel. Per esempio, se nel pixel A si leggesse il valore 25000, avremmo: 25000:0,98=25510; se nel pixel B si leggesse 5000, avremmo: 5000:1,02=4902. In pratica il valore di ogni pixel viene ricalcolato sulla base della sua risposta ad una sorgente di luce uniforme.

Il dark (meglio chiamarlo dark frame), invece, è l'immagine della corrente di buio, che va sottratta dall'immagine. Operazione totalmente diversa.

Nikon ha chiamato così la funzione dust off per renderla facilmente capibile e ... amichevole verso l'utilizzatore. Il suo vero nome, in realtà, è "Applicazione del Flat Field" ed è uno dei cardini della fotografia digitale. Ci sono lunghissimi paragrafi e teorie sulle modalità di esecuzione dell'immagine Flat Field (che, tradotto, significa immagine di un campo piatto). Nella fotografia scientifica e in astronomia non esiste immagine digitale cui non venga applicata tale funzione.
Non lo so per certo, ma immagino che il firmware delle nostre macchine abbia in memoria un'immagine di riferimento della risposta di ogni singolo pixel.

Ho fatto una piccola ricerca in tutto il forum, forse non ho inserito le parole giuste, ma non ho trovato alcun lungo 3D sul dust off o flat field. E questo mi meraviglia un po', perché ritengo che almeno i professionisti di studio dovrebbero avere una banca dati sul flat relativo ad ogni obiettivo e ad ogni diaframmatura. Probabilmente si pensa che l'azione del firmware sia sufficiente in ogni situazione. Anche le riviste ne parlano molto poco.

Ho esposto solo il principio del dust off e mi fermo qui, perché il discorso sul flat ci porterebbe molto lontano (esecuzione, calibrazione del flat ...) e non voglio aggiungere troppa carne al fuoco del malloppone che vi ho dato in pasto.


Ciao

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 25 2006, 05:22 AM

QUOTE(buzz @ Feb 24 2006, 08:18 PM)
Grandioso intervento!

Solo una cosa mi risulta ostica, perchè viene data per scontata:
la formula per il calcolo dei Db.
quando dici che 40000.1 fa 92 e 40000:200 fa 46 rimango un po' di stucco...
e dire che una volta ci facevo i calcoli per l'audio, sui rapporti S/N..


Il moltiplicatore è 20.
Da cui : 20*log(S/N). Naturalmente il logaritmo è in base 10.

QUOTE
inoltre: i sensori Cmos, non hanno il sistema di svuotamento a cascata. Le "racciomandazioni" sulla raffica (calore) e sugli scatti "a vuoto" valgono anche per quella tecnologia? e l'LBcast?
Mi permetto di chiedertelo per avere una completezza di nozioni.
*



Gli scatti a vuoto servono soprattutto per ripulire il sensore dalle cariche che si fossero accumulate anche per il solo effetto della temperatura. Penso che CCD, CMOS, LBcast, superCCD, ICCD...soffrano tutti di questo effetto.
Sulla totale lettura del pixel durante la raffica ho letto che il cmos si comporta meglio: non sono un elettronico e non posso darti una risposta motivata. Anche solo concettualmente, però, capisco che il readout noise nel cmos deve essere maggiore rispetto al ccd, perché si tratta di gestire milioni di singoli amplificatori contro i pochi stadi (se non il singolo) del ccd.

Penso che qualche esperto di elettronica che ci segua possa risponderti più dettagliatamente.

Grazie delle parole.

Enzo




Inviato da: gianni534 il Feb 25 2006, 08:22 AM

QUOTE
No, non hai detto una stupidaggine. Sono io che non ho capito bene i termini della questione, soprattutto riguardo la matrice.


Pollice.gif così mi hai risposto!

QUOTE
Non lo so per certo, ma immagino che il firmware delle nostre macchine abbia in memoria un'immagine di riferimento della risposta di ogni singolo pixel


ciao e grazie, Gianni

Inviato da: P.Pazienza il Feb 25 2006, 10:17 AM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 24 2006, 03:36 PM)
6- In situazioni di luce critica, con soggetti statici, usate la possibilità delle pose multiple (ogni 4 pose il rumore dimezza, su 9 pose il rumore si riduce di 3 volte…) Purtroppo non è utilizzabile per tutto ciò che sia in movimento. Non fatevi venire l’idea di utilizzare la stessa posa per nove volte, perché in questo caso il rumore salirebbe di pari passo.
Enzo Franchini
*



Mi sfugge il senso di questo punto.
Perchè ogni 4 pose il rumore dimezza? Stai parlando del rumore del segnale o del rumore di lettura? hmmm.gif

Tutto il resto Pollice.gif

grazie.gif

Inviato da: buzz il Feb 25 2006, 10:54 AM

Hai parlato del flat-field, e hai aperto un'altro varco verso una discussione che forse ha poco a che vedere con il rumore, ma che credo sia molto interessante.
In effetti nemmeno io ho mai letto qualcosa a riguardo su questo forum, ma quanto hai spiegato, mi fa venire in mente una caratteristica comune alle Nikon che usano il sistema matrix, sin dai tempi delle analogiche. Ovvero le scene in memoria.

Si dovrebbe trattare di una serie abbastanza cospiqua di "scenari" presenti nella memoria delle nostre nikon, che farebbe il confronto con l'immagine scattata e adatterebbe l'esposizione. QUesta cosa non l'ho mai avuta ben chiara, pur avendop avuto svariate volte la conferma della sua esistenza. Credi che dsi tratti di qualcosa simile al fdlat field di riferimento (come principio di funzionamento)

Un'altra domanda, anche se non sei un elettronico (lo ero io ma avendo abbandobnato da tempo gli studi sono rimasto anni indietro e con i progressi che ci sono stati è parecchio):
Anche secondo me, concettualmente, il Cmos deve amplificare di più del CCD per i 2 motivi (dimensioni sito e tipologia). MA come si può spiegare quindi che le immagini attuali vengano percepite con un rumore generale inferiore ( alle alte sensibilità)? Potrebbe tratarsi di un semoplice algoritmo di pulizia (tipo noiseware) o credi ci sia dell'altro?

Inviato da: Led566 il Feb 25 2006, 11:19 AM

QUOTE(buzz @ Feb 25 2006, 11:54 AM)
...
Un'altra domanda, anche se non sei un elettronico (lo ero io ma avendo abbandobnato da tempo gli studi sono rimasto anni indietro e con i progressi che ci sono stati è parecchio):
Anche secondo me, concettualmente, il Cmos deve amplificare di più del CCD per i 2 motivi (dimensioni sito e tipologia). MA come si può spiegare quindi che le immagini attuali vengano percepite con un rumore generale inferiore ( alle alte sensibilità)? Potrebbe tratarsi di un semoplice algoritmo di pulizia (tipo noiseware) o credi ci sia dell'altro?
*



Nella presentazione della Canon 30D si dice che il sensore ha della circuiteria di riduzione del rumore : "The sensor features a newly developed set of narrow-gap microlenses and noise reduction circuits to improve performance at high ISO values, and optimized photodiode configurations for improved performance at all ISO values".
Cioé la riduzione del rumore avviene a livello del sensore stesso.
Addirittura leggendo la "white paper" (che non sto più trovando) mi era sembrato di capire che tale circuiteria è sul singolo pixel (anche se mi sembra poco verosimile, visto che materialmente il pixel del CMOS ospita già di per sé il fotodiodo ed almeno 3 transistor...)

Inviato da: gdonadio il Feb 25 2006, 12:32 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 25 2006, 04:37 AM)
Purtroppo non è possibile. Sono due procedimenti totalmente diversi.
.......
Il dark (meglio chiamarlo dark frame), invece, è l'immagine della corrente di buio, che va sottratta  dall'immagine. Operazione totalmente diversa.
.........
Ciao

Enzo
*




Grazie per la esauriente e completa risposta...mi sembrava troppo bello e facile!!!

Dove possiamo trovare del materiale valido sul dark frame e come si usa la tecchina sottrattiva...mi sembra che sia molto, ma molto, ma molto utilissma smile.gif

grazie.gif
Gianluca


Inviato da: vincenzo.franchini@fastwebnet.it il Feb 25 2006, 01:48 PM

QUOTE(P.Pazienza @ Feb 25 2006, 10:17 AM)
Mi sfugge il senso di questo punto.
Perchè ogni 4 pose il rumore dimezza? Stai parlando del rumore del segnale o del rumore di lettura? hmmm.gif

Tutto il resto  Pollice.gif

grazie.gif
*



Immaginiamo 4 immagini dello stesso soggetto, che naturalmente (e purtroppo) deve essere statico. Intuitivamente, in ognuna di queste 4 immagini ci aspetteremmo che ogni pixel recasse le stesse informazioni dei corrispondenti pixel delle altre 3. Questo in teoria. Nella realtà osserviamo che in ognuno di questi pixel il rumore (del segnale) non è assolutamente correlato con quello dei pixel corrispondenti nelle altre 3 immagini e viceversa. Ciò a causa della fluttuazione casuale del rumore.
In pratica succede questo, per un segnale ipotizzato 100, quindi di rumore atteso pari a 10:
_________________________________Segnale ______________Rumore

Ogni immagine separata_______________100_____________RadQuad(100)=10

4 iterazioni sulla stessa immagine ->___ 4*100=400_______4*RadQuad(100)=40

Somma di 4 immagini diverse->_______4*100=400_______RadQuad(4*100)=20
___________________________________________________________________

Tutto chiaro? In generale la radice quadrata del numero di immagini sommate ci dice di quanto si abbatte il rumore. Con 4 immagini di 2 volte, con 9 di 3 volte, con 16 di 4 volte ecc.

Quando necessitano calibrazioni accuratissime in laboratorio o in osservatorio, si arrivano a sommare centinaia e centinaia di immagini. Per fortuna non sarà mai il nostro caso (cioè nella fotografia tradizionale).

Stiamo parlando di rumore di segnale (photon shot noise). Per abbattere percentualmente il rumore di lettura l'unico modo che mi viene in mente d'acchito è il binning, cioè la somma del valore di matrici di pixel (2x2, 3x3, 4x4) prima che il segnale passi per l'amplificazione e la conversione analogico-digitale. La stragrande maggioranza delle macchine tradizionali, reflex e non, non offrono questa possibilità, per cui è meglio non aprire questo nuovo filone.

A cosa può servire, all'atto pratico, la somma di più immagini dello stesso soggetto nella fotografia tradizionale?
Nei paesaggi notturni per ridurre se non eliminare all'origine l'effetto scia dei veicoli, l'incedere dei passanti, le luci di un aeroplano che rompe i cosiddetti proprio in quel momento, o semplicemente per evitare di aumentare troppo gli ISO. Invece di esporre per 1 secondo, potremo effettuare 4 pose a 1/4 sec o 9 a 1/10 sec.

Un curiosità: una delle più famose foto del telescopio spaziale Hubble, quella che mostra migliaia di debolissime galassie ai confini estremi dell'universo, ha necessitato di 2 settimane di tempo e un migliaio di pose!

Sembra una procedura complicata, lo ammetto, in realtà è molto più semplice che passare poi ore al computer chiedendo salti mortali al nostro programma di elaborazione.

Spero di essere riuscito a chiarire il tuo quesito.

Ciao e grazie a te.

Enzo

Inviato da: vincenzo.franchini@fastwebnet.it il Feb 25 2006, 02:08 PM

QUOTE(buzz @ Feb 25 2006, 10:54 AM)
Hai parlato del flat-field, e hai aperto un'altro varco verso una discussione che forse ha poco a che vedere con il rumore, ma che credo sia molto interessante.
In effetti nemmeno io ho mai letto qualcosa a riguardo su questo forum, ma quanto hai spiegato, mi fa venire in mente una caratteristica comune alle Nikon che usano il sistema matrix, sin dai tempi delle analogiche. Ovvero le scene in memoria.

Si dovrebbe trattare di una serie abbastanza cospiqua di "scenari" presenti nella memoria delle nostre nikon, che farebbe il confronto con l'immagine scattata e adatterebbe l'esposizione. QUesta cosa non l'ho mai avuta ben chiara, pur avendop avuto svariate volte la conferma della sua esistenza. Credi che dsi tratti di qualcosa simile al fdlat field di riferimento (come principio di funzionamento)


Condivido la tua sensazione. Penso, però, che l'unico che possa illuminarci sia l'ing.Maio. (chissà se ci legge...)

QUOTE
Un'altra domanda, anche se non sei un elettronico (lo ero io ma avendo abbandobnato da tempo gli studi sono rimasto anni indietro e con i progressi che ci sono stati è parecchio):
Anche secondo me, concettualmente, il Cmos deve amplificare di più del CCD per i 2 motivi (dimensioni sito e tipologia). MA come si può spiegare quindi che le immagini attuali vengano percepite con un rumore generale inferiore ( alle alte sensibilità)? Potrebbe tratarsi di un semoplice algoritmo di pulizia (tipo noiseware) o credi ci sia dell'altro?
*



Francamente non lo so e quoto totalmente il commento di Led566. Però qualche diavoleria anche a livello firmware ci deve pur essere...
Mi vengono in mente tante ipotesi, ma non ho la competenza tecnica per discuterne.

Ciao Buzz

Enzo

Inviato da: P.Pazienza il Feb 25 2006, 04:45 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 25 2006, 01:48 PM)
Immaginiamo ...

Spero di essere riuscito a chiarire il tuo quesito.

Ciao e grazie a te.

Enzo
*



Non solo sei riuscito a chiarire i miei dubbi... ma mi hai fatto venir voglia di provare...

Qual'è il modo migliore per unire più immagini?

Credi che a questo scopo la funzione HDR di Photoshop CS2 possa andare bene? In questo modo, oltre a contenere il rumore si aumenterebbe anche la gamma dinamica dell'immagine... insomma, due piccioni con una fava! Lampadina.gif

Mi scuso in anticipo se ho detto una stupidaggine!



Inviato da: gdonadio il Feb 26 2006, 12:49 PM

Mi sembra che HDR di photoshop cs2 non funzioni......a meno che non ci siano impostazioni particolari da settare..........

Ciao

Gianluca

Inviato da: buzz il Feb 26 2006, 01:17 PM

Forse vuoi dire che non funziona bene....
la sua "funzionalità" la espleta, solo che personalmente non sono soddisfatto dei risultati. Magari approfondirò con delle prove in notturna.

Ti ricordo che è una funzione batch

Inviato da: gdonadio il Feb 26 2006, 04:27 PM

QUOTE(buzz @ Feb 26 2006, 01:17 PM)
Forse vuoi dire che non funziona bene....
la sua "funzionalità" la espleta, solo che personalmente non sono soddisfatto dei risultati. Magari approfondirò con delle prove in notturna.

Ti ricordo che è una funzione batch
*



Ma funzione anche con le immagini dark?
Forse sono io che sbaglio qualcosa huh.gif

Esistono altri sistemi/software specifici per effettuare la "sottrattiva" della dark?

Gianluca

Inviato da: buzz il Feb 27 2006, 01:33 AM

il sistema HDR serve a comprimere la dinamica di più foto.
Fai una sequenza di foto (con treppiede) di un panorama molto contrastato partendo ada una forte sottoesposizione finendo ad una forte sovraesposizione. Un bracketiong esagerato. Poi unisci le foto ( per es. da 5 a 9) con il sistema HDR e otterrai una sola foto nella quale sono visibili sia le ombre che le alte luci.

Inviato da: gdonadio il Feb 27 2006, 10:09 AM

QUOTE(buzz @ Feb 27 2006, 01:33 AM)
il sistema HDR serve a comprimere la dinamica di più foto.
Fai una sequenza di foto (con treppiede) di un panorama molto contrastato partendo ada una forte sottoesposizione finendo ad una forte sovraesposizione. Un bracketiong esagerato. Poi unisci le foto ( per es. da 5 a 9) con il sistema HDR e otterrai una sola foto nella quale sono visibili sia le ombre che le alte luci.
*



Ok .....ma io mi riferivo all'uso delle immagini dark per la riduzione del rumore!

Grazie

Gianluca

Inviato da: gianni534 il Mar 2 2006, 12:37 PM

Volevo segnalare l'articolo "La rivoluzione del sensore" sulla rivista CHIP di marzo...
ciao, Gianni

Inviato da: Led566 il Mar 25 2006, 08:05 AM

QUOTE(Led566 @ Feb 25 2006, 12:19 PM)
...Cioé la riduzione del rumore avviene a livello del sensore stesso.
Addirittura leggendo la "white paper" (che non sto più trovando) mi era sembrato di capire che tale circuiteria è sul singolo pixel ...
*



Scusate se mi autocito ma a proposito di quanto si diceva sulla riduzione del rumore nei CMOS Canon segnalo questo interessante link:
http://www.canon.co.jp/Imaging/cmos/technology-e/noise_reduction.html

Mentre per le differenze tra CCD e CMOS (e perché per le applicazioni scientifiche il CCD è di molto superiore al CMOS) e sulle possibili evoluzioni segnalo questo documento (piuttosto tecnico...):
http://huhepl.harvard.edu/~LSST/general/Janesick_paper_2003.pdf

Purtroppo sono in inglese...buona lettura a chi è interessato.

Inviato da: luciocaste il Mar 25 2006, 05:04 PM

Hai spiegato in modo chiaro ed esaustivo il concetto die rumore.

Grazie

Inviato da: Galeno il Mar 25 2006, 05:54 PM



Ciao a tutti.

Intanto mi complimento con Vincenzo Franchini. Senza i suoi interventi, e le discussioni che ne sono derivate, il problema del "rumore" nella fotografia digitale sarebbe rimasto per molti un "mistero" delle cui origini erano depositari soltanto pochi "eletti"!

Vorrei porre ora a Vincenzo, ma anche a chi ha "polvere da sparare", il quesito relativo ad un tipo particolare di "rumore" che affligge tutti quelli, me compreso, che possiedono la oramai "mitica" D 200: il banding (o striping).

Come tutti (possessori di D 200) purtroppo sappiamo, questa fotocamera è affetta in origine dal problema del banding non appena si imposta una sensibilità ISO (impropriamente paragonata a quella della pellicola, ma che è derivata soltanto da una maggiore amplificazione del segnale in uscita dal sensore e non già da una differente composizione chimico/strutturale dell' emulsione) appena superiore alla sensibilità minima di ISO 100 della D 200.
Va detto che a ISO 100, almeno nella mia D 200, il banding è presente, ma è trascurabile.

Che sia un problema del tutto generalizzato, magari più evidente in alcuni esemplari, è dimostrato da rilievi effettuati anche da riviste e laboratori in tutto il mondo: il problema è concreto e sembrerebbe di ordine progettuale/costruttivo.

Vero è che la Nikon, e in Italia Nital, si offrono gratuitamente di ritarare l' output del segnale con l' obiettivo di "ridurre" o eliminare il banding.
Ma è altrettanto vero che i tecnici preposti alla taratura, per quanto notoriamente bravi, non possono fare miracoli.

E qui sorge il dubbio.

In genere, il "segnale" in entrata in una qualsiasi apparecchiatura (black-box) di "manipolazione" del segnale stesso, solo teoricamente produce, in uscita, una funzione "esatta" del segnale in entrata. Spesso è un compromesso tra il segnale atteso e quello che è possibile ottenere dagli algoritmi della funzione di trasferimento e dai dispositivi di regolazione interni all' apparecchiatura.
Appare improbabile che i guru dagli occhi a mandorla non si siano dati da fare per fornire le D 200 al meglio di quanto progetto, costi e costruzione potessero dare.

Pertanto, presupponendo che in fabbrica, al banco di taratura, siano stati settati al meglio i dispositivi di regolazione (cioè si sia raggiunto il miglior compromesso tra le varie caratteristiche del segnale in uscita), ne consegue che, agendo ulteriormente sui parametri di regolazione, si riesca anche a ridurre o eliminare il banding, ma si rischi di inficiare altre caratteristiche dell' immagine (per esempio, la nitidezza e/o il colore) altrettanto e forse più importanti del banding se è vero, come è vero, che questo difetto si evidenzia, con una certa intensità, soltanto in particolari condizioni di luce e di ripresa, e alle sensibilità ISO superiori a ISO 100.
Un diverso compromesso potrebbe incidere negativamente su tutte le immagini.

Da qui le domande:

1) - Come si può definire questo particolare tipo di "rumore"?

2) - La sua origine dipende, presumibilmente, dalla funzione di trasferimento del segnale, e quindi è di tipo progettuale/costruttivo non modificabile, oppure dalle caratteristiche del sensore utilizzato, anche queste non modificabili?

3) - E' ipotizzabile la riduzione, o l' eliminazione, del difetto con un aggiornamento del firmware?

Aggiungo che, come detto in altro post, ho cercato di ovviare al problema utilizzando diversi software di trattamento delle immagini, purtroppo con risultati complessivamente poco soddisfacenti.

Il nostro guru del rumore, Vincenzo, può darci una mano?

Galeno.


Inviato da: vincenzo.franchini@fastwebnet.it il Mar 27 2006, 06:49 PM

QUOTE(Galeno @ Mar 25 2006, 05:54 PM)
Ciao a tutti.

Intanto mi complimento con Vincenzo Franchini.  Senza i suoi interventi, e le discussioni che ne sono derivate, il problema del "rumore" nella fotografia digitale sarebbe rimasto per molti un "mistero" delle cui origini erano depositari soltanto pochi "eletti"!

Vorrei porre ora a Vincenzo, ma anche a chi ha "polvere da sparare", il quesito relativo ad un tipo particolare di "rumore" che affligge tutti quelli, me compreso, che possiedono la oramai "mitica" D 200:  il banding (o striping).

Come tutti (possessori di D 200) purtroppo sappiamo, questa fotocamera è affetta in origine dal problema del banding non appena si imposta una sensibilità ISO (impropriamente paragonata a quella della pellicola, ma che è derivata soltanto da una maggiore amplificazione del segnale in uscita dal sensore e non già da una differente composizione chimico/strutturale dell' emulsione) appena superiore alla sensibilità minima di ISO 100 della D 200.
Va detto che a ISO 100, almeno nella mia D 200, il banding è presente, ma è trascurabile.

Che sia un problema del tutto generalizzato, magari più evidente in alcuni esemplari, è dimostrato da rilievi effettuati anche da riviste e laboratori in tutto il mondo:  il problema è concreto e sembrerebbe di ordine progettuale/costruttivo.

Vero è che la Nikon, e in Italia Nital, si offrono gratuitamente di ritarare l' output del segnale con l' obiettivo di "ridurre" o eliminare il banding.
Ma è altrettanto vero che i tecnici preposti alla taratura, per quanto notoriamente bravi, non possono fare miracoli.

E qui sorge il dubbio.

In genere, il "segnale" in entrata in una qualsiasi apparecchiatura (black-box) di "manipolazione" del segnale stesso, solo teoricamente produce, in uscita, una funzione "esatta" del segnale in entrata.  Spesso è un compromesso tra il segnale atteso e quello che è possibile ottenere dagli algoritmi della funzione di trasferimento e dai dispositivi di regolazione interni all' apparecchiatura.
Appare improbabile che i guru dagli occhi a mandorla non si siano dati da fare per fornire le D 200 al meglio di quanto progetto, costi e costruzione potessero dare.

Pertanto, presupponendo che in fabbrica, al banco di taratura, siano stati settati al meglio i dispositivi di regolazione (cioè si sia raggiunto il miglior compromesso tra le varie caratteristiche del segnale in uscita), ne consegue che, agendo ulteriormente sui parametri di regolazione, si riesca anche a ridurre o eliminare il banding, ma si rischi di inficiare altre caratteristiche dell' immagine (per esempio, la nitidezza e/o il colore) altrettanto e forse più importanti del banding se è vero, come è vero, che questo difetto si evidenzia, con una certa intensità, soltanto in particolari condizioni di luce e di ripresa, e alle sensibilità ISO superiori a ISO 100.
Un diverso compromesso potrebbe incidere negativamente su tutte le immagini.

Da qui le domande:

1) - Come si può definire questo particolare tipo di "rumore"?

2) - La sua origine dipende, presumibilmente, dalla funzione di trasferimento del segnale, e quindi è di tipo progettuale/costruttivo non modificabile, oppure dalle caratteristiche del sensore utilizzato, anche queste non modificabili?

3) - E' ipotizzabile la riduzione, o l' eliminazione, del difetto con un aggiornamento del firmware?

Aggiungo che, come detto in altro post, ho cercato di ovviare al problema utilizzando diversi software di trattamento delle immagini, purtroppo con risultati complessivamente poco soddisfacenti.

Il nostro guru del rumore, Vincenzo, può darci una mano?

Galeno.
*



Ciao Galeno,

grazie degli apprezzamenti e scusa se ti rispondo solo ora.
Vediamo se riesco a rispondere.
1) - Come si può definire questo particolare tipo di "rumore"?
Ciò che viene chiamato "banding" in realtà è un "pattern noise", cioè un rumore ricorsivo, geometricamente definito.

2) - La sua origine dipende, presumibilmente, dalla funzione di trasferimento del segnale, e quindi è di tipo progettuale/costruttivo non modificabile, oppure dalle caratteristiche del sensore utilizzato, anche queste non modificabili?
Penso che la vera ragione sia conosciuta solo dal costruttore e probabilmente dovuto ad un problema di controllo qualità nell'avvio di produzione visto che ha inficiato solo alcuni esemplari della "prima" sfornata. In ogni caso non è un problema del sensore, ma delle regolazioni tra firmware ed elettronica.

3) - E' ipotizzabile la riduzione, o l' eliminazione, del difetto con un aggiornamento del firmware?
Penso che se fosse un problema del firmware avrebbe colpito tutte le D200 della prima produzione.

Aggiungo che, come detto in altro post, ho cercato di ovviare al problema utilizzando diversi software di trattamento delle immagini, purtroppo con risultati complessivamente poco soddisfacenti.

In attesa che te la sistemino, applica una sfocatura con raggio di 1 pixel nella zona del banding. Rigorosamente su NEF.

Un caro saluto

Enzo

Inviato da: gciavarella il Mar 27 2006, 08:35 PM

io non ho banding sulla d200 neanche a 1600

girano molte voci sullo stesso che sembrano diventare sempre delle verità assodate ma così non è e lo dimostrano le prove di tanti possessori

unico risultato sta nelle prove che tanti hanno effettuato sulla propria macchina

ma così va il mondo (o devo citare il barbiere di siviglia?)

Gennaro

Inviato da: Galeno il Mar 28 2006, 05:32 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Mar 27 2006, 06:49 PM)
Ciao Galeno,

grazie degli apprezzamenti e scusa se ti rispondo solo ora.
Vediamo se riesco a rispondere.
1) - Come si può definire questo particolare tipo di "rumore"?
Ciò che viene chiamato "banding" in realtà è un "pattern noise", cioè un rumore ricorsivo, geometricamente definito.

2) - La sua origine dipende, presumibilmente, dalla funzione di trasferimento del segnale, e quindi è di tipo progettuale/costruttivo non modificabile, oppure dalle caratteristiche del sensore utilizzato, anche queste non modificabili?
Penso che la vera ragione sia conosciuta solo dal costruttore e probabilmente dovuto ad un problema di controllo qualità nell'avvio di produzione visto che ha inficiato solo alcuni esemplari della "prima" sfornata. In ogni caso non è un problema del sensore, ma delle regolazioni tra firmware ed elettronica.

3) - E' ipotizzabile la riduzione, o l' eliminazione, del difetto con un aggiornamento del firmware?
Penso che se fosse un problema del firmware avrebbe colpito tutte le D200 della prima produzione.

Aggiungo che, come detto in altro post, ho cercato di ovviare al problema utilizzando diversi software di trattamento delle immagini, purtroppo con risultati complessivamente poco soddisfacenti.

In attesa che te la sistemino, applica una sfocatura con raggio di 1 pixel nella zona del banding. Rigorosamente su NEF.

Un caro saluto

Enzo
*



Ciao, Vincenzo.

Intanto, ti ringrazio per la cortesia e tempestività della risposta.

Sulla 1) concordo perfettamente.

Per la 2), ritengo anch' io che soltanto il costruttore conosce esattamente le cause del difetto.
Tuttavia, l' ipotesi avanzata da Stefano Bonfa (V. in questo forum la discussione "Aiutatemi a capire il banding" - Pag. 4) mi sembra quanto meno plausibile, e comunque, sempre riconducibile a carenza o criticità di taratura della tensione applicata al substrato del sensore CCD Sony, che, a quanto pare, è particolarmente sensibile a questo parametro, tanto da costringere Sony a marcare ogni sensore con l' esatta tensione di funzionamento.

In effetti, da quanto mi risulta, tutte le D 200 soffrono di banding, quale più, quale meno, indipendentemente dai tempi di consegna. Presumo che, con gli arrivi futuri, le nuove macchine, una volta che in fabbrica avranno preso le opportune contromisure, saranno perfette.

Per quanto riguarda la mia D 200, la mia pluridecennale esperienza di misure e di laboratorio mi rende "riluttante" circa un intervento in assistenza. Per la serie: so quello che ho...

Ho provato il tuo suggerimento (ovviamente su NEF), ma ho riscontrato soltanto una relativamente modesta riduzione del banding.
Il software che, a mio avviso, si comporta meglio è Developer Studio 2.0 della Silkypix (implementa anche la specifica funzione "Geometric Noise Reduction") che funziona bene ma, purtroppo, oltre che costare circa 114 euro, mi risulta poco "amichevole" come gestione.

Hai avuto modo di provarlo?([URL=http://www.isl.co.jp/SILKYPIX/english/support/]
Qui[/URL])

Cari saluti. Galeno.


Inviato da: Galeno il Mar 28 2006, 05:56 PM

QUOTE(gciavarella @ Mar 27 2006, 08:35 PM)
io non ho banding sulla d200 nenche a 1600
*



E ti credo, Gennà! A ISO 1600 c' è tanto rumore da far fischiare le orecchie!
Scherzi a parte, sono contento che questa storia del banding non ti tange.

Altrettanto non può dirsi dell' attuale maggioranza dei possessori di D 200.
Essi si dividono in due categorie:
1)- Chi ce l' ha (il banding!)
e
2)- Chi non sa ancora che ce l' ha.

(Ogni tanto, un mezzo sorriso ci sta pure bene!).

Che i soloni giallini abbiano finalmente capito che razza di figura... "mondiale" hanno fatto?

Buone foto. Galeno.

Inviato da: vincenzo.franchini@fastwebnet.it il Mar 28 2006, 07:40 PM

QUOTE(Galeno @ Mar 28 2006, 05:32 PM)
Ciao, Vincenzo.

Intanto, ti ringrazio per la cortesia e tempestività della risposta.

Sulla 1) concordo perfettamente.

Per la 2), ritengo anch' io che soltanto il costruttore conosce esattamente le cause del difetto.
Tuttavia, l' ipotesi avanzata da Stefano Bonfa (V. in questo forum la discussione "Aiutatemi a capire il banding" - Pag. 4) mi sembra quanto meno plausibile, e comunque, sempre riconducibile a carenza o criticità di taratura della tensione applicata al substrato del sensore CCD Sony, che, a quanto pare, è particolarmente sensibile a questo parametro, tanto da costringere Sony a marcare ogni sensore con l' esatta tensione di funzionamento.

In effetti, da quanto mi risulta, tutte le D 200 soffrono di banding, quale più, quale meno, indipendentemente dai tempi di consegna.  Presumo che, con gli arrivi futuri, le nuove macchine, una volta che in fabbrica avranno preso le opportune contromisure, saranno perfette.

Per quanto riguarda la mia D 200, la mia pluridecennale esperienza di misure e di laboratorio mi rende "riluttante" circa un intervento in assistenza.  Per la serie: so quello che ho...

Ho provato il tuo suggerimento (ovviamente su NEF), ma ho riscontrato soltanto una relativamente modesta riduzione del banding.
Il software che, a mio avviso, si comporta meglio è Developer Studio 2.0 della Silkypix (implementa anche la specifica funzione "Geometric Noise Reduction") che funziona bene ma, purtroppo, oltre che costare circa 114 euro, mi risulta poco "amichevole" come gestione.

Hai avuto modo di provarlo?(http://www.isl.co.jp/SILKYPIX/english/support/)

Cari saluti.  Galeno.
*



Ciao Galeno,

hai un bel nome: quello di un grande sperimentatore in tempi difficili.
Scusa la divagazione.

Ho letto il 3D.
Io so per certo che per la prima volta non è possibile accedere a un datasheet Sony: alludo a quello inerente al sensore della D200. Il che significa che è costruito in accordo commerciale e venduto solo alla Nikon. Te lo dico con cognizione di causa perché, avendo i datasheets di molti sensori, D70 compreso, tutti di pubblico dominio, ho cercato attraverso miei canali inglesi particolari di reperire quello della D200. Niente da fare.
So per certo che l'antiblooming nella D70 entra in azione solo per un overload di 800x. Forse nella D200 è diverso, ma, ripeto, non so dove andare a reperire il dato.
Mi piacerebbe leggere direttamente tutti i dati forniti.

Riguardo i software, avrai notato che il risultato è sempre una perdita di nitidezza o di gamma: in pratica applicano la sfocatura. Più ne ampli il raggio, migliore sarà l'effetto correttivo sul banding, peggiore la qualità.

Un caro saluto a te e ai tenaci che ci seguono.

Enzo Franchini

Inviato da: Galeno il Mar 28 2006, 07:57 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Mar 28 2006, 07:40 PM)
Ciao Galeno,

hai un bel nome: quello di un grande sperimentatore in tempi difficili.
Scusa la divagazione.

Ho letto il 3D.
Io so per certo che per la prima volta non è possibile accedere a un datasheet Sony: alludo a quello inerente al sensore della D200. Il che significa che è costruito in accordo commerciale e venduto solo alla Nikon. Te lo dico con cognizione di causa perché, avendo i datasheets di molti sensori, D70 compreso, tutti di pubblico dominio, ho cercato attraverso miei canali inglesi particolari di reperire quello della D200. Niente da fare.
So per certo che l'antiblooming nella D70 entra in azione solo per un overload di 800x. Forse nella D200 è diverso, ma, ripeto, non so dove andare a reperire il dato.
Mi piacerebbe leggere direttamente tutti i dati forniti.

Riguardo i software, avrai notato che il risultato è sempre una perdita di nitidezza o di gamma: in pratica applicano la sfocatura. Più ne ampli il raggio, migliore sarà l'effetto correttivo sul banding, peggiore la qualità.

Un caro saluto a te e ai tenaci che ci seguono.

Enzo Franchini
*



Ciao, Enzo,

Circa la "divagazione", l' origine del nickname deriva, più modestamente, dal fatto che sono anche un discreto appassionato di enigmistica.
A te risalire al nome (troppo facile...).

Datasheet del sensore: il "banding macker" sarà Sony?
Attenuante per Nikon, ma...e noi?

Misteri (ma non troppo) degli intrall...,pardon, accordi tecnico commerciali!

A presto. Galeno.

Inviato da: Led566 il Mar 29 2006, 07:24 AM

QUOTE(Galeno @ Mar 28 2006, 06:56 PM)
E ti credo, Gennà!   A ISO 1600 c' è tanto rumore da far fischiare le orecchie!
Scherzi a parte, sono contento che questa storia del banding non ti tange.

Altrettanto non può dirsi dell' attuale maggioranza dei possessori di D 200.
Essi si dividono in due categorie:
1)- Chi ce l' ha (il banding!)
      e
2)- Chi non sa ancora che ce l' ha.

(Ogni tanto, un mezzo sorriso ci sta pure bene!).

Che i soloni giallini abbiano finalmente capito che razza di figura... "mondiale" hanno fatto?

Buone foto.   Galeno.
*



Quindi Gennaro che ha fatto le sue prove, fa parte, fortunato lui, di una sparuta minoranza di felici possessori che non ce l'hanno...non si capisce perché.

Ho capito che di questi tempi fornire numeri non va tanto di moda...ma magari in ambito tecnico sarebbe più corretto quantificarla 'sta benedetta maggioranza.

Mah hmmm.gif


P.S. Per quanto riguarda i soloni...beh ce ne sono in giro di tanti colori diversi che fanno figure barbine ad ogni pié sospinto...qualche giapponese in più non è che sposti la media.

Inviato da: kurtz il Mar 29 2006, 07:47 AM

QUOTE(Galeno @ Mar 28 2006, 06:56 PM)
...
Altrettanto non può dirsi dell' attuale maggioranza dei possessori di D 200.
Essi si dividono in due categorie:
1)- Chi ce l' ha (il banding!)
      e
2)- Chi non sa ancora che ce l' ha.

(Ogni tanto, un mezzo sorriso ci sta pure bene!).

Che i soloni giallini abbiano finalmente capito che razza di figura... "mondiale" hanno fatto?
...


Gradiremmo avere le percentuali e la fonte delle tue preziose informazioni.

Altrimenti per le chiacchiere c'è il Bar.

Ma anche li, se si sparano troppo grosse e a vanvera, alla fine non ti crede più nessuno... e si beve da soli.

Inviato da: Michele Difrancesco il Mar 29 2006, 09:13 AM

QUOTE(kurtz @ Mar 29 2006, 08:47 AM)
Gradiremmo avere le percentuali e la fonte delle tue preziose informazioni.

Altrimenti per le chiacchiere c'è il Bar.

Ma anche li, se si sparano troppo grosse e a vanvera, alla fine non ti crede più nessuno... e si beve da soli.
*




Concordo con le richieste indicate.
Mi permetto inoltre di informare che per la diffamazione il posto corretto è un aula non propriamente "friendly" come il Bar

grazie
MD

Inviato da: giannizadra il Mar 29 2006, 09:54 AM

Caro Galeno, né la mia D200 (metà dicembre 2005), né quelle dei sette amici veneti con cui mi ritrovo spesso a fotografare, soffrono di banding.
Ti significo ciò, perché tu possa tenerne conto e aggiornare i tuoi numeri la prossima volta che li darai. rolleyes.gif
I numeri della tua pretesa "maggioranza di possessori", intendo: sarei propenso a escludere che tu possa computarmi tra coloro che hanno il banding e non lo sanno.

PS. Da parte mia, sto aggiornando la casistica di quelli che si inventano le statistiche, i sondaggi e le percentuali: una specie, di questi tempi, molto diffusa.. biggrin.gif

Inviato da: Galeno il Mar 29 2006, 03:19 PM

QUOTE(Michele Difrancesco @ Mar 29 2006, 09:13 AM)
Concordo con le richieste indicate.
Mi permetto inoltre di informare che per la diffamazione il posto corretto è un aula non propriamente "friendly" come il Bar

grazie
MD
*




Caro Michele,

Replico a te come Admin, ma vale anche per Led 566, giannizadra e kurtz.

Tutti si sono sentiti in dovere di accusarmi di propalare panzane, addirittura passabili di aula giudiziaria.
Possibile che nessuno ha colto la pur palese ironia di qualche mia battuta, che aveva per solo scopo di suscitare un, purtroppo per qualcuno di noi, amaro sorriso?
E' vero che siamo in una campagna elettorale dove si dice di tutto e di più l' uno dell' altro e che qualcuno dei nostri "direttori d' orchestra" mal accettano satira e quant' altro che non collimi con le sue affermazioni ed azioni.
Ma via! Nel nostro ben più modesto ambito che non le sorti dell' Italia, mi sembra quantomeno esagerato arrivare ad accuse di "diffamazione".

Non ho numeri precisi, e se li avessi non esiterei a renderli pubblici.

Ma sicuramente non in un bar!

D' altra parte, credo sia noto a tutti che il problema del cosiddetto banding sia "esploso" non già qui da noi, bensì in ambito internazionale e evidenziato da più fonti, certamente più autorevoli che la mia, segno evidente che il problema c' è ed è abbastanza diffuso. Tanto è vero che Nikon ha cercato immediatamente di porre rimedio proponendo ai suoi utenti, in assistenza completamente gratuita, la ritaratura delle D 200.
E questo non si fa per uno sparuto numero di esemplari o di utenti "rognosi".
Il problema c' è, è riconosciuto dal costruttore, e bisogna adattarsi allo stato di fatto, mettendo in conto quantomeno la scocciatura, e gli eventuali "imprevisti", della spedizione in assistenza.

Sperando, come già qualcuno su questo 3D ha paventato, che una prossima edizione della D200 (D200s?) non dimezzi il valore di quanto abbiamo con gioia (e con sacrificio) da poco acquistato.

Del resto, e a conferma di quanto ho ipotizzato in altri post sull' argomento, basta leggere quanto scrive oggi stesso in questo stesso 3D e altrove, l' ottimo Stefano, al quale vanno i miei ringraziamenti per la precisione e puntualità dei suoi interventi: si tratta di problematiche legate alla struttura e alla "criticità" del sensore CCD (il CMOS ne è esente), presumibilmente riducibili in limiti accettabili soltanto con accurata taratura della "tensione di substrato" e delle grandezze in uscita.
Che, evidentemente, non è stata fatta con la necessaria accuratezza in fabbrica.

Da qui il pizzico di ironia e satira, come tali un pò esagerati, da qualcuno rilevato come "diffamazione", nel mio post.

Null' altro, se non che il pò di amarezza mi nasce, e non solo a me, dal riconoscere, e non potrebbe essere altrimenti, che questo piccolo "neo" mal si inquadra in un oggetto tecnologico di grande qualità, dal quale, vuoi perchè si apprezza un oggetto ben fatto, vuoi per il feeling nell' adoperarlo, vuoi soprattutto per i risultati che se ne possono ottenere, ci si aspetta il massimo in tutti i suoi "comportamenti", e di cui, comunque, non possiamo che ringraziare la Nikon.

Quanto sopra assolutamente non per polemica, ma per chiarire il mio pensiero.

E se per qualcuno è stato ritenuto offensivo (per Nikon? Per Nital? Per gli "amici con gli occhi a mandorla"?), me ne dolgo e mi scuso.

Ciao a tutti. Galeno.

Inviato da: kurtz il Mar 29 2006, 04:12 PM

QUOTE(Galeno @ Mar 29 2006, 04:19 PM)
Caro Michele,

Replico a te come Admin, ma vale anche per Led 566, giannizadra e kurtz.

... rispondo solo a titolo personale.

Tutti si sono sentiti in dovere di accusarmi di propalare panzane, addirittura passabili di aula giudiziaria.

Ho legittimamente chiesto l'attendibilità e la fonte dalle tue asserzioni, che solo adesso, in seconda battuta cataloghi come ironiche.

Possibile che nessuno ha colto la pur palese ironia di qualche mia battuta, che aveva per solo scopo di suscitare un, purtroppo per qualcuno di noi, amaro sorriso?

Questi dietro-front sono solo un brutto "Déjà vu". Vuoi dire che io ho mal interpretato la tua vena ironica ? In tal caso mi scuso ...

E' vero che siamo in una campagna elettorale dove si dice di tutto e di più l' uno dell' altro e che qualcuno dei nostri "direttori d' orchestra" mal accettano satira e quant' altro che non collimi con le sue affermazioni ed azioni.
Ma via! Nel nostro ben più modesto ambito che non le sorti dell' Italia, mi sembra quantomeno esagerato arrivare ad accuse di "diffamazione".

Mi piacerebbe parlare di politica ... ma non è il luogo adatto

Non ho numeri precisi, e se li avessi non esiterei a renderli pubblici.

Allora evitiamo di fare del terrorismo scrivendo "la maggior parte delle D200".

Ma sicuramente non in un bar!

Concordo ... tale disinformazione sarebbe fuoriluogo anche li.

D' altra parte, credo sia noto a tutti che il problema del cosiddetto banding sia "esploso" non già qui da noi, bensì in ambito internazionale e evidenziato da più fonti, certamente più autorevoli che la mia, segno evidente che il problema c' è ed è abbastanza diffuso.  Tanto è vero che Nikon ha cercato immediatamente di porre rimedio proponendo ai suoi utenti, in assistenza completamente gratuita, la ritaratura delle D 200.
E questo non si fa per uno sparuto numero di esemplari o di utenti "rognosi".

Lo si fa appunto con tutto il materiale in garanzia ed è un segno di attenzione e serietà. La garanzia della casa esiste proprio per i difetti/rotture di fabbrica.

Il problema c' è, è riconosciuto dal costruttore, e bisogna adattarsi allo stato di fatto, mettendo in conto quantomeno la scocciatura, e gli eventuali "imprevisti", della spedizione in assistenza.

Mai avuto problemi di guasti/malfunzionamenti al di fuori della D200 ...? Beato te.

Sperando, come già qualcuno su questo 3D ha paventato, che una prossima edizione della D200 (D200s?) non dimezzi il valore di quanto abbiamo con gioia (e con sacrificio) da poco acquistato.

C'è stata una D70 S ... D2HS ... ci potrebbe essere una D200 S ... una D2X S ... è la tecnologia che avanza ... e a passo svelto.

Del resto, e a conferma di quanto ho ipotizzato in altri post sull' argomento, basta leggere quanto scrive oggi stesso in questo stesso 3D e altrove, l' ottimo Stefano, al quale vanno i miei ringraziamenti per la precisione e puntualità dei suoi interventi: si tratta di problematiche legate alla struttura e alla "criticità" del sensore CCD (il CMOS ne è esente), presumibilmente riducibili in limiti accettabili soltanto con accurata taratura della "tensione di substrato" e delle grandezze in uscita.
Che, evidentemente, non è stata fatta con la necessaria accuratezza in fabbrica.

Da qui il pizzico di ironia e satira, come tali un pò esagerati, da qualcuno rilevato come "diffamazione", nel mio post.

Se la metti così ... allora anche il mio era ironico ... posso?

Null' altro, se non che il pò di amarezza mi nasce, e non solo a me, dal riconoscere, e non potrebbe essere altrimenti, che questo piccolo "neo" mal si inquadra in un oggetto tecnologico di grande qualità, dal quale, vuoi perchè si apprezza un oggetto ben fatto, vuoi per il feeling nell' adoperarlo, vuoi soprattutto per i risultati che se ne possono ottenere, ci si aspetta il massimo in tutti i suoi "comportamenti", e di cui, comunque, non possiamo che ringraziare la Nikon.

Quanto sopra assolutamente non per polemica, ma per chiarire il mio pensiero.

E se per qualcuno è stato ritenuto offensivo (per Nikon? Per Nital? Per gli "amici con gli occhi a mandorla"?), me ne dolgo e mi scuso.

Io non mi sono sentito offeso né in prima persona né tantomeno come "guardiano" del brand in esame.
Per gli amici con gli occhi a mandorla poi ...
Ma quando leggo affermazioni categoriche ... "la maggior parte di ecc. ecc." ... mi interessa sapere se parliamo con cognizione di causa o son chiacchiere buttate là. Nel secondo caso possono essere controproducenti, all'interno di un Forum, più di un effettivo malfunzionamento.


Ciao a tutti.  Galeno.
*




Per me finisce qui ... ognuno ha detto la sua. Ed è scritto tutto nero su bianco.
A ben rileggerti.

Inviato da: Evil_Jin il Mar 29 2006, 06:47 PM

per dovere di cronaca la mia D200 è tornata ieri e il famoso problemino è stato ridotto veramente ai minimi termini ! Grazie LTR, soprattutto a G. Maio e M. Goria !

Inviato da: nisant il May 18 2006, 09:38 AM

Innanzitutto un gran ringraziemento, Vincenzo, per la disponibilità con cui hai portato per mano molti di noi nella via alla comprensione del funzionamento di questi aggeggi con cui passiamo tanto del nostro tempo libero.

Nella lettura (e rilettura) del 3D, una cosa mi ha particolarmente incuriosito e non so dare una valutazione sul peso che può avere nel risultato finale.

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 13 2006, 09:37 PM)
I Pixel del CCD (nel CMOS è diverso, ma restiamo nel campo della nostra marca)sono organizzati per colonne: ciò significa che, dopo aver trasferito la carica del primo pixel in basso, tutte le cariche dei pixel dal secondo in su devono essere trasferite nel pixel immediatamente inferiore. 2000 pixel verticali, 2000 trasferimenti!
L'efficienza di questo trasferimento è altissima: siamo nell'ordine dello 0,999995 e più: vuol dire che se trasferiamo una carica di 20000 elettroni, circa 1 elettrone resta "indietro" ogni 2 trasferimenti. Questo per i primi 2 pixel trasferiti; per l'ultimo, la cui carica deve subire 2000 trasferimenti, gli elettroni lasciati indietro risulteranno circa 1000. Il 5% della carica! Per fortuna il firmware tiene conto di questa perdita.
*



Da quello che ho capito, se non ci fosse alcun intervento correttivo, tutte le nostre foto patirebbero una perdita di luminosità progressiva dal basso della foto verso l'alto.
No so quanto sarebbe percettibile, ma, da quel che ho capito, se qualcuno pensa a fare questa compensazione, un motivo ci sarà.
Il mio dubbio è che questa compensazione, comunque, non può recuperare il dettaglio perso, perché la dinamica finale risultante dei pixel "in alto" è inferiore rispetto a quella dei pixel "in basso" ed i livelli di luminosità reali distinti percepiti dai pixel "in alto", per una questione di approssimazione dei decimali, saranno ridotti, o quanto meno ricostruiti casualmente o algoritmicamente, ma non si può sperare che corrispondano precisamente a quello che c'era in origine.

Per cui la parte migliore di una foto è quella bassa. blink.gif

E' così?
E se sì, il degrado è percettibile?

Grazie per il supplemento di pazienza.
Antonio

Inviato da: MatteoGirola il Jul 4 2006, 01:07 AM

Scusate, permettetemi di fare una domanda stupida, alla quale non ho ancora trovato risposta:

E' possibile che due sensori uguali "soffrano" il rumore ad intensità diversa?
Se si, esiste una taratura, qualcosa di elettronico come per il banding o per i vari hot/dead pixel?

Scusate ancora.

M.

Inviato da: lanpro il Jul 7 2006, 01:36 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 9 2006, 07:13 PM)
Frequento da poco il forum Nital: quel tanto che basta per aver notato che uno degli argomenti principali è quello inerente al rumore. Mi occupo di digitale da 25 anni, prima con il video, poi con le still camera, scientifiche, astronomiche e tradizionali. Di queste ultime conservo nei miei cassetti ancora una Canon/Bauer (la primissima!). Di Nikon ho D1, D70, D50 ed è in arrivo una D200. Per motivi miei pratici e non certo  per sfizio testo tutte le macchine e in nessuna ho notato livelli di “rumore” come quelli segnalati, spesso impropriamente. Di foto tradizionali ne faccio relativamente poche e, visto che mi reputo un buon giudice di me stesso, ritengo che non siano meritorie di rimando a questo forum.
Mi permetto, però,  il tentativo di chiarire il concetto di rumore sperando di far cosa utile a qualcuno. Non userò alcuna formula né diagramma.

Ho notato che molti usano impropriamente il termine “rumore”, non ponendo distinzione tra segnale, rumore del segnale e rumore non dipendente da segnale.
Per capire bene cosa sia, immaginiamo di trovarci sotto una larga tettoia in una giornata di pioggia: se la pioggia è torrenziale, il suono delle gocce che colpiscono il nostro riparo ci sembra giungere uniforme da tutta la sua superficie. In caso di pioggerellina, invece, abbiamo ora l’impressione che piova più a destra, ora più a sinistra, ora più al centro… Questa variazione di direzione ed intensità del suono che colpisce le nostre orecchie è causata dalla non uniformità del numero di gocce piovane che la tettoia raccoglie per unità di superficie in ogni istante. La disuniformità è presente anche nella pioggia battente, solo che è una piccola percentuale della pioggia totale: così il nostro orecchio non riesce a percepirla. Questa disuniformità è ciò che nella fisica dei segnali viene chiamato “rumore” : se rappresentassimo un segnale uniforme ed omogeneo come una linea retta, il rumore insito nella sua raccolta trasformerebbe questa retta in una linea ondulata.
Possiamo asserire, quindi, che questo tipo di rumore è funzione del segnale, perché dipende totalmente da esso. Da notare il fatto che possiamo quantificarlo solo dopo aver raccolto il segnale, quindi non possiamo sapere a priori a quanto ammonterà numericamente. Ho promesso di non presentare formule: dovete quindi credere sulla parola a ciò che segue. Se nel sensore avessimo  accumulato un segnale luminoso pari a 100 (pioggerellina), il suo rumore sarebbe pari a 10, cioè il 10%. Se raccogliessimo 1000 (pioggia battente), il rumore sarebbe pari a 31, cioè il 3%.

Qualcuno si chiederà: esiste un rumore elettronico fine a se stesso, cioè che non sia funzione di un segnale? Certamente. Per scoprirlo continuiamo l’esempio della tettoia ed immaginiamo che questa sia ondulata, in modo che la pioggia sia convogliata verso dei secchielli di raccolta. Complichiamoci un poco la vita e facciamo sì che questi secchielli possano essere ruotati ma non staccati dalla tettoia: ora ci poniamo il gramo compito di controllare quanta acqua sia presente in ogni secchiello al termine della pioggia. Siamo costretti ad usare un altro secchiello: lo poniamo sotto quello appeso e solidale alla tettoia, ruotiamo questo, travasiamo l’acqua e ci dirigiamo verso una bilancia o un qualunque misuratore. Questa manovra la eseguiamo per ogni secchiello appeso alla tettoia. Vi sembra intuitivamente possibile che qualche goccia d’acqua non resti nel suo secchiello d’origine? O che non vada persa nel travaso? O che non debordi durante il trasporto? E la bilancia di misura è assolutamente esatta? Impossibile, neanche a pensarci. La quantità d’acqua che misureremo non corrisponderà mai a quella effettivamente raccolta. La differenza tra queste due quantità è un rumore puro, cioè che non dipende da un segnale ma dalla modalità di trattarlo. E’ prevedibile progettualmente? No. E’ misurabile? Sì. Come? Per via sperimentale. Nel caso della tettoia, ad esempio, potremmo versare su di essa una quantità nota di acqua e controllarne, poi, quanta ci risulti alla misurazione finale. Nelle nostre macchine questo rumore si chiama rumore di lettura (readout noise) e, con semplicità,  possiamo dire che comprende i processi di trasferimento della carica del pixel, il suo passaggio attraverso l’amplificatore e la sua trasformazione in entità numeriche intellegibili dal computer.
Le case costruttrici misurano in maniera molto sofisticata questo rumore di lettura e le sue possibili variazioni in relazione alle regolazioni dell’utente, regina tra tutte la scelta della sensibilità ISO. A questo proposito cerchiamo di capire bene un concetto: quando scegliamo una pellicola con diverso valore ISO, effettivamente scegliamo un prodotto con la sensibilità desiderata. Quando, invece, impostiamo sulle nostre macchine digitali un valore ISO, stiamo scegliendo solo il livello di amplificazione del segnale proveniente dalla lettura del pixel. Non agiamo sulla sensibilità. Questa dipende dalle scelte del costruttore del sensore ed è immutabile. E aumentando l’amplificazione, cioè il guadagno, aumentiamo esponenzialmente il rumore di lettura.

Per darvi qualche dato esemplificativo, il Read-out noise medio della D70 è di circa 7 elettroni/pixel. Il suo segnale termico è inferiore a 0,1 elettroni/ pixel/secondo! Sono quasi delle nullità se pensate che il pixel della D70 può arrivare a contenere più di 35000 elettroni liberati dal segnale luminoso. Solo 7-10 anni fa costosissimi ccd scientifici (che uso ancora) presentavano un segnale termico a 20° di 20-80 elettroni/pixel/secondo, con rumore di lettura superiore a 40-100 elettroni…

Spero di aver suscitato la curiosità necessaria per leggere il manuale di Maio, dove la trattazione è più completa. Se qualcuno, invece, volesse approfondire tecnicamente l’argomento sono disponibile anche privatamente (il mio riferimento è in chiaro).

Che la luce sia con noi.

Enzo Franchini
*



Inviato da: lanpro il Jul 7 2006, 01:39 PM

Chiedo scusa per il messaggio precedente, che ho pubblicato per errore smile.gif
Complimenti per la spiegazione, che mi sembra esaustiva e, nello stesso tempo, di facile comprensione.

Inviato da: marcus_kleiner@yahoo.de il Aug 14 2006, 10:45 AM

Complimenti per la spiegazione in termini... elettronici. Sono un chimico con la passione della fotografia ed una D70 da esplorare....



Inviato da: francorapino1@virgilio.it il Jan 29 2007, 03:23 PM

Ho letto con molto interesse le tue spiegazioni sul "rumore" nel digitale.
ho letto in un articolo sul digitale in una rivista di fotografia questa affermazione;
avendo la Nikon D2X pixel più piccoli della Canon Eos 5D ha di conseguenza un rumore di fondo maggiore della Canon.
Nell'articolo non ci sono foto che mi permettano veder materialmente e rendermi conto della veridicità dell'affermazione.
Un tuo chiarimento in materia mi sarebbe molto gradito.
Ciao

Francor

Inviato da: salvatore27 il Feb 25 2007, 06:32 AM

Il rumore ha qualche attinenza con i pixel' cioè una Di con 2,6 mega pixel e una D70 con &,1 mega pixel, ci sono differenze di rumore tra i due modelli dovuto ai pixel o dipende dal software che hanno fatto progressi?

Inviato da: alcarbo il Jul 1 2007, 05:34 AM

La discussione è di un anno fà
Le d200 uscite dopo (se ce n'era bisogno) saranno già uscite ritarate ?

Inviato da: Queller il Jul 1 2007, 08:10 AM

La mia non ha mai sofferto di banding
acquistata ottobre 2006

Inviato da: alcarbo il Jul 1 2007, 09:20 AM

Vi spiace riassumermi (senza leggere tutto il lungo 3d) che cosa sarebbe il banding ?

Inviato da: buzz il Jul 1 2007, 09:30 AM

Il banding preso come parola significa prodiuzione di bande, il chè è molto generico.
Ma nello specifico si è parlato di banding come un fenomeno che si è verificao nei proimi esemplari di D200 e consisteva nella presenza di frangiature parallele tra loro in zone dell'immagine con forte differenza di luminosità. Per metterlo in evidenza si fotografavano le lampade da tavolo in una stanza buia, e se c'era, si manifestava proprio in queste aree. Problema rientrato dsa tempo, in quanto non se ne è più parlato.

Piuoi cercare le innumerevoli discussioni con esempi sul forum. Se ne è parlato oltre la nausea.
In questo thread invece si è parlato del rapporto segnale rumore, che è tutt'altra cosa.

Inviato da: alcarbo il Jul 1 2007, 09:36 AM

QUOTE(buzz @ Jul 1 2007, 10:30 AM) *

Puoi cercare le innumerevoli discussioni con esempi sul forum. Se ne è parlato oltre la nausea.
In questo thread invece si è parlato del rapporto segnale rumore, che è tutt'altra cosa.



Era meglio in effetti se CERCAVO (e ho trovato) prima di porre la domanda.
Servirà per un'altra volta.

Grazie comunque buzz

Inviato da: Queller il Jul 1 2007, 10:53 AM

QUOTE(buzz @ Jul 1 2007, 10:30 AM) *


Per metterlo in evidenza si fotografavano le lampade da tavolo in una stanza buia,



era un nuovo genere fotografico?


Inviato da: mdellacorte il Nov 23 2007, 11:02 AM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 04:10 AM) *
Credo che cominci a venire alla luce l'importanza chiave di lavorare su file Raw piuttosto che su jpeg manipolati all'origine.


Scusa, ma qui mi sono un po' perso. Potresti elaborare ulteriormente su questo concetto? O devo soltanto leggere con maggiore attenzione il tuo "post"?

In ogni caso, complimenti e grazie per il tuo bellissimo articolo. Un argomento non semplicissimo, ma affrontato in modo molto lineare.

Marcello

Inviato da: buzz il Nov 23 2007, 11:59 AM

e ti credo che ti sei perso! dopo tanti mesi! smile.gif

Speriamo che vincenzo franchini sia ancora disponibile.
Comunque il succo del discorso verte sul fatto che per ritoccare al meglio una foto occorre farlo su un raw e non su un jpeg già ritoccato e quindi non recuperabile.

Inviato da: gianni67 il Feb 1 2008, 12:09 PM

ho da poco una D 80 le foto per il momento le visiono solo al computers, e sono scattate non alla massima risoluzione.
Al mio occhio profano el digitale (buona pratica con pellicola) sono rimasto impressionato dall'incisività
delle immaggini e dei colori non denotando dei fattori sgraditi in essa



saluti gianni


Inviato da: luiginikonista il Feb 9 2008, 10:17 PM

Un saluti a tutti.......voi....
Mi pesento, sono Luigi e da poco cioè qualche scatto ho una D300.......Premetto che fino ad oggi ho fotografato con una canon 300D e sono sempre rimasto contento degli scatti e del suo sensore, vero cuore della macchina........ Ma appena è uscita sul mercato la D300 forse perche fino ad ora ero diffidente dei CCD, ho deciso di fare il grande passo e di tornare al mio vecchio amore "LA nikon"!
Magari non sono molto pratico con i settaggi di questa splendida compagna di avventure e chiedo a voi un aiuto e anche un parere che conoscete meglio la D300...e le Nikon in genere, posto queste immagini a mio avviso decenti, eseguite di sera con ottica sigma con più di un decennio (12 per essere esatti) di lavoro, in uso sulla mia gloriosa F90X , del quale sono ancora felice possessore.........
Porgo un ciao a tutti......e grazie......
Ah!!! Dati di scatto.......
1) 6Secondi f.8 iso 200
2) 2.5 Secondi f.8 iso 160........ grazie.gif




 

Inviato da: Alfalife il Apr 16 2008, 09:30 PM

Ecco un pò di rumorino...3200 iso rolleyes.gif a 200mm!!!


 

Inviato da: buzz il Apr 16 2008, 11:09 PM

in bianco e nero il rumore digitale si vede molto meno.....

Inviato da: Alfalife il Apr 17 2008, 09:29 PM

Questo è vero ma nell'immagine che ho postato è molto visibile!!
Non capisco perrchè mi accede spesso di vederla più nei ritratti che nei paesaggi scattati a 3200iso rolleyes.gif

Inviato da: buzz il Apr 17 2008, 10:14 PM

Perchè i ritratti abbisognano di maggior dettaglio dei panorami, in quanto siamo abituati a discernere i connotati.

Inviato da: SkZ il Jul 6 2008, 03:15 AM

i miei complimenti a Vincenzo per la sua capacita' nell'esporre chiaramente la grande saga del segnale/rumore. A volte sono rimasto perplesso, ma continuando a leggere ho capito cosa intendeva. Certo che pensare che ogni volta che opero la calibrazione faccio del white balancing mi ha fatto sorridere.
Non so perche' Vincenzo abbia smesso di rispondere, ma vedro' di eliminare alcuni dubbi rimasti, finche' non torna (con vostra gioia, dato come sono casinista).

Innanzi tutti ricordo una cosa sostanziale: il rumore non importa, ma quello che interessa e' il rapporto tra il segnale e il suo errore. Ovvero quanto e' piu' forte il segnale rispetto al rumore, quanto questo riesce a distinguersi dal rumore.
Mi spiace, ma io sono abituato alla teoria matematica e un paio di concetti ce li metto, ma le cose piu' tecniche le mettero' tra [] cosi' in caso le saltate.
La teoria statistica che si occupa del conteggio dei fotoni e' quella poissoniana. Questo perche' abbiamo una marea di fotoni che fanno quello che vogliono, ovvero tantissimi eventi e bassa probabilita' (la probabilita' che il fotone emesso arrivi a te e' minuscola, ma cmq abbiano una enormita' di fotoni). Questa teoria statistica mi dice che se misuro tantissime volte una stessa quantita' soggetta a questa statistica notero' che i valori trovati avranno uno scarto [quadratico] medio dal valore vero [che ritengo sia molto vicino alla media dei valori ottenuti] pari alla radice quadra di quest'ultimo, ovvero scartano piu' o meno della radice quadra [per essere precisi, ho il 68% di probabilita' che una misurazioni si trovi entro uno scarto quadratico medio dal valore vero]

Ergo il rumore di una misura e' pari alla sua radice quadra (quindi parliamo di fotoni misurati: e' a questi che si appllicano i conti), quindi maggiore e' il segnale maggiore sara' l'errore.
Quello che importa, pero', non e' il suo valore effettivo, ma quello relativo al segnale misurato, il S/N.
Conti alla mano segnale/rumore=radice quadra del segnale. Quindi maggiore e' il segnale, piu' e' forte rispetto al suo errore o al rumore di fondo.
[inoltre spesso si fanno i conti coi logaritmi del valore del segnale e l'errore associato e' il csi' detto errore relativo: l'errore del segnale diviso il segnale. L'opposto del S/N, ergo facile capire perche' e' importante avere un S/N elevato]



QUOTE(nisant @ May 18 2006, 10:38 AM) *
Da quello che ho capito, se non ci fosse alcun intervento correttivo, tutte le nostre foto patirebbero una perdita di luminosità progressiva dal basso della foto verso l'alto.
No so quanto sarebbe percettibile, ma, da quel che ho capito, se qualcuno pensa a fare questa compensazione, un motivo ci sarà.
Il mio dubbio è che questa compensazione, comunque, non può recuperare il dettaglio perso, perché la dinamica finale risultante dei pixel "in alto" è inferiore rispetto a quella dei pixel "in basso" ed i livelli di luminosità reali distinti percepiti dai pixel "in alto", per una questione di approssimazione dei decimali, saranno ridotti, o quanto meno ricostruiti casualmente o algoritmicamente, ma non si può sperare che corrispondano precisamente a quello che c'era in origine.
Per cui la parte migliore di una foto è quella bassa. blink.gif
E' così?
E se sì, il degrado è percettibile?

E' esattamente cosi': l'angolo opposto a dove sta il canale di lettura e' piu' "debole" di quello in prossimita' dello stesso. Ed e' anche molto evidente, adto che abbiamo migliaia di traferimenti. Per questo in astronomia si fanno dei conti laboriosi per ottenere il cosi' detto Flat field, che e' un'immagine/maschera che si usa per correggere tutte le disuniformita' del sistema ottico (non solo il ccd, infatti va calcolato uno per ogni filtro usato). Appena riesco vedro' di postarne uno di esempio (cosi' vi farete delle belle risate, capirete).
La correzione per transfert rate puo' essere approssimata dividendo il segnale misurato per l'efficacia di trasferimento elevata al numero di trasferimenti che ha subito [n_riga+n_col+2]



QUOTE(MatteoGirola @ Jul 4 2006, 02:07 AM) *
E' possibile che due sensori uguali "soffrano" il rumore ad intensità diversa?
Se si, esiste una taratura, qualcosa di elettronico come per il banding o per i vari hot/dead pixel?

Putroppo ogni coppia sensore/elettronica ha la sua storia. Per ognuno bisogna farele immagini di bias [l'elettronica di lettura non ritorna il valore del segnale, ma questo aggiungo ad una costante, un bias: e' per ragioni di elaborazione elettronica del segnale elettrico], di flat e calibrazione delle misure. ad esempio riporto i valori di gain (il valore di amplificazione) e i ron degli 8 ccd usati ad un telescopio a Las Campanas: ognuno fa i cavolacci suoi!
CHIP # gain (e/ADU) RON (e)
1 1.31 6.7
2 1.36 6.3
3 1.37 6.2
4 1.34 9.2
5 1.32 5.9
6 1.33 6.7
7 1.33 7.1
8 1.34 8.7
Ci sarebbe anche il dark che varia, ma refrigerati a -90 non rompono tanto. wink.gif


QUOTE(francorapino1@virgilio.it @ Jan 29 2007, 04:23 PM) *
Ho letto con molto interesse le tue spiegazioni sul "rumore" nel digitale.
ho letto in un articolo sul digitale in una rivista di fotografia questa affermazione;
avendo la Nikon D2X pixel più piccoli della Canon Eos 5D ha di conseguenza un rumore di fondo maggiore della Canon.
Nell'articolo non ci sono foto che mi permettano veder materialmente e rendermi conto della veridicità dell'affermazione.
Un tuo chiarimento in materia mi sarebbe molto gradito.

spero che anche il mio sia gradito. wink.gif
Piu' un pixel e' grande piu' fotoni/elettroni puo' contare/contenere, ergo piu' il suo segnale sara' farte, piu' il S/N sara' elevato e meglio il segnale si evidenziera' sopra il mare agitato del rumore.
Ipixel della D3 solo larghi ~8.5 micro. I CCD di cui parlavo sopra 16 micro: a noi interessano meno i dettagli, e piu' avere meno rumore [errore nei dati finali] possibile

QUOTE(salvatore27 @ Feb 25 2007, 07:32 AM) *
Il rumore ha qualche attinenza con i pixel' cioè una Di con 2,6 mega pixel e una D70 con &,1 mega pixel, ci sono differenze di rumore tra i due modelli dovuto ai pixel o dipende dal software che hanno fatto progressi?

Il rumore dipende sostanzialmente dalle dimensioni del pixel (per la raccolta del segnale), dalla metodologia di ripresa (tempo, temp, ...), dall'elettronica.
La riduzione via software mai considerata, ma d'altro canto i miei soggetti sono puntiformi e ritengo che la riduzione software si basi su studi statistici di pixel adiacenti e si basi sul fatto che pixel vicini hanno valori simili. Ma qui devono intervenire altri (Maio?).


QUOTE(mdellacorte @ Nov 23 2007, 12:02 PM) *
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 04:10 AM) *
Credo che cominci a venire alla luce l'importanza chiave di lavorare su file Raw piuttosto che su jpeg manipolati all'origine.

Scusa, ma qui mi sono un po' perso. Potresti elaborare ulteriormente su questo concetto? O devo soltanto leggere con maggiore attenzione il tuo "post"?

Se elabori direttamente il file Raw, hai esattamente quello che ha restituito la coppia sensore/elettronica di lettura. Hai il segnale "grezzo". Cio' ti permette di effettuare tutta una serie di lavori, sistemazioni non possibili col jpeg dato che e' segnale ricostruito [da una trasformata di Fourier incompleta], quindi non hai tutti i dati (insomma: il jpeg introduce artefatti che non esistono alla partenza), come correggere le disuniformita' nella rilevazione (polvere su lenti e sensore, differenza nell'efficienza quantica dei singoli pixel, ...), fare piu' somme di varie riprese per migliorare il risultato (il segnale e' uno scarto casuale dal valore medio: con tante immagini questi scarti si annullano man mano di piu'). Tutte elaborazioni che puoi fare senza deteriorare la tua immagine come invece faresti con un jpeg (che comprime i dati diversamente a seconda di cosa si trova) e che cmq hanno senso solo se fatte usando raw dato che vuoi eliminare per bene le "imprecisioni".


@Alfalife
Se noti il rumore lo noti di piu' dove non ti aspetti variazioni di luminosita'/colore.
Il segnale puo' essere visto come un mare perfettamente piatto, il rumore come un fastidioso vento che lo increspa.
La pelle ha fluttuazioni di incarnato di suo, ergo noti poco. Il muro, sfondi uniformi, cielo nero, sai che sono perfettamente uniformi e quindi noti le onde. Per capire se il mare e' piatto non e' il caso di osservarlo all'imboccatura di un porto: li' hai "rumore" di continuo.

Inviato da: SkZ il Jul 7 2008, 03:22 AM

Ecco per voi un flat fiel del telescopio Swope da 1m del Las Campanas Observatory. Normale in BW e in falsi colori, cosi' vi gustate meglio le differenze di risposta e pattern dovuti alla polvere sul sistema ottico (nel bw si notano la polvere sul sensore invece). Mi scuso, ma clickon non vuole png e quindi ho dovuto postare dei jpeg. E si', sono pesantine (ccd 2064x3150)
Per precisare: quel puntone (nero nel BW, blu nell'altro) a 2/3 dal basso e 2/3 da sx... PER PIACERE NON COMMENTIAMO! mad.gif
Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.
Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.

Inviato da: buzz il Jul 7 2008, 08:49 AM

Ma con gli antibiotici si riesce a sconfiggere? biggrin.gif

Congratulazioni per la creazione, ma cos'è? Ammasso gassoso? Dove?

Inviato da: SkZ il Jul 7 2008, 04:10 PM

quello e' uno schermo bianco uniformemente illuminato rifreso col filtro V (risposta circa dell'occhio umano). Immagine poi corretta per bias (tolto la mediana dei bias presi) e poi normalizzata al valor mediano (niente dark dato che il sensore e' tanto raffreddato che non ha bisogno). Mediamente il flat ha valori tra .8 e 1.2.
la seconda immagine l'ho messa a falsi colori coi valori piu' alti rossi (zone piu' sensibili), blu per i valori piu' bassi (zone in deficit). Cosi' si nota di piu' le variazioni di risposta dei pixel
quelle belle ciambelle sono le immagini prodotte dalla polvere presente nel sistema ottico (lenti, specchi, filtri) tra lo specchio principale e il sensore: mai provato a mettere fuori fuoco un catadiottrico? La ciambella e' l'immagine dello specchio principale.
i segni neri piu' marcati sono invece polvere sul sensore (si riconoscono un paio di pelucchi),ovviamnete tranne QUEL puntone, DI CUI NON VOGLIO PARLARE!

Inviato da: Galeno il Jul 7 2008, 04:20 PM

QUOTE(SkZ @ Jul 7 2008, 05:10 PM) *
.....
.....tranne QUEL puntone, DI CUI NON VOGLIO PARLARE!


Hai scoperto l' ennesimo "buco nero"?

Parlane, parlane! Siamo tutt' orecchi! (e occhi...)

Ciao e complimenti per le informazioni e le immagini.

Galeno.



Inviato da: SkZ il Jul 7 2008, 06:43 PM

buco nero si', ma nel chip! Per fortuna che l'ammasso e' ben distante da quel buco al 50%!
ma lo sapete che questi difetti sono contagiosi? rolleyes.gif che a parlarne compaiono anche nelle reflex?!

Inviato da: buzz il Jul 7 2008, 07:39 PM

un dead pixel?

Inviato da: SkZ il Jul 7 2008, 08:22 PM

copre un'area di 13pxl di raggio: no, non e' UN dead pixel. Osservato per bene e' come un avvallamento, una buca di "efficienza quantica" del ccd. Piu' in V che in R. Andrebbe oscurata nelle immagini da elaborare dato che e' poco affidabile/inutilizzabile, ma tanto non e' nella zona di interesse.
E' quello che si chiama piu' in generale un Bad Pixel (ogni sensore ha la sua 'bella' tabellina dei pixel che non lavora bene)

Inviato da: Galeno il Jul 7 2008, 08:56 PM

QUOTE(SkZ @ Jul 7 2008, 09:22 PM) *
copre un'area di 13pxl di raggio: no, non e' UN dead pixel. Osservato per bene e' come un avvallamento, una buca di "efficienza quantica" del ccd. Piu' in V che in R. Andrebbe oscurata nelle immagini da elaborare dato che e' poco affidabile/inutilizzabile, ma tanto non e' nella zona di interesse.
E' quello che si chiama piu' in generale un Bad Pixel (ogni sensore ha la sua 'bella' tabellina dei pixel che non lavora bene)


In fondo, a voler dar credito ad alcune teorie che vogliono l' infinitamente grande perfettamente simile e corrispondente all' infinitamente piccolo (V., ad es., la "Teoria delle Stringhe"), si tratta pur sempre di un "Black Hole"!
Infatti, al pari di quello siderale, "ingoia" qualsiasi fotone gli capiti a tiro...(ma, per nostra fortuna, solo fotoni...).

A parte gli scherzi, sarei interessato, e, come me, ritengo altri, ad approfondire sistematicamente l' astrofotografia.
Naturalmente, senza la pretesa di ottenere risultati paragonabili a quelli forniti dalle sofisticatissime apparecchiature di cui si avvalgono gli studiosi dell' "infinitamente grande".

Tuttavia, sarebbe di grande interesse un approccio graduale e sistematico alla materia.

Esiste qualche testo, possibilmente in italiano, che consenta di addentrarsi in tali tecniche, comprendente anche la descrizione dell' hardware e del software attualmente utilizzati?

Ciao e grazie.

Galeno.

Inviato da: SkZ il Jul 7 2008, 09:26 PM

beh, non crediamo che solo perche' effettuate ad un telescopio sopra il metro di diametro le "riprese" siano cosi' eccelse. Non e' tanto lo strumento, ma come vengono riprese. Se prendi male i campi standard per calibrare (mi e' successo di avere dati tali) hai gia' ridotto drasticamente la bonta'. penmso che Vincenzo riesca (nei limiti della sua strumentazione) a fare lavori anche migliori rispetto a piu' "professionali".
Per la elaborazione l'hw necessario e' un pc, meglio se attuale perche' i 64bit aiutano ad avere risultati migliori. Per la tesi ho lavorato su vecchie alpha a 500MHz che lavoravano egregiamente e comparabilmente a Athlon Xp 1700+ (mio pc di casa): unica diff data ai 64bit (ritengo, dato che l'alpha trovava piu' stelle). adesso uso un pentium3 dual proc con 1GB di ram
Sw: per elaborare le immagini sostanzialmente IRAF ( http://iraf.net http://iraf.noao.edu/ ) sotto linux/Unix. Non sempre semplice da installare, ma molto potente e molto complicato. Ma niente mouse, tutto a riga di comando. Dovrebbe forse esserci anche una versione per win, ma non so. Per visualizzare le immagini DS9, che e' presente con Iraf o quasi.
Per la fotometria dipende dagli instituti. Io e quelli che conosco usiamo DAOphot di P.B.Stetson (richiedibile direttamente a lui, anzi solo a lui), coadiuvati da un bel po' di script.
Il formato delle immagini usato e' il FITS.

Purtroppo testi non ne conosco: quello che so l'ho imparato durante i corsi universitari o di mia iniziativa cercando in rete.

Inviato da: SkZ il Aug 1 2008, 04:54 AM

non ricordo se e' stato detto che la differente risposta dei singoli pixel e' anche dovuta alla superficie non costante in valore degli stessi: qualcuno e' un pelin piu' grande, qualcuno un pelin piu' piccolo. Un ccd astronomico ha i pixel di 15 micro di lato, in media 225 micrometri quadrati: qualcuno potrebbe essere di 200, altri di 250 (esagerando, dato che avremmo variazioni del 10%).

Inviato da: Galeno il Aug 1 2008, 09:03 AM

QUOTE(SkZ @ Jul 7 2008, 10:26 PM) *
..........

Purtroppo testi non ne conosco: quello che so l'ho imparato durante i corsi universitari o di mia iniziativa cercando in rete.


Non avendo l' opportunità di seguire corsi specifici, cercherò anch' io in rete, ma temo in una ricerca infruttuosa, specie per pubblicazioni in italiano.


QUOTE(SkZ @ Aug 1 2008, 05:54 AM) *
non ricordo se e' stato detto che la differente risposta dei singoli pixel e' anche dovuta alla superficie non costante in valore degli stessi: qualcuno e' un pelin piu' grande, qualcuno un pelin piu' piccolo. Un ccd astronomico ha i pixel di 15 micro di lato, in media 225 micrometri quadrati: qualcuno potrebbe essere di 200, altri di 250 (esagerando, dato che avremmo variazioni del 10%).


Purtroppo, ritengo anch' io che gli unici che potrebbero, con completa cognizione di causa, fornire risposte puntuali siano i "costruttori" di sensori che, ovviamente, conoscono "vita morte e miracoli" delle loro creature!

Comunque, grazie per le informazioni, SkZ, e un caloroso "in bocca al lupo" per il tuo futuro di astronomo.

Galeno.

Inviato da: buzz il Aug 1 2008, 09:53 AM

Immagino che strumentalmente questa differenza sia "misurabile" ma mi domando se ciò possa influenzare l'insieme dell'immagine, considerando anche la tolleranza dei materiali e quindi la risposta di ogni singolo fotosito indipendentemente dalle sue dimensioni.

Inviato da: SkZ il Aug 1 2008, 03:59 PM

Diciamo che non so quanto in questo ambito possa influenzare, tolto che ormai la precisione di costruzione e' sempre maggiore. Ovviamente variazioni di qualche percentuale nel volume (la capacita' di raccolta dipende dalla superficie per quanto flusso riesce a intercettare, nella profondita' per quanti elettroni riesce a tenere prima di saturare o non essere perfettamente lineare) ci saranno sempre.
I flat sono vitali dove si lavora con il conteggio dei fotoni rilevati, penso meno dove e' la sensazione visiva che conta (l'occhio ha una percezione differenziale e logaritmica, quindi leggere differenze le nota meno)

Inviato da: liribau il Dec 20 2008, 05:49 AM

Esposizione chiarissima e didatticamente apprezzabile.
Voglio visualizzare con due immagini il concetto espresso nella tua esemlpificazione

"Se nel sensore avessimo accumulato un segnale luminoso pari a 100 (pioggerellina), il suo rumore sarebbe pari a 10, cioè il 10%. Se raccogliessimo 1000 (pioggia battente), il rumore sarebbe pari a 31, cioè il 3%."

L'immagine 1 è quella di un singolo fotgramma di un filmato di 1200 ottenuto con la webcam, la 611 è la somma dei 611 fotogrammi migliori (precedentemente allineati): il miglioramento del rapporto segnale/rumore è evidente.
Buon Natale a te e atutto il Forum
Liborio





 

Inviato da: buzz il Dec 20 2008, 11:37 AM

Sì, ma è venuta mossa!! smile.gif
nel frattempo che scattavi 611 immagini gli omini di saturno si sono scocciati di stare in posa e si sono spostati! biggrin.gif

Fantastico il risultato. Anche io sono riuscito a vedere saturno con questa nitidezza, peccato che per fotografarlo servano mezzi al di sopra di un piccolo telescopio cinese (sky master) nonostante l'inseguitore e il puntamento maniacale.
Forse un giorno se mi ritorna la passione (e i soldi) mi ridedicherò a questo genere di foto.

Ma ho letto bene? E' fatta con una webcam?

Inviato da: fotografo85 il Jan 15 2009, 09:27 AM

ciao buzz.. visto che ti ho trovato anche qui faccio una domandina a proposito del rumore: devo ancora provare ad usare il 50mm f1.4 in una chiesa... ma ho fatto varie prove a casa con la luce ambiente e sono giunto a qeusta conclusione: quando la luce è poca non c'è diaframma aperto che tenga... ci vuole il flash!
per colpa di quei preti che si sentono offesi dal lampo di luce di un flash e che ordinano di non utilizzarlo durante la funzione, a volte si è costretti a fotografare solo in luce ambiente (non mi è capitato ad un matrimonio ancora... ma ad una comunione).
Ora io non sono per niente soddisfatto dei risultati ottentuti dalle foto senza flash.. specie se poi devono essere foto di un certo livello quali quelle scattate ad un matrimonio..

confermate la mia idea (senza consigliarmi la D3x da 50000 caffe perchè tanto non li ho... ho la D300 e me la tengo stretta) o sbaglio qualcosa io?

ps x buzz: ricordati di caricare una foto con l'illustrazione di come disponi le luci in chiesa (ne avevamo parlato in un altro topic)

Inviato da: buzz il Jan 15 2009, 11:10 AM

Il tuo ragionamento non fa un apiega.
Se la luce è brutta anche la foto lo sarà, e non ci sono sensibilità o aperture che tengano.
Però il flash, anche illuminando mplto, non fa una "bella" luce, quindi approfittando delle sensibilità ottenibili con le nuove ferlex, io consiglio sempre di curare la luce di patrtenza (luce continua) e scattare ad una sensibilità che sia un buon compromesso.
Se usi le lampade di cui sopra e metti 1000 iso, vedrai ottimi risultati anche con la D300 (che ha poco da invidiare alla ammirglia in quanto a rumore)
Inoltre le lampade survoltate (quelle dei faretti per intenderci) cpontengono tutto lo spettro luminoso e quando bilanci il biuanco i colori sono molto belli a vedersi.
Ma cominciamo ad essere OT.
Al più presto pubblicherò una foto nella sezione matrimoni sulla posizione delle luci in chiesa.

Inviato da: SkZ il Jan 25 2009, 07:09 PM

@liribau: ottimo esempio. sommando 611 si aumenta il S/N di 24.7 volte crica

QUOTE(fotografo85 @ Jan 15 2009, 09:27 AM) *
confermate la mia idea (senza consigliarmi la D3x da 50000 caffe perchè tanto non li ho... ho la D300 e me la tengo stretta) o sbaglio qualcosa io?

questo e' una discussione sul rumore: la D3x e' proprio un esempio di peggioramente in tal senso. Al massimo si puo' suggerire la D700 (o la D3 per strafare) che ha un sensore con pixel con superficie doppia rispetto alla D300, ergo segnale a pari condizioni 2 volte piu' forte e S/N 41% piu' elevato. A proposito piu' luce vuol dire S/N piu' elevato, quindi aggiungendo luce (fotoni) il risultato migliora


Inviato da: maperna il May 16 2009, 11:14 AM

dry.gif Avendo io una D300, mi domando se la percentuale di rumore è la stessa su di un sensore CMOS.
Grazie per il chiarimento.

Inviato da: buzz il May 16 2009, 01:37 PM

ma la D300 ha un sensore cmos

Inviato da: luca.f il Sep 5 2009, 08:53 PM

Oggi leggo su una nota rivista fotografica (P.F. serie oro 9) che dai test in laboratorio sulla D90:

1) risulta meno rumore impostando la fotocamera su ISO low-1 che sui 200 standard;
2) che a parità di ISO vi è minor rumore con il formato Jpeg che con il Raw..

A parte il punto 1, direi trascurabile: mai avuto problemi di rumore a 200 ISO, il punto 2 mi ha sorpreso.

Tra l'altro, nel medesimo numero della rivista, ci sono altri test. Per la D700, pur con numeri diversi a favore ovviamente della 700, si ripete la stessa cosa: minor rumore col Jpeg che col Raw.
Qualcuno cortesemente può spiegarlo?
Personalmente credevo fosse il contrario..

Grazie in anticipo.
Un saluto.
luca

Inviato da: _Led_ il Sep 19 2009, 11:24 AM

QUOTE(luca.f @ Sep 5 2009, 09:53 PM) *
Oggi leggo su una nota rivista fotografica (P.F. serie oro 9) che dai test in laboratorio sulla D90:

1) risulta meno rumore impostando la fotocamera su ISO low-1 che sui 200 standard;
2) che a parità di ISO vi è minor rumore con il formato Jpeg che con il Raw..

A parte il punto 1, direi trascurabile: mai avuto problemi di rumore a 200 ISO, il punto 2 mi ha sorpreso.

Tra l'altro, nel medesimo numero della rivista, ci sono altri test. Per la D700, pur con numeri diversi a favore ovviamente della 700, si ripete la stessa cosa: minor rumore col Jpeg che col Raw.
Qualcuno cortesemente può spiegarlo?
Personalmente credevo fosse il contrario..

Grazie in anticipo.
Un saluto.
luca


Per capire meglio, l'estensore dell'articolo dovrebbe specificare (forse lo ha fatto, controlla meglio) se il calcolo del rumore sul raw è fatto prima o dopo conversione (con quale programma/algoritmo?) dei dati raw a dati RGB.

Comunque il risultato non stupisce perché il jpg è ottenuto direttamente dalla macchina, che nel caso della D90 (e non solo...) applica un algoritmo che anche a 200ISO toglie un po' di rumore, per il raw, in ogni caso (anche nel caso di utilizzo di Capture NX) la quantità di noise reduction è minore.

Inviato da: SkZ il Oct 1 2009, 01:25 AM

giusto un esempio
http://www.clikon.it/index.php?module=image&method=view&key=id=311869 http://www1.nital.it/uploads/./ori/200909/gallery_4ac2ba47632a3_Nefjpg.jpg
a sx da Nef qualita' massima, a dx jpeg Fine "on camera"
Ovviamente c'e' piu' rumore nel jpeg da Nef di qualita' massima. Questo perche' il jpeg on cam e' un po' compresso, ergo ha parte delle alte frequenze spaziali tagliate. Mentre un'immagine ha lo spettro poco forte alle alte frequenze spaziali, il rumore (rumore bianco in particolare, ma discorso valido cmq) e' piu' o meno costante ergo domina alle alte frequenze. Ergo tagliare alle alte frequenze togli piu' informazione al rumore che all'immagine :wink:
Praticamente il jpeg opera involontariamente un noise-reduction

Inviato da: maxsalut il Jun 8 2010, 02:35 PM

QUOTE(luca.f @ Sep 5 2009, 09:53 PM) *
Oggi leggo ......
2) che a parità di ISO vi è minor rumore con il formato Jpeg che con il Raw..
.... il punto 2 mi ha sorpreso.
Un saluto.
luca


é lo stesso problema che risulta anche in altri topic a carico della D90; la conversione a Jpeg on board è (come ha correttamente detto SkZ) un tantino troppo 'compressa' (io avevo scritto approssimativa...) rispetto a quanto puo fare PS o C-NX; di conseguenza si ottiene una linearizzazione dei punti che da un effetto 'simil Noise Red' e che quindi apparentemente riduce il rumore.


Inviato da: SkZ il Jun 11 2010, 05:43 AM

chiamala "tantino". Per la D80
jpg on camera: ~3.5MB
jpg da nef: ~5MB

Inviato da: lorenzobix il Jun 12 2010, 11:17 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 06:03 AM) *
Ammetto la mia ignoranza: non conosco gli LBLAST. Hai qualche link? Google non mi ha restituito nulla.

CCD-CMOS
Annosa questione, con argomenti a favore e sfavore sia dell'uno che dell'altro, che, nell'insieme, si pareggiano. Almeno per quanto riguarda la fotografia tradizionale.

Ciò che conta a mio parere è il risultato finale: la stampa. Qualcuno è in grado, di fronte ad una stampa, dire se provenga da un CCD piuttosto che da un CMOS? Io no.

Qualche anno fa la differenza sarebbe stata plateale

Buona giornata

Enzo Franchini


Salve a tutti
premetto di non avere una esperienza pluriennale nel mondo del digitale rispetto a tante altre persone che potrebbero certamente rispondere in maniera molto più esauriente di me, comunque io ci provo:
La differenza sostanziale tra i sensori CCD e CMOS è nel modo in cui l'informazione registrata dai pixel del sensore viene convogliata al di fuori di esso per essere poi interpretata dal software della macchina. Ogni pixel riceve una informazione differente da quello che gli si trova di fianco.
Per farmi capire devo usare un esempio un po' naif, ma tant'è: immaginiamo che il nostro sensore sia una scacchiera, e che tutti i quadrati, sia bianchi sia neri, di questa siano i nostri pixel. Come avviene il trasferimento dei dati da sensore a software macchina è la differenza tra sensori CCD e CMOS. il sensore CCD "passa" l'informazione di ogni pixel a quello successivo, dal primo fino all'ultimo. Uso quì la scacchiera per spiegarmi meglio: il primo quadrato in alto a sinistra (A8) passa l'info a B8, che poi deve passare la sua stessa info e quella di A8 a C8, e via dicendo fino alla fine della prima riga di caselle (H8). da qui, il segnale nei sensori CMOS passa direttamente al sofware della macchina. Nei sensori CCD invece, il procedimento che vi ho descritto prosegue per ogni fila di pixel, quindi il segnale arrivato ad H8 non viene inviato ma passa alla riga sottostante, dove ricomincia il suo iter (da H7 a G7 a F7 e via dicendo) Finita la fila 7 passerà alla 6, poi alla 5 e via dicendo fino alla 1.
Questo provoca 2 problematiche: Nei sensori CCD l'ultimo pixel della nostra scacchiera (H1) si ritrova a processare attraverso se' una quantità enorme di dati, diminuendo la velocità di scatto della macchina e rendendo la vita del sensore più breve di un CMOS dove solo gli ultimi pixel di ogni fila (H8,H7,H6,H5,H4,H3,H2,H1) processano solo i dati della rispettiva fila di pixel.
Saluti a tutti
(ho allegato la famosa scacchiera)

Lorenzo Burzi

Inviato da: SkZ il Jun 13 2010, 07:59 PM

Mai saputo di problemi di vita dei ccd. La perdita per trasferimento di carica (non e' efficiente al 100%, quindi c''e una perdita sensibile) e' un problema fastidioso, come appunto i tempi di lettura che spesso erano ridotti usando 4 canali (v. D200 o Y4KCam). Pero' la lettura da canali diversi puo' comportare fastidiosi problemi di diverso bias e gain (v. appunto Y4KCam)

Cmq generalmente per l'uso di una DSLR tale effetto non si nota wink.gif

Inviato da: _Led_ il Jun 14 2010, 03:54 PM

QUOTE(lorenzobix @ Jun 13 2010, 12:17 AM) *
Salve a tutti
premetto di non avere una esperienza pluriennale nel mondo del digitale rispetto a tante altre persone che potrebbero certamente rispondere in maniera molto più esauriente di me, comunque io ci provo:
La differenza sostanziale tra i sensori CCD e CMOS è nel modo in cui l'informazione registrata dai pixel del sensore viene convogliata al di fuori di esso per essere poi interpretata dal software della macchina. Ogni pixel riceve una informazione differente da quello che gli si trova di fianco.
Per farmi capire devo usare un esempio un po' naif, ma tant'è: immaginiamo che il nostro sensore sia una scacchiera, e che tutti i quadrati, sia bianchi sia neri, di questa siano i nostri pixel. Come avviene il trasferimento dei dati da sensore a software macchina è la differenza tra sensori CCD e CMOS.


Fin qui d'accordo. Pollice.gif

QUOTE(lorenzobix @ Jun 13 2010, 12:17 AM) *
il sensore CCD "passa" l'informazione di ogni pixel a quello successivo, dal primo fino all'ultimo. Uso quì la scacchiera per spiegarmi meglio: il primo quadrato in alto a sinistra (A8) passa l'info a B8, che poi deve passare la sua stessa info e quella di A8 a C8, e via dicendo fino alla fine della prima riga di caselle (H8).


Stai descrivendo un tipo di CCD, il Full Frame.
Bisogna però dire che ad ogni ciclo di clock questi passaggi avvengono contemporaneamente per ogni colonna, ovvero a8 passa a b8 che passa a c8, etc. fino ad h8 che passa la carica ad un registro orizzontale che poi trasferisce la carica in maniera seriale prima al convertitore carica/voltaggio, quindi il segnale va all'amplificatore ed al convertitore A/D. Lo stesso avviene per a7 e così via.

Ci sono anche altri tre tipi principali di trasferimento CCD, il Frame Transfer, l'Interline transfer ed il Frame Interline transfer, ma il meccanismo è quasi uguale.

QUOTE(lorenzobix @ Jun 13 2010, 12:17 AM) *
da qui, il segnale nei sensori CMOS passa direttamente al sofware della macchina.


La cosa più importante è che i sensori CMOS hanno un indirizzamento x-y, non vi è alcuno shift di carica, ma la carica dei singoli pixel viene trasfomata in tensione direttamente a livello di pixel.

QUOTE(lorenzobix @ Jun 13 2010, 12:17 AM) *
Nei sensori CCD invece, il procedimento che vi ho descritto prosegue per ogni fila di pixel, quindi il segnale arrivato ad H8 non viene inviato ma passa alla riga sottostante, dove ricomincia il suo iter (da H7 a G7 a F7 e via dicendo) Finita la fila 7 passerà alla 6, poi alla 5 e via dicendo fino alla 1.
Questo provoca 2 problematiche: Nei sensori CCD l'ultimo pixel della nostra scacchiera (H1) si ritrova a processare attraverso se' una quantità enorme di dati, diminuendo la velocità di scatto della macchina e rendendo la vita del sensore più breve di un CMOS dove solo gli ultimi pixel di ogni fila (H8,H7,H6,H5,H4,H3,H2,H1) processano solo i dati della rispettiva fila di pixel.
Saluti a tutti
(ho allegato la famosa scacchiera)

Lorenzo Burzi


Tutto questo a me non risulta. hmmm.gif

http://www.dalsa.com/public/corp/Photonics_Spectra_CCDvsCMOS_Litwiller.pdf

Inviato da: SkZ il Jun 14 2010, 06:21 PM

no no
il ccd come dice Led ad ogni ciclo abbasso le righe di uno trasferendo il contenuto della prima riga in un registro e poi svuotando il registro nell'unita' di lettura.
non esiste quel movimento a serpentina

Inviato da: warlock il Oct 6 2012, 01:52 AM

Sebbene sia un thread piuttosto datato vorrei ringraziare quanti hanno contribuito a divulgare queste conoscenze.
grazie.gif
Grazie mille, sopratutto al sig. Franchini che sa spiegare in modo molto elementare concetti non proprio facili da capire.

Spero che il mio "up" riporti in visibilita' questa piccola divulgazione a coloro che, come me, sono curiosi come scimmie pc_scrive.gif



Inviato da: BeSigma il Jan 5 2013, 01:07 AM

Veramente concetti importanti spiegati molto bene, grazie mille

Inviato da: lzeppelin il Feb 17 2015, 10:10 PM

QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 04:10 AM) *
Nella quantificazione del rumore relativo al segnale non compare mai la superficie di raccolta: è solo la quantità di segnale che conta. A parità di segnale il rumore riscontrato sarà identico, indipendentemente dalla estensione del pixel. La geometria del sensore conta solo nella capacità di raccolta del segnale (ciò che viene chiamato efficienza quantica) e non in maniera direttamente proporzionale.
La superficie del pixel non entra in gioco neanche nel rumore di lettura, perché l'unità di misura è l'elettrone/pixel. Notare che ho usato il termine geometria, di cui la superficie è solo una delle caratteristiche.


matematicamente cosa cambia tra un sensore full frame da 16 Megapixel e uno APS-C sempre da 16 Megapixel?
ok cambia la dimensione del fotosito, ma da quello che ho capito leggendo questa discussione, le dimensioni del pixel non contano, invece oggi sappiamo tutti quanta differenza ci passa tra un D4 e una D7000 (16 Mpixel entrambe)

Inviato da: buzz il Feb 18 2015, 01:42 AM

come fai a dirlo? si tratta proprio di questo!
Un fotosito grande prende più fotoni di uno piccolo, e in base al rapporto del rumore di amplificazione 8che è lo stesso perchè 'elettronica è uguale) un fotosito grande ne avrà dimeno.
posto ad esempio che il rumore è quantofocato fisso con un numero 10,, il fotosito piccolo nell'unità di tempo prende 50 fotoni, il grande il doppio, nella stessa unità ne prende 100, quindi il primo avrà un rapporto S/N di 50/10 il secondo ai 100/10.

Inviato da: alpacigno il Aug 28 2019, 11:41 AM

Salve a tutti. Mi chiamo Alessandro (alpacigno è il mio nickname). Sono registrato sul Sito Nital dal 2008 anno dell'acquisto della mia reflex Nikon D40.
Innanzitutto ho notato che questa "discussione" non è più ripresa dal 2015 (se non sbaglio). Ho letto tutti gli interventi sopratutto quelli più vecchi, quando c'erano sul mercato reflex digitali Nikon che forse pochi utenti avranno ancora.

Mi parto dal presupposto che il progresso tecnologico ha fatto passi da gigante, ma non sta a me divagare su questo: posseggo una Nikon D40 dal dicembre 2008, ora sembra "preistoria" ai più, perchè il digitale è diventato alla portata di tutti. Personalmente, avevo iniziato con la fotografia "seria" attraverso un corso di fotografia analogica (2003-2004) a cui davano la possibilità ai corsisti di sviluppare alcuni rullini (in bianco e nero). Un'aula dell'istituto era adibita a vero e proprio "laboratorio di sviluppo" pur con i limiti del caso: un proiettore - ovviamente usato ma perfettamente funzionante - più tutte le attrezzature adeguate (tank, bacinelle, pinzette, soluzione di sviluppo, arresto ecc) che in questo momento non ricordo bene come "procedura"; è passato un bel pò di tempo.

Riprendendo il discorso, per chi eventualmente lo leggerà, le nuove reflex Nikon "paventano" risultati strabilianti ad ISO inimmaginabili fino ad alcuni anni fa. Io mi ricordo che utilizzavo un rullino Ilford® DELTA PRO 100, e altre tipologie di rullini - cui non ricordo bene - potevano essere "allungati" (detti in gergo) da ASA 800 a 1600. Un fotografo di professione, che era pure il "tutor" del corso, raccontava aneddoti interessanti su "esperimenti" che lui faceva anche in base a suggerimenti ed esperienze proprie ed altrui.
Nel dicembre 2008 quando comprai la mia Nikon D40, esistevano pochi modelli Nikon: in quel negozio aveano D90 e D3s (se non ricordo male ma il prezzo lo ricordo eccome!) e comunque dopo alcuni mesi dall'acquisto, io iniziai a fotografare un pò in manuale. Con gli obiettivi in possesso (kit) ovviamente con il tempo ho capito che non mi andavano più bene. Solitamente scattavo (e scatto tutt'ora) ad ISO compresi tra 200 e 400 e raramente mi spingevo oltre 800. La funzione "NR" l'ho sempre disattivata, ed ho notato che ad esempio in certe situazioni di "luminosità" non elevata (diciamo alcuni minuti prima del tramonto) e considerando ovviamente che in certe situazioni non ho con me un treppiede, che scatto a mano libera e che gli obiettivi in mio possesso non sono "VR", se scatto ad ISO 400 con AF-S DX 18-55mm f/3.5-5.6G o con AF 50mm f/1.8D (più o meno alle stesse condizioni, quindi considerando che scatto in M program e MF focus, WB regolato manualmente) perdo "qualcosa" in dettaglio con il 18-55, mentre con il 50mm si nota una "grana" però non netta... non so come spiegare.

Comunque non ho con me foto di esempio, allego una fotografia scattata con Nikon D5000 per rendere l'idea.

https://www.nikonclub.it/gallery/index.php?module=listGallery&method=detail&id=2467215

https://www.nikonclub.it/gallery/index.php?module=listGallery&method=detail&id=2467215


Qui il discorso è abbastanza simile a quello che intendevo con la D40, ma nel caso della D5000 è un pò più diverso.
Questa Nikon D5000 l'ho comprata di seconda mano circa un mese fa (dalla data in cui scrivo qui), condizioni estetiche e meccaniche perfette ecc ecc ma con alcune "features" che dovevo "regolare". Ad esempio, ho scattato con il 50mm f/18.D, un filtro Tiffen® Digital HT 812 warming, ma sopratutto avevo per sbaglio regolato nitidezza (+9) e contrasto (+3) elevati (on camera). In pratica il Picture Control fatto direttamente dal menù della D5000. Riversando su PC ho notato un pò di "grana" ma siccome in questo periodo utilizzo un PC portatile da 15" (da premettere che non è tarato con i profili colore, per cui può influire sulla "resa" cromatica) devo vedere meglio su PC desktop con monitor più grande e "tarato".
Comunque, forse perchè era stata una delle mie prime foto dall'acquisto con la D5000, successivamente avevo fatto diverse fotografie (quindi tutte nere) con obiettivo e tappo copri obiettivo, o anche senza obiettivo col solo tappo copri bocchettone, per vedere il "rumore" ad ISO 800, 1600 e 3200. Sarà stato forse all'inizio che questa macchina non faceva fotografie da un bel pò (risulta circa 19.000 foto scattate dal 2008 anno del suo acquisto del precedente proprietario) sta di fatto che ad ingrandimenti X2 e superiori (su ViewNX-i di Nikon) notavo un pò di rumore (però ad ISO 800 e superiori) che paragonato alla D40 era più evidente, ma non mi preoccupò più di tanto. Credo che sia normale. La D40 scatta a 3008x2000 (6.1 Mpx) mentre la D5000 scatta a 4288x2848 (12,1 Mpx se non ricordo male).

Spero di essere stato chiaro, è anche il fatto che avevo dimenticato di regolare il Picture Control su NORMAL o STANDARD o comunque siccome su D40 regolavo spesso tali parametri per avere una fotografia più inerente a quello che volevo rappresentare, su D5000 evidentemente se regolo troppo alti nitidezza e contrasto si presenta un pò di rumore digitale anche ad ISO 200 e, ripeto, ho fatto poche fotografie con questa D5000 e devo regolare meglio certe "cosette".
Intanto devo sfruttarla di più, può essere che in condizioni di forte contrasto all'inizio si vedeva un pò di rumore. Allego un'altra fotografia con D5000 però fatta di giorno dentro casa, con WB tarato per una fonte di luce un pò diversa (il bianco è leggermente azzurrino).

https://www.nikonclub.it/gallery/index.php?module=listGallery&method=detail&id=2472878
https://www.nikonclub.it/gallery/index.php?module=listGallery&method=detail&id=2472878


https://www.nikonclub.it/gallery/index.php?module=listGallery&method=detail&id=2472865
https://www.nikonclub.it/gallery/index.php?module=listGallery&method=detail&id=2472865


N.B le ultime due fotografie sono state scattate con un obiettivo "vecchia maniera" un AI Nikkor Zoom AF 35-70 f_3.3-4.5 di quelli in cui devo regolare la ghiera del diaframma sul barilotto e l'esposiemtro interno della D5000 non funziona (ho utilizzato un esposimetro esterno analogico).
Mi scuso per essermi dilungato troppo...

Inviato da: danardi il Aug 29 2019, 02:08 PM

La D5000 è uscita appena 2-3 anni dopo la D40 con un botto di pixel in più. Non mi aspetto un gran miglioramento nelle prestazioni di rumore digitale.

Inviato da: buzz il Aug 29 2019, 11:37 PM

Non ho capito quale è la domanda.
Hai fatto un posto lungo dove racconti diverse cose, ma non ti soffermi su nessuna.
Di base posso dirti che se esageri con la maschera di contrasto o comando nitidezza che sia, la foto ti verrà piena di grama, anche a 50 iso.
Eì una normale conseguenza del filtro applicato.
Qualsiasi modifica infatti va applicata sapientemente, non a caso.
per il resto se hai qualche perplessità specifica, esponila, e saremo ben lieti di colmare eventuali lacune.

Inviato da: alpacigno il Sep 3 2019, 11:15 AM

Quindi, magari mi sono dilungato troppo su discorsi personali, ma solo per farvi capire per chi magari non ha una D40 o D5000.
Rispondo a "Buzz" che è quello che mi ha capito.
Conosco a menadito la D40, so pregi e difetti. Facciamo finta che devo scattare la stessa fotografia con stesso obiettivo alle stesse condizioni (ISO, f/xx, xx/sec) e applicando "on-camera" nitidezza e contrasto esaltati (è una prova, magari in certe situazioni non serve e questo lo so!) su D40 il cosiddetto "rumore digitale" è meno visibile, mentre su D5000 è più visibile. Però c'è da considerare che la D40 ha 6,1 Mpx, mentre la D5000 ha 12 Mpx circa, per cui se io "ingandisco" a 2x o 3x su View Nx-i le due fotografie, su D5000 si vede un pò di più la grana (sulle ombre) e credo sia normale se appunto ho regolato la nitidezza e il contrasto nei valori massimi o più elevati del normale.
Da premettere che la D5000 nel momento in cui ho fatto la fotografia allegata al precedente mio post (paesaggio avvolto nella nebbia) essendo stata comprata di seconda mano, può essere che non era stata utilizzata da un pò di tempo. Nel manuale accluso della Nikon in corrispondenza della voce "cura della fotocamera" si consiglia di scattare qualche fotografia, anche a "vuoto" almeno una volta al mese, o comunque abbastanza spesso va presa, inserendo la batteria ed accesa, facendo delle foto di prova onde evitare l'insorgenza di muffe o magari accumuli di condensa. Lo faccio spesso sulla D40 per mantenerla attiva.
Comunque, ho scattato qualche altra fotografia con D5000, regolando più sapientemente nitidezza e contrasto, e facendo qualche fotografia in condizioni di luminosità diverse (pieno giorno, o verso il tramonto) e credo che il problema non è evidente come prima.
Non ho scattato molte foto con D5000, quindi più avanti quando la sfrutterò farò dei "test".
In definitiva sono dei "test" per capire la differenza tra le impostazioni "on-camera" che su D5000 sono più "precise": basta cambiare ad esempio nitidezza da +3 a+5 per cambiare qualcosa ed è più visibile.
Spero di essere stato comprensibile, tendo ad "allungare" il discorso ed essere troppo descrittivo: non mi piace la fretta neanche nei discorsi.

Inviato da: buzz il Sep 3 2019, 12:06 PM

Se vuoi fare davvero un confronto, scatta con entrambe le fotocamere in "flat" ovvero senza inserire alterazioni alcune.
non ha un valore scientifico, ma è un buon inizio.
Per sommi capi sappi che un fotosito avrà un rapporto segnale/rumore in relazione alle sue dimensioni.
un fotosito grande ha meno rumore di uno piccolo, e questo al di la del circuito di elaborazione successivo.
Ne consegue che 14 Mpx su DX sono siti più piccoli del 6 Mpx della D40.
Il progresso tecnologico ha migliorato il software di rielaborazioone più dell'hardware di costruzione, per cui credo che in linea di massima il discorso sia questo.

Inviato da: alpacigno il Sep 3 2019, 05:29 PM

Grazie mille "Buzz"... Non ha mica preso il nickname da "Buzz Lightyear" di "Toy Story"? texano.gif
Comunque è una battuta senza offesa, lo specifico fin da subito. Non frequento molto i forum anche se ci sono discussioni interessanti. Non voglio uscire "off-topic".

Quindi è più o meno la stessa cosa che avevo pensato e che mi hai consigliato: scattare nelle stesse condizioni con NORMAL o STANDARD e vedere meglio.
Per quanto riguarda il "rumore digitale" c'è la funzione "noise reduction" ma su D40 mai utilizzata come non l'ho attiva su D5000, ma devo provare eventualmente. Avevo letto sul manuale e da qualche parte sul web (non ricordo dove, forse il Chuck Norris della fotografia - Ken Rockwell) che consigliava di disabilitare il NR su ISO elevati. Come avevo specificato in precedenza, solitamente scatto tra 200 e 400 o raramente a 800 ISO. Se non sbaglio, le dimensioni dei sensori D40 e D5000 sono uguali, ma ovviamente cambiano i pixel "contenuti" e la progettazione di cui noi comuni mortali non sappiamo nulla, ci fidiamo di "mamma Nkon". Su D5000 ancora non ho provato a ISO 800 o superiori comunque... lasciando da parte questa "cosa" se avrò altri "dubbi" magari farò un altro "intervento" cercando di essere più sintetico.

Un' ultima cosa... è off-topic ma domando un pò a chi legge... non solo a "Buzz" ma se ne sai qualcosa ben venga!
Ho comprato un obiettivo Nikkor Zoom di tipo "AI" cioè la regolazione dell'apertura del diaframma avviene tramite ghiera obiettivo, come anche messa a fuoco e "zoom" entrambi in manuale. Su reflex regolo i tempi di esposizione.
Mi trovo con il "problema" della regolazione del WB personalizzato "on-camera" sia su D40 che D5000 con obiettivo AI, cioè non potendo "esporre" con un cartoncino grigio al 18% (non conosco l'accoppiata tempi / diaframmi) non posso fare il "wizard on-camera" (spero di essere stato chiaro).
Il wizard avviene tramite MENU -> MENU DI RIPRESA -> WB PREMISURATO che consiste nel porre davanti all'obiettivo con focale > 50mm un foglio bianco (ma io utilizzo un cartoncino gigio 18%), mettere a fuoco all'infinito (in manuale senza AF), mettere M PROGRAM nella reflex, regolare l'esposimetro interno affinchè si abbia 0 (zero) come esposizione, e scattare una "foto" che verrà memorizzata tramite "wizard".
Nel caso in cui con questo obiettivo AI non so "a priori" l'accoppiata tempo / diaframma (perchè non funziona l'esposimetro interno della reflex) posso utilizzare un esposimetro esterno? E in questo caso l'esposimetro devo regolare in "luce riflessa" sul cartoncino grigio, ottenere la misurazione e "impostarla" sulla mia reflex. Dopodichè posso fare il "wizard" del WB PERSONALIZZATO.
Spero di essere stato chiaro, è una procedura un pò laboriosa, devo provarla ovviamente ma avevo pensato di fare cosi!
Eventualmente se conoscete un altro "sistema" ve ne sarei grato. Comunque appena proverò questa "cosa" e se funziona (vado per logica più che altro).

Inviato da: buzz il Sep 9 2019, 11:34 PM

Buzz viene da Buzz Aldrin, il secondo uomo sulla luna. un po' prima del buzz di toy story.

Per il WB on camera, usando il cartoncino, l'esposizione non ha molta importanza, dato che anche se sovra o sottoesposto, il "colore" del grigio non cambia (entro certi limiti).
Ma la domanda sorge spontanea: se non hai esposimetro, come scatti? a occhio o con uno esterno?
E se hai quello esterno, non puoi esporre per il cartoncino e misurare il wb?!

Inviato da: alpacigno il Sep 10 2019, 11:41 AM

Eh mi ricordavo di un altro "Buzz" allora credo che il personaggio di Toy Story abbia "preso" da Buzz Aldrin. Questo astronauta fu "eclissato" da Neil Armstrong solo per il "grande passo" fatto da quest'ultimo.
Comunque lasciando da parte queste cose, vengo brevemente alla tua domanda.
Utilizzo un esposimetro analogico esterno, e "ad occhio" con una "tabellina del 16" (che poi sarebbero gli EV in base alle condizioni di luce) che comunque avevo scaricato un pò di tempo fa in un sito - di cui non ricordo - ma ho tutto conservato su hard disc esterno, se ti interessa il link. Questa tabellina si stampa su cartoncino, c'è una procedura come fare, e ti trovi con questa "card" scorrevole in cui, una volta che decidi quale ISO applicare e, visionado la scena (sole, leggermente nuvoloso con sole, nuvoloso, pioggia, luce artificiale ecc ecc), fai collimare il valore EV con l'ISO che hai stabilito. Il valore EV si può misurare anche con esposimetro esterno. Questa procedura se non ho ovviamente l'esposimetro esterno, ma solitamente utilizzo entrambi pure per un confronto.
Per quanto riguarda il WB personalizzato, procedura wizard sul menù della D40 o D5000 (dovrebbe essere uguale per tutte le Nikon) il problema sorge quando utilizzo l'obiettivo AIs, perchè se non mi funziona l'esposimetro interno della reflex non posso fare questa misurazione.
Faccio un esempio classico SE MI FUNZIONA l'esposimetro interno della reflex. Esempio con un obiettivo con CPU AF, AF-D e roba simile, imposto M program sulla reflex ed M focus su obiettivo (messo anche ad infinito) con una lunghezza focale > 50mm. Piazzo il cartoncino grigio davanti all'obiettivo a circa 15cm, o comunque tale che possa vedere tutto il cartoncino nel mirino della reflex. Ovviamente misuro per quella tipologia di luce che mi interessa: io cerco il grigio 18% per una data scena. Vado sul menù della reflex per il WB personalizzato, la procedura mi chiede di "esporre" per quel valore che mi dice l'esposimetro interno (l'apertura del diaframma non conta molto, io solitamente imposto f/4), e regolo ovviamente il tempo di esposizione in modo da avere esposizione collimata a ZERO. Appena scatto, se ho fatto la procedura corretta mi compare un messaggio nel display e nel mirino della reflex (Gd). Casomai, la devo rifare.
Nel caso in cui NON mi funziona l'esposimetro INTERNO perchè utilizzo l'obiettivo AIs, o mi affido al WB AUTO (o quelli preimpostati sulla reflex), o mi creo una "lettura" personalizzata. Io preferisco il WB personalizzato perchè è infallibile se fatto a dovere. Avevo provato un modo, anche se ho fatto una prova in interni, e mi sembra che funziona.
In questo caso devo avere un esposimetro ESTERNO altrimenti non lo posso fare (ne avevo comprato uno online, il Sekonic Twinmate L-208 per dovere di cronaca).

1 - Prendo l'esposimetro, tolgo o sposto la lumisfera (la calottina bianca) perchè mi serve la LETTURA in LUCE RIFLESSA come se fosse quello della reflex. Mi imposto il valore di ISO;
2 - Prendo il cartoncino nelle condizioni di luce che mi interessa, nel mio caso era su interni, ma per essere più preciso in condizioni di scarsa luce mi metto con le spalle sulla finestra in modo che la luce proveniente illumini il cartoncino (ovviamente mi posiziono in modo da non fare ombra con il corpo a circa 45° spostato). Prendo l'esposimetro in LUCE RIFLESSA misuro sul cartoncino ad una distanza 5-8cm in modo da prendere tutto il cartoncino (in luce riflessa bisogna considerare l'angolo di lettura che è di circa 33°, se lo metto troppo lontano dal cartoncino rischio di avere una lettura sfalsata); Ottengo una certa misurazione agli ISO impostati, che è quella in cui collimo la tacca verde con quella rossa che mi suggerisce l'esposimetro. E' l'unica lettura da prendere, tutte le altre sono la diretta conseguenza dell'esposizione. Inserisco due immagini di esempio

[attachment=200487:P_20190831_142520.jpg]

Questo esposimetro a riposo PRIMA della misurazione

[attachment=200488:P_20190831_142920.jpg]

Dopo la misurazione, facendo collimare la freccia verde (che è quella che si può spostare) con quella rossa (che è la misurazione suggerita dall'esposimetro).

In questo caso - un esempio - a ISO 200 a f/8 a circa 1/50 sec è per l'esposimetro il GRIGIO 18% per quella situazione di luce misurata in LUCE RIFLESSA sul cartoncino grigio 18%. In pratica dovrei farla con la relfex ma, ripeto, NON mi funziona esposimetro interno con obiettivo AIs;

3 - Ora prendo questi valori, e li imposto sulla reflex. L'apertura del diaframma lo imposto sul barilotto dell'obiettivo, mentre ISO e tempi di esposizione su reflex.
4 - Prendo il cartoncino e faccio la procedura del wizard on-camera del WB personalizzato, perchè SO che ad ISO 200, f/8 ad 1/50 se inquadro il cartoncino grigio NELLE STESSE condizioni di PRIMA (con il Sekonic L-208) ottengo il WB personalizzato;
LA PROVA DEL NOVE: semplicemente faccio una fotografia alla stanza, anche con altri valori di "f" e tempi di esposizione (ovviamente quelli complementari che sono sull'esposimetro). Se il muro bianco della stanza è bianco in foto è tutto ok! Se il muro della stanza è giallo paglierino e ottengo nella foto giallo paglierino è OK!

Procedura lunga, lo so... blink.gif

Realizzato da: Invision Power Board (http://www.invisionboard.com)
© Invision Power Services (http://www.invisionpower.com)