FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
4 Pagine: V  < 1 2 3 4 >  
B&W con D200
Bianconero di luminanza sensore ?
Rispondi Nuova Discussione
Utente cancellato
DEREGISTRATO
Messaggio: #51
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 04:34 PM) *

Qual è la differenza tra un sensore monocromatico ed uno a colori?
La presenza del colore sulle microlenti, che ambedue posseggono.

mi par di capire che non sia un problema di "efficenza quantica"...
ovvio, il colore fa perdere un po' di luminosita', ma il problema non mi pare sia quanta luminosita', ma quale.
se io voglio riprendere un bel foglio blu uniforme, il sensore b/n mi restituira' una tonalita' di grigio uniforme, il sensore con le microlenti colorate e matrice di bayer restituira' una cosa ben diversa, perche' i pixel dietro alla microlente rossa e quelli dietro alla microlente verde saranno oscurati, piu' che dall'efficenza quantica della microlente colorata, dalla colorazione della microlente.

e non mi pare un dettaglio da poco.

andrea
earlybird
Messaggio: #52
QUOTE(acarodp@yahoo.it @ Sep 25 2006, 06:19 PM) *

Non so, io temo che l'uniformità debba essere MOLTO elevata per evitare che appaiano artefatti. Quindi un cielo azzurro andrebbe anche bene, non fosse che appunto è azzurro, il che mi fa sospettare che a valle delle microlenti produrrebbe un FF cromaticamente distorto o sbaglio? Mi vien fatto di pensare che se applichi un FF fatto su cielo azzurro attraverso un sensore colore, la sensibilità dei pixel blu apparirebbe falsamente elevata, e di conseguenza sarebbero falsamente "tagliati" quando dividi per il FF. O c'è qualcosa che non capisco? Il mio punto è appunto questo: tu HAI un sensore a colori, per cui per produrre un FF che non induca "filtraggi" spuri la luce usata per il FF dovrebbe essere neutra cromaticamente.

In questo thread stiamo parlando di ottenere il B/N da un sensore a colori.
Asserisco che non esiste bisogno di passare attraverso la decodifica colore e da questa ottenere il file luminanza che ci dà il B/N. Uno dei metodi per ottenere ciò è l'applicazione del FF. L'ideale certamente sarebbe una bella illuminazione bianca, ma non è strettamente necessario. Che differenza c'è tra catturare un flat da un cielo azzurro o una parete rosa? A noi non interessa la dominante cromatica, ma la risposta che forniscono i pixel coperti dai microfiltri colore. Il cielo azzurro farà raccogliere più segnale ai pixel B e molto meno agli R e G. Una parete rosa più agli R e meno ai B e G ecc ecc. Ma il nostro scopo è che il flat ci dica di quanto dobbiamo correggere la risposta di ogni pixel, che raccoglie solo fotoni, non dominanti, affinchè dia una uniformità di risposta. Qualcuno è in grado di dire, osservando una foto B/N se un grigio rappresenti un azzuro, piuttosto che un rosa o un verde? Nessuno, a meno che l'oggetto non sia noto (una pianta, un cielo...) Come la pecunia non ha odore, così il grigio non ha colore, nè dominanti.
Stiamo parlando di pixel, non di matrici di 4 pixel. E a livello di singolo pixel, il flat permette di ripristinare segnali che i filtri colorati hanno tagliato, perché rappresenta una mappatura dell'efficienza dei singoli pixel.

QUOTE

Non sarei poi d'accordo che per il BN il colore non serve. La resa di un BN è totalmente dipendente dalla risposta colore del sistema ottico, prova ne è che i filtri colorati sono stati sempre impiegati nella fotografia BN. Un grosso vantaggio del BN digitale è proprio che ti porti dietro i colori fino alla postproduzione, e puoi decidere cosa farne a posteriori.

Stavo parlando di come poter ottenere un B/N da un sensore a colori, non dell'effetto artistico indotto dai filtri. Forse non mi sono spiegato bene.

QUOTE

Il motivo per cui in astronomia si eseguono i flat sul cielo è anche che il cielo del crpuscolo è una delle cose più uniforme che puoi trovare, e lì l'uniformità è fondamentale. La questione delle torsioni è relativa: ogni posa sarà fatta a puntamenti diversi tra loro e diverso da quello sul twilight... non credo che tu possa correggere in tal senso. L'uso delle lampade di calibrazione, direi, è giustificato soprattutto dalla necessità di eseguire flat di sistemi ottici che non possono fare flat di cielo (es. spettrografi).

L.


Altro metodo per ottenere il flat in osservatorio è quello di riprendere una parete o di porre una light-box davanti alla lente frontale. Io seguo sempre la regola di non muovere mai lo strumento. E non ho lampade calibrate. Uso led calibrati per controllare la banda dei filtri dicroici. Non ho esperienza di spettrografi.
Per fortuna, ripeto, con la nostra Nikon a tracolla non è poi difficile trovare una qualunque superficie omogenea per ottenere un flat.

Al dilà del discorso B/N, ricordiamoci, anche il campo principe dell'applicazione del flat: vignettatura e polvere.

E.F
Utente cancellato
DEREGISTRATO
Messaggio: #53
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 08:57 PM) *

In questo thread stiamo parlando di ottenere il B/N da un sensore a colori.

questo penso sia chiaro a tutti
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 08:57 PM) *

Asserisco che non esiste bisogno di passare attraverso la decodifica colore e da questa ottenere il file luminanza che ci dà il B/N.

io sostengo il contrario, e non trovo ancora nessuna valida motivazione per cambiare opinione.
men che meno il flat field

andrea
Giuseppe Maio
Nital
Messaggio: #54
QUOTE(andreafoschi @ Sep 25 2006, 09:16 PM) *

...io sostengo il contrario

Come Stefano Bonfà quindi...

QUOTE(andreafoschi @ Sep 25 2006, 09:16 PM) *

...e non trovo ancora nessuna valida motivazione per cambiare opinione....

Per non entrare negli aspetti "esasperati" dell'astrofotografia basterà guardare gli effetti di una conversione BN come da oggetto di questa discussione e confrontarli con gli altri metodi.
Scrivere gli effetti diventa diverso che valutare la gamma ad occhio su un monitor CRT noto.
Questo potrebbe essere un buon punto di partenza per poi eventualmente "scoprire" come l'algoritmo opera.

G.M
Utente cancellato
DEREGISTRATO
Messaggio: #55
QUOTE(Giuseppe Maio @ Sep 25 2006, 09:21 PM) *

Come Stefano Bonfà quindi...

caspita... messa cosi' sembra una colpa...
QUOTE(Giuseppe Maio @ Sep 25 2006, 09:21 PM) *

Per non entrare negli aspetti "esasperati" dell'astrofotografia basterà guardare gli effetti di una conversione BN come da oggetto di questa discussione e confrontarli con gli altri metodi.
Scrivere gli effetti diventa diverso che valutare la gamma ad occhio su un monitor CRT noto.
Questo potrebbe essere un buon punto di partenza per poi eventualmente "scoprire" come l'algoritmo opera.

purtroppo, e' una via impercorribile.
concordando ancora una volta con Stefano Bonfa' (mi tocca pure l'aggravante della recidiva...), capture (4 o nx che sia) compie operazioni fuori del controllo dell'utente, per cui diviene impossibile un qualsiasi confronto.

e' comunque non contestabile che fotografando un oggetto a colore uniforme, e non grigio, il w/b di capture fornisce un grigio uniforme.
un w/b sulla pura luminanza puo' essere ricavato per esempio con iris, ed e' profondamente diverso da quanto ottenibile con capture.

andrea
Utente cancellato
DEREGISTRATO
Messaggio: #56
Eppure ho cercato San Capture nell'elenco dei Santi ma non ho ancora trovato niente... hmmm.gif

Ricordo le discussioni sul recupero alte luci, tra l'altro ripetutamente segnalate, in cui addirittura si gridava al miracolo... e pensare che io invece ho notato a lungo che Capture taglia le alte luci ed anche le bassissime luci, e quando dice di recuperare taglia solo di meno... non parliamo poi recuperando di quell'orribile papocchio che salta fuori, di pezzi in bianco-nero su una foto a colori...

Quello di ricavare la luminanza di un pixel disponendo solo di un colore primario Lampadina.gif sarà l'ultimo miracolo si Capture... mi sa che nell'elenco dei Santi devo cercare San Cattura, versione italiana... biggrin.gif

Utente cancellato
DEREGISTRATO
Messaggio: #57
QUOTE(andreafoschi @ Sep 25 2006, 09:47 PM) *

caspita... messa cosi' sembra una colpa...
...
concordando ancora una volta con Stefano Bonfa' (mi tocca pure l'aggravante della recidiva...)

Andrea, se ti invitano a Campo dei Fiori (Roma) per una pizza, nun ci anna'... ricordate de Giordano Bruno... te fanno arrosto ! messicano.gif
In quell'elenco non ho trovato nemmeno Santa Inquisizione...
Mah

C'è una gran confusione in giro riguardo i termini (adotto i nomi internazionali) luminance, luma, lightness, brightness, value, illuminance.
Per farla breve e non saltare la cena (è solo mattina...): qualcuno wink.gif confonde il canale luminanza con una qualsiasi immagine in bianco-nero.

Si possono ottenere immagini BN diverse da quella del canale luminanza in tantissimi modi... senza essere eroi... e senza andare a Lurdesse...

Sempre per non saltare la cena, prova ad estrarre il canale V (Value) nel sistema colore HSV, oppure il canale L (Lightness, impropriamente detto "modello matematico della luminanza") nel sistema colore HSL.
Se poi vogliamo scomodare il luma ed i vecchi modelli usati nei vari sistemi televisivi o elencare tutte le possibili variazioni di parametri (bilanciamento del bianco incluso) in fase di costruzione immagine BN... beh, allora famo notte !


margior
Messaggio: #58
QUOTE(StefanoBonfa @ Sep 26 2006, 09:19 AM) *

C'è una gran confusione in giro...
...qualcuno wink.gif confonde il canale luminanza con una qualsiasi immagine in bianco-nero...


Ehm... tongue.gif

Non è tanto questione di confondere...

E' questione, come suggeriva Paolo Torrielli, di fare qualche prova.

Qualche prova/confronto con NX l'ho fatta e può essere vero che se la prima parte del processo (conversione scegliendo il modo colore B/N con o senza "filtri") è al di fuori del nostro controllo, poi rimane sempre a disposizione un immagine rgb su cui si può lavorare. Sembra effettivamente che il "B/N" che ne esce sia con una gamma ben distribuita (leggibilità luci e ombre) quindi lascia ampi margini di intervento secondo i propri gusti, questo è quello che si nota di più.

Quanto al lavorare in PS sul canale della luminanza e poi estrarre il canale...che c'è di male?



Utente cancellato
DEREGISTRATO
Messaggio: #59
Fatemi capire una cosa però...

supposto che non me ne freghi niente della fisica quantistica, supposto che per fare una foto BN non devo necessariamente sapere cose come matrici di Bayer e altre cose utili più ad un ingegnere che a un fotografo, e riassumendo un po un discorso dagli indubbi contenuti tecnologici...

Come faccio ad ottenere un buon BN, senza noise e con la gamma tonale più estesa possibile, in modo così da poterci lavorare sopra con la certezza di avere quanto più "materiale" da poter usare?

Da quel che avevo capito ad inizio discussioni, Maio sostiene che Capture è il software che in conversione BN da la maggior gamma disponibile, superiore as ACR o altri software di conversione.

Dunque a voi chiedo, quale metodo, che non implichi software fai da te o metodologie troppo complesse, ritenete migliore?
E il BN on Camera? è uguale a quello ottenibile con Capture? migliore o peggiore?

Infine a Stefano, per mia pura curiosità... più di una volta ci hai mostrato le immagini native del sensore, senza applicazioni di curve... per intenderci quelle tutte a quadrettini... c'è un modo per ottenerle? vorrei provare a farne un uso grafico/creativo.

grazie.gif
margior
Messaggio: #60
QUOTE(matteoganora @ Sep 26 2006, 09:44 AM) *

Fatemi capire una cosa però...



Allora, alcune risposte sono già state date nei post precedenti.

Il b/n on camera di D200 corrisponde al modo colore b/n di Capture in tutto e per tutto ed è ovviamente reversibile (i.e. alla foto puoi applicare gli altri modi colore e torna a colori). Il b/n on camera di D80 come sopra, più la possibilità di uso dei "filtri" on camera e non solo con capture.

Quanto al resto, ci si è accapigliati su questioni nominalistiche (l'uso improprio del termine di luminanza,...) o teoriche (far vedere "immagini" b/n dei pixel del sensore mentre si tratta di pixel "colorati" perché filtrati, etceteralia)
...mentre conviene semplicemente provare! Quello che ho notato l'ho scritto e le opportunità che offre, pure...

Suppongo che trattandosi di un algoritmo di conversione, altri software potranno fare operazioni analoghe direttamente dai dati raw...attendiamo.

acarodp@yahoo.it
Messaggio: #61
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 08:57 PM) *

In questo thread stiamo parlando di ottenere il B/N da un sensore a colori.
Asserisco che non esiste bisogno di passare attraverso la decodifica colore e da questa ottenere il file luminanza che ci dà il B/N. Uno dei metodi per ottenere ciò è l'applicazione del FF. L'ideale certamente sarebbe una bella illuminazione bianca, ma non è strettamente necessario. Che differenza c'è tra catturare un flat da un cielo azzurro o una parete rosa? A noi non interessa la dominante cromatica, ma la risposta che forniscono i pixel coperti dai microfiltri colore. Il cielo azzurro farà raccogliere più segnale ai pixel B e molto meno agli R e G. Una parete rosa più agli R e meno ai B e G ecc ecc. Ma il nostro scopo è che il flat ci dica di quanto dobbiamo correggere la risposta di ogni pixel, che raccoglie solo fotoni, non dominanti, affinchè dia una uniformità di risposta.


Sì, forse non ci stiamo capendo bene. Se tu vuoi ottenere un BN da un sensore colore, basta un qualsiasi FF. Azzurro o rosa o verde tutti produrranno "un qualche" BN. Ma non produrranno LO STESSO BN. Un FF viene usato dividendo l'immagine "con il soggetto" per l'immagine di FF, pixel per pixel. Permettetemi ora di non essere molto rigoroso (prenderebbe troppo tempo e ci vorrebbe un pochina di matematica). Se il nostro FF è stato eseguito con una luce bianca, i conteggi in ogni pixel verde, rosso o blu saranno tra loro in un rapporto costante (a meno delle variazioni pixel-pixel di sensibilità dovute alle tolleranze costruttive del sensore). Questo rapporto è dovuto all'efficienza finale del sistema microlente colorata + pixel, ossia dalla banda di frequenza trasmessa dalla microlente e dalla sensibilità del pixel a quella specifica banda di frequenza. Diciamo ad esempio che il rapporto sia 1:1.23:1.65 (R,G,B ) (sono numeri a caso i miei). Quando io divido l'immagine oggetto per il flat field, il valore di ogni pixel R sarebbe diviso per 1, quello di ogni G per 1.23, quello do ogni B per 1.65. Il risultato sarebbe una data conversione a scala di grigi.

Se INVECE usi come FF un cielo blu, quello butterà dentro il tuo sensore molti più fotoni blu, alzando potentemente i conteggi nei pixel blu. Adesso avrai più conteggi nei pixel B del FF, e quindi un fattore di conversione ad esempio 1:1.23:4.5, quindi OGNI pixel blu sarà diviso per una quantità GRANDE. Penso che sia di dominio pubblico che dividere per un numero più grande porti ad un risultato più PICCOLO. La tua foto divisa per il FF "di cielo" avrà tutti iconteggi blu ridotti, come se tu avessi applicato davanti all'obiettivo un filtro che taglia il blu, direi un filtro giallo in questo caso: i cieli blu apparirebbero scuri e così via.

Resta quindi, mi pare, dimostrato, che OGNI dominante nel FF induce un effetto "filtro colorato" nell'immagine finale. Il grigio NON ha dominanti (credo che sia la definizione di grigio) ma quando tu produci un grigio da dei colori, RISENTI delle dominanti (anche note come colori) in maniera che DIPENDE da come crei il grigio. Chiunque abbia usato una pellicola BN pancromatica piuttosto che ortocromatica te lo può confermare. Chiunque abbia fatto del paesaggio BN portandosi dietro i filtri gialli per rendere più drammatico il cielo, potrà unirsi come testimone.

Ora se tu vuoi creare un BN qualsivoglia ok, sei a posto. Se vuoi creare un BN DI LUMINANZA come dici, ovviamente NON sei a posto. Se due metodi (FF sul cielo e FF, che so su un lenzuolo bianco) producono due risultati diversi dalla stessa foto originale, direi che almeno uno dei due NON è un BN "di luminanza" visto che la luminanza ha una definizione precisa. Anzi è probabile che non lo sia NESSUNO DEI DUE.

Oppure spiegatemi dove sbaglio!

L.

No, ma... adesso mi viene un dubbio unsure.gif

Vincenzo tu intendi che si può produrre un BN da un sensore con microlenti e matrice di bayer RGB SOLO usando un FF e SENZA demosaicizzare?

L.



Messaggio modificato da acarodp@yahoo.it il Sep 26 2006, 10:18 AM
Utente cancellato
DEREGISTRATO
Messaggio: #62
QUOTE(matteoganora @ Sep 26 2006, 09:44 AM) *

supposto che non me ne freghi niente della fisica quantistica, supposto che per fare una foto BN non devo necessariamente sapere cose come matrici di Bayer e altre cose utili più ad un ingegnere che a un fotografo, e riassumendo un po un discorso dagli indubbi contenuti tecnologici...

no, non e' necessario saperlo, ma e' meglio sapere se vengono fornite informazioni corrette oppure fuorvianti.
questa cosa del bianco/nero senza passare per la demosaicizzazione della matrice di bayer (ovviamente se c'e') semplicemente non sta in piedi.
QUOTE(matteoganora @ Sep 26 2006, 09:44 AM) *

Da quel che avevo capito ad inizio discussioni, Maio sostiene che Capture è il software che in conversione BN da la maggior gamma disponibile, superiore as ACR o altri software di conversione.

capture e' un programma che agisce molto pesantemente sul contrasto, tagliando alte e basse luci, e se sulle basse mi puo' anche stare bene (li' in fondo c'e' tanta spazzatura) sulle alte la cosa mi va un po' di traverso.
non dico che capture sia un cattivo programma, dico che come tutto ha dei limiti ed e' bene conoscerli.
QUOTE(matteoganora @ Sep 26 2006, 09:44 AM) *

Infine a Stefano, per mia pura curiosità... più di una volta ci hai mostrato le immagini native del sensore, senza applicazioni di curve... per intenderci quelle tutte a quadrettini... c'è un modo per ottenerle? vorrei provare a farne un uso grafico/creativo.

se i quadratini ti vanno bene anche in toni di grigio, prova iris

andrea
Utente cancellato
DEREGISTRATO
Messaggio: #63
[quote name='matteoganora' date='Sep 26 2006, 09:44 AM' post='682

QUOTE(matteoganora @ Sep 26 2006, 09:44 AM) *

Infine a Stefano, per mia pura curiosità... più di una volta ci hai mostrato le immagini native del sensore, senza applicazioni di curve... per intenderci quelle tutte a quadrettini... c'è un modo per ottenerle? vorrei provare a farne un uso grafico/creativo.

Matteo, io li ottengo perchè "sviluppo manualmente" con programmi fatti da me, quindi controllo ogni passo, compresa la scelta dell'algoritmo di demosaicizzazione, spazi colore con gamma personalizzato (ad es. sRGB ha molto contrasto e si può diminuire variando la correzione gamma), etc., etc, etc. Quindi posso intervenire in qualsiasi momento, tirando fuori immagini temporanee e dati.
Non so dirti se in commercio ci sono programmi che ti forniscono l'immagine raw, puoi provare con programmi per astrofisica (vedo adesso che Andrea mi ha preceduto).
Se l'uscita è un file raw e non un jpg, in camera non dovrebbe succedere niente, se non la registrazione dell'impostazione effettuata.
Riguardo alla gamma dinamica, dubito fortemente di Capture, perchè applicando un contrasto elevato anche se lo imposti al minimo, spreca sempre un pò di gamma dinamica, e poi c'è anche il taglio sulle bassissime luci specie quando superi i 3 secondi di tempo di posa.

Se usi un programma in cui puoi scegliere i vari parametri prima che inizi la conversione, allora la gamma dinamica massima la puoi ottenere annullando il bilanciamento del bianco (magari dopo ci può essere qualche ritocco sui toni), lasciando i dati raw senza convertirli in nessuno spazio colore e senza effettuare la minima compensazione dell'esposizione in fase di conversione.

earlybird
Messaggio: #64
QUOTE(matteoganora @ Sep 26 2006, 09:44 AM) *

Fatemi capire una cosa però...

supposto che non me ne freghi niente della fisica quantistica, supposto che per fare una foto BN non devo necessariamente sapere cose come matrici di Bayer e altre cose utili più ad un ingegnere che a un fotografo, e riassumendo un po un discorso dagli indubbi contenuti tecnologici...

Capisco bene il tuo punto di vista e condivido il fatto che la capacità artistica non verrà mai battuta dalla pura capacità tecnica:ma, a parità della prima, vincerà chi avrà anche padronanza della seconda. So che sono argomenti noiosi per la maggior parte di chi ci legge, soprattutto perché vi si chiede di digerire argomenti un po' ostici senza aver introdotto i concetti che stanno alla base. E di questo mi scuso per primo.

QUOTE

Come faccio ad ottenere un buon BN, senza noise e con la gamma tonale più estesa possibile, in modo così da poterci lavorare sopra con la certezza di avere quanto più "materiale" da poter usare?

La gamma dei grigi non potrà mai superare la profondità dei canali colore: se questi sono ad 8 bit, avrai 256 toni di grigio, contro i 16 milioni e passa di colori possibili (perché nel B/N R=G=B )

QUOTE

Da quel che avevo capito ad inizio discussioni, Maio sostiene che Capture è il software che in conversione BN da la maggior gamma disponibile, superiore as ACR o altri software di conversione.

Dunque a voi chiedo, quale metodo, che non implichi software fai da te o metodologie troppo complesse, ritenete migliore?
E il BN on Camera? è uguale a quello ottenibile con Capture? migliore o peggiore?

Da un raffronto con i software in mio possesso, tra cui ACS, reputo Capture il migliore, se non altro perché è solo Nikon a conoscere cosa avviene esattamente nel passaggio del segnale attraverso il firmware, senza nulla togliere agli ingegneri delle softwarehouse legate a Nikon.

QUOTE

Infine a Stefano, per mia pura curiosità... più di una volta ci hai mostrato le immagini native del sensore, senza applicazioni di curve... per intenderci quelle tutte a quadrettini... c'è un modo per ottenerle? vorrei provare a farne un uso grafico/creativo.

grazie.gif

prova anche qui:
Cyanogen
E' un software professionale, di cui puoi scaricare una versione demo attiva per 30 gg.

Ciao

Enzo
earlybird
Messaggio: #65
QUOTE(acarodp@yahoo.it @ Sep 26 2006, 11:27 AM) *

............
No, ma... adesso mi viene un dubbio unsure.gif

Vincenzo tu intendi che si può produrre un BN da un sensore con microlenti e matrice di bayer RGB SOLO usando un FF e SENZA demosaicizzare?

L.


Ripeto ciò che ho detto: di molti sensori a colori esiste l'esatto ed identico corrispondente monocromatico, che si difrerenzia solo per l'assenza dei filtri colorati.
Nei sensori monocromatici si attua l'esatta corrispondenza pixel su pixel; non avviene nessuna interpretazione di matrice. Tutti d'accordo?
Adesso prendi lo stesso sensore, a colori, applica la stessa corrispondenza
e lascia perdere lo schema a matrice colorata. Applica il flat, o le correzioni stabilite dal costruttore, e i pixel filtrati dalle microlenti colorate si riaccenderanno della luce giusta.
Certo, come ho detto, l'ideale è un flat su luce bianca, ma anche su un azzurro o su un rosa non cambia molto: basta applicare un po' di stretching nell'istogramma e riaccendi il giusto punto di bianco (e di nero). E sfido qualunque occhio umano ad accorgersi del risultato.

Enzo
Utente cancellato
DEREGISTRATO
Messaggio: #66
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 26 2006, 07:18 PM) *

Adesso prendi lo stesso sensore, a colori, applica la stessa corrispondenza
e lascia perdere lo schema a matrice colorata. Applica il flat, o le correzioni stabilite dal costruttore, e i pixel filtrati dalle microlenti colorate si riaccenderanno della luce giusta.

quale flat? quale correzione?
se ho un sensore senza filtri colorati, di 100 fotoni che arrivano davanti al pixel ne avro' 100 che lo colpiscono.
se davanti al pixel ho una microlente rossa, che colpiscono il sensore avro' (per esempio) 70 fotoni se sono nella lunghezza d'onda del rosso, 5 se sono nella lunghezza d'onda del blu.
e allora, visto che dietro alla microlente mi arrivano 100 fotoni, come faccio a sapere quanti ne avevo davanti?

andrea
Utente cancellato
DEREGISTRATO
Messaggio: #67
Innanzitutto grazie a tutti, per avermi chiarito un po di cose...
Sto provando iris, dal monocomatico proverò poi con PS a colorare l'immagine, vorrei ottenere qualcosa di Warholiano... biggrin.gif

Sul BN, appena ho un attimo mi piacerebbe provare, su uno stesso NEF di partenza, le conversioni disponibili da Capture, confrontandole poi con un NEF importato in ACR, convertito in Lab o semplicemente desaturato, e analizzare con voi i risultati.

Avete consigli da darmi su come ottenere il meglio da ACR e Lab? Io pensavo di lasciare il file integro, aprendolo da ACR, e isolare semplicemente la luminanza... ma non perdo gamma tonale?
Utente cancellato
DEREGISTRATO
Messaggio: #68
E come disse il saggio:
Chi sa fa, e chi non sa spara cacchiate biggrin.gif

- Per gli eretici e gli agnostici
Provate a modificare, in Capture, il bilanciamento del bianco in modo marcato e salvate.
Confrontate i due BN: sono diversi, come potete vedere anche in questo esempio

E' stato dimostrato a lungo che il cambiamento del WB non modifica i dati raw.
Se il BN di Capture fosse ricavato direttamente dai dati raw, da questo fantomatico canale luminanza sensore, i due BN dovrebbero essere uguali... e invece sono diversi.

- Per i dubbiosi
Per ammirare questa decantata gamma dinamica, ho provato a confrontare questo "miracoloso BN" di Capture con il BN di un Pincopallino Qualunque (in questo caso il mio programma usato in modo standard senza nessun particolare accorgimento).
Affinchè ognuno possa controllare che non c'è stata manomissione, ho scelto un NEF della D200 postato in questo Forum da Andrea Zinno (prima dell'avvento della lampadina...).
Giudicate voi





acarodp@yahoo.it
Messaggio: #69
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 26 2006, 07:18 PM) *

Ripeto ciò che ho detto: di molti sensori a colori esiste l'esatto ed identico corrispondente monocromatico, che si difrerenzia solo per l'assenza dei filtri colorati.
Nei sensori monocromatici si attua l'esatta corrispondenza pixel su pixel; non avviene nessuna interpretazione di matrice. Tutti d'accordo?
Adesso prendi lo stesso sensore, a colori, applica la stessa corrispondenza
e lascia perdere lo schema a matrice colorata. Applica il flat, o le correzioni stabilite dal costruttore, e i pixel filtrati dalle microlenti colorate si riaccenderanno della luce giusta.
Certo, come ho detto, l'ideale è un flat su luce bianca, ma anche su un azzurro o su un rosa non cambia molto: basta applicare un po' di stretching nell'istogramma e riaccendi il giusto punto di bianco (e di nero). E sfido qualunque occhio umano ad accorgersi del risultato.

Enzo


Sono d'accordo che tra un CCD con le microlenti colorate a matrice Bayer ed uno senza non esiste alcuna differenza tecnica A PARTE LE MICROLENTI. Il punto è che quando le microlenti CI SONO, no, il loro effetto NON lo puoi cancellare con un flat fielding. Per fare un'affermazione che può parere bizzarra, se potessi, vorrebbe dire che non potresti usarlo per fare foto a colori. La spiegazione breve è questa: le microlenti colorate SERVONO a differenziare la risposta dei pixel a seconda del colore. Se ad una luce di un dato colore, quale esso sia, il rapporto tra le intensità dei pixel R, G e B è uno determinato, e tu lo spiani con un FF, non starai spianando quello dell'altra porzione di foto dove c'è un particolare di altro colore, per cui ti troverai SEMPRE, con un'immagine da CCD a matrice bayer NON DEMOSAICIZZATA, con in mano qualcosa come il file che ho allegato, che poi viene da questo interessante tutorial di IRIS, dove si possono trovare varie indicazioni al riguardo.
Se tu potessi, con una semplice divisione per un fattore costante, annullare la diversa sensibilità dei pixel della matrice al colore della luce incidente, è evidente mi pare che NON avresti ALCUNA sensibilità al colore.

E passiamo alla spiegazione dettagliata. Dal momento che questa specifica cosa è interessante per Vincenzo (spero) me e forse Andrea Foschi, proposngo che a meno che qualcuno non la pensi diversamente, se ci saranno ulteriori sviluppi possiamo passare ai PM per non scocciare troppo a chi segue questo thread.

Spiegazione (dimostrazione?) dettagliata: diciamo che tu fai una foto che comprende un cielo azzurro ed un muro rosso, con un sensore colore. Contestualmente, ti fai un bel FF usando quello stesso cielo azzurro. Per semplicità assumiamo che tu non abbia polvere sul sensore, che il tuo obiettivo non vignetti, e che il tuo sensore sia così ben fatto che tutti i pixel abbiano la stessa efficienza e la stessa area efficace. In parole povere, assumiamo che l'UNICA differenza nei conteggi tra i vari pixel sia quella dovuta al diverso filtraggio delle microlenti. Per ripigliare il mio esempio di qualche post fa, sia esso 1:1.23:4.5 (R G B ). Quando dividi per questo FF, nella zona dove c'è il cielo è evidente che i pixel R G e B andranno tutti obbedienti allo stesso valore, ed il loro rapporto lì sarà poi 1:1:1 e tutti i pixel del cielo avranno la stessa intensità (lo stesso tono di grigio) indipendentemente dal fatto che siano R, G o B.
MA tu in un'altra zona della foto hai un muro rosso. I pixel su quel muro riceveranno pochissima luce verde e blu, dato che il muro è rosso. Il loro rapporto d'intensità prima del flat fielding potrebbe essere, che so, 5:1.2:0.9 (R G B ). Adesso tu dividi per il tuo FF ed ottieni 5/1=5, 1.2/1.23=0.97 0.9/4.5=0.2. I pixel della matrice di bayer lì saranno dopo il FF nel rapporto 5:0.97:0.2. Ossia, sulla colonna (o riga che sia) RGRGRG avrai un pixel luminoso (l'R) con vicino uno 5 volte più scuro (il G). Nella colonna GBGB avrai un pixel piuttsto scuro (il G) con vicino uno MOLTO scuro (grosso modo 5 volte più scuro) che è il B.

Se tu non demosaicizzi, questo effetto (guarda un po') di MOSAICO non lo puoi eliminare da tutti i colori convertendo per il rapporto d'intensità di un SINGOLO colore, sia esso blu, verde, rosa o bianco. Se potessi, vorrebbe dire che il rapporto d'intensità dei pixel RGB su di un oggetto rosso nell'inquadratura si differenzia dal rapporto d'intensità su di un oggetto blu SOLO per un fattore COSTANTE attraverso TUTTA l'inquadratura. Ossia non si distinguerebbe AFFATTO.

Assurdo.

Resto in attesa che mi si spieghi dov'è fallace il ragionamento, o inesatte le premesse.

Ciao

L.

Utente cancellato
DEREGISTRATO
Messaggio: #70
QUOTE(StefanoBonfa @ Sep 27 2006, 10:11 AM) *

ho scelto un NEF della D200 postato in questo Forum da Andrea Zinno (prima dell'avvento della lampadina...).

E questi sono gli originali a colori


margior
Messaggio: #71
QUOTE(StefanoBonfa @ Sep 27 2006, 10:11 AM) *

E come disse il saggio:

(omissis) tongue.gif



Eh...

va bene! E anche molto, molto interessante e istruttivo!

Però con i tuoi esempi si va oltre l'uso "normale"...

Ti posso dire che già file "bilanciati" che escono da capture e photoshop vanno incontro a ulteriori e pesanti "tagli" di gamma prima di procedere verso le destinazioni d'uso in stampa...le più varie...

La foto "pincopallino" sarebbe sostanzialmente inutilizzabile per chiunque non sia più che esperto e possieda gli strumenti giusti.

Il metodo capture io non l'ho confrontato con il pincopallino ma con photoshop...

Saluti! tongue.gif



acarodp@yahoo.it
Messaggio: #72
QUOTE(margior @ Sep 27 2006, 08:00 PM) *

La foto "pincopallino" sarebbe sostanzialmente inutilizzabile per chiunque non sia più che esperto e possieda gli strumenti giusti.


Cos'ha di così esoterico la foto pincopallino? qualcosa mi sfugge? unsure.gif

A me pare che con due botterelle all'istogramma la riporti al risultato di capture... o mi sbaglio?


L.
Utente cancellato
DEREGISTRATO
Messaggio: #73
QUOTE(acarodp@yahoo.it @ Sep 28 2006, 10:21 AM) *

Cos'ha di così esoterico la foto pincopallino? qualcosa mi sfugge? unsure.gif

A me pare che con due botterelle all'istogramma la riporti al risultato di capture... o mi sbaglio?
L.

Caso mai è da vedere se Capture con due colpi di istogramma può arrivare alla gamma di Pincopallino.
Osserva la lampada per le alte luci e vedi che Capture ha perso dettagli.

Le basse luci di Capture sono tappate.
Osservatele su monitor tarati e con una idonea luce ambiente.

Se poi guardiamo il colore, siamo proprio distanti. Osserva ad esempio il colore del legno sotto il televisore. Non per niente quando era stato postato l'originale molti attibuivano il risultato alla sottoesposizione.



margior
Messaggio: #74
QUOTE(acarodp@yahoo.it @ Sep 28 2006, 10:21 AM) *

Cos'ha di così esoterico la foto pincopallino? qualcosa mi sfugge? unsure.gif

A me pare che con due botterelle all'istogramma la riporti al risultato di capture... o mi sbaglio?
L.


Eh, no. Le "due bottarelle" sono proprio quelle che stiamo a discutere e che i software fanno "di default"!!!

La discussione verte appunto su questo punto...

Non è questione di esoterismo ma di valutare lo iato che si crea in discussioni come queste tra (per dirla brutalmente) fotografia e tecnologia.

Se si applica una tecnologia alla fotografia si devono prendere decisioni che incidono su entrambi i versanti: la foto passata da pincopallino è interessantissima proprio per i motivi sottolineati da Stefano nell'ultimo intervento, ma è più vicina (mi si passi la terminologia) al versante tecnologico che a quello fotografico.

Ma siccome il "fotografico" non è una entità astratta ma un qualcosa in divenire e che fa appunto i conti con la tecnologia, l'esempio di Stefano ha un suo interesse...
Utente cancellato
DEREGISTRATO
Messaggio: #75
QUOTE(margior @ Sep 28 2006, 01:47 PM) *

Eh, no. Le "due bottarelle" sono proprio quelle che stiamo a discutere e che i software fanno "di default"!!!

ecco, le due bottarelle che da capture mi vanno un po' di traverso...

l'importante poi e' che non ci si lamenti di dover sottoesporre per recuperare qualche dettaglio sulle nuvole, e agire quindi di d-lightning per ripristinare una luminosita' accettabile nelle zone in ombra.
perche' questo e' spesso proprio conseguenza delle due bottarelle che infligge capture

andrea

Messaggio modificato da andreafoschi il Sep 28 2006, 12:54 PM
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
4 Pagine: V  < 1 2 3 4 >