FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
3 Pagine: V   1 2 3 >  
14 Bit Nef, Ne Vale Veramente La Pena?
Rispondi Nuova Discussione
gamirava
Messaggio: #1
Buongiorno a tutti, sono un felice possessore della D7100; per quanto riguarda qualità dell'immagine, precisamente la profondità di di bit NEF, vorrei sapere da voi se impostando 14 bit si può avere un reale vantaggio in qualità d'immagine rispetto al 12 bit; quest'ultimo "sforna" file di dimensioni meno generose.
Grazie in anticipo e scusate se la domanda può sembrare banale.
Valter
Andrea Meneghel
Messaggio: #2
Il vantaggio sicuramente c'è, bisogna vedere se chi elabora la foto in postproduzione ne ha effettivamente bisogno; io preferisco avere sempre il massimo per poi "scendere" dopo aver terminato la postelaborazione...chi invece ha un flusso di lavoro elevato e che non richiede particolari aggiustamenti ma una semplice conversione NEF -> JPG probabilmente opterà per una maggiore compressione del NEF oltre che evitare i 14bit

Andrea
maurizio angelin
Messaggio: #3
QUOTE(valquey @ Aug 14 2013, 11:14 AM) *
Buongiorno a tutti, sono un felice possessore della D7100; per quanto riguarda qualità dell'immagine, precisamente la profondità di di bit NEF, vorrei sapere da voi se impostando 14 bit si può avere un reale vantaggio in qualità d'immagine rispetto al 12 bit; quest'ultimo "sforna" file di dimensioni meno generose.
Grazie in anticipo e scusate se la domanda può sembrare banale.
Valter


Le considerazioni da fare sono molte. Io, ad esempio, uso frequentemente i 12 bit per avere una raffica più veloce.
Le differenze tra 12 e 14 bit che ho rilevato, comunque, mi sono apparse davvero minime.
Ciao
gianlucaf
Nikonista
Messaggio: #4
ma qual'è veramente la pena?
Cesare44
Messaggio: #5
come ti hanno già detto le preferenze cambiano in base alle esigenze di ciascuno. Naturalmente, il raw a 14 bit contiene più informazioni rispetto all'altro, inoltre puoi scegliere tra 3 modi differenti, senza compressione, con compressione senza perdita e con compressione maggiore.

Personalmente preferisco il 14 bit senza compressione, ma in caso di necessità per i motivi già esposti, opterei senza alcuna remora per il 12 bit.

ciao
Andrea Meneghel
Messaggio: #6
QUOTE(gianlucaf @ Aug 14 2013, 11:43 AM) *
ma qual'è veramente la pena?


se fai postprduzione spinta con recuperi importanti, il 14bit ti garantisce più passaggi tonali e meno rumore nelle zone d'ombra; ovviamente occorre avere anche i mezzi per accorgersi di queste differenze

http://www.earthboundlight.com/phototips/n...sus-12-bit.html

Messaggio modificato da bluesun77 il Aug 14 2013, 11:03 AM
gamirava
Messaggio: #7
Grazie a tutti per avermi aiutato a comprendere meglio questi dettagli. A questo punto,visto che generalmente dedico parecchio tempo alla post produzione, imposterò a 14 bit, peccato però se la velocità di scatto scenderà un po'.
Enrico_Luzi
Messaggio: #8
QUOTE(bluesun77 @ Aug 14 2013, 11:17 AM) *
Il vantaggio sicuramente c'è, bisogna vedere se chi elabora la foto in postproduzione ne ha effettivamente bisogno; io preferisco avere sempre il massimo per poi "scendere" dopo aver terminato la postelaborazione...chi invece ha un flusso di lavoro elevato e che non richiede particolari aggiustamenti ma una semplice conversione NEF -> JPG probabilmente opterà per una maggiore compressione del NEF oltre che evitare i 14bit

Andrea

pes084k1
Messaggio: #9
QUOTE(bluesun77 @ Aug 14 2013, 11:17 AM) *
Il vantaggio sicuramente c'è, bisogna vedere se chi elabora la foto in postproduzione ne ha effettivamente bisogno; io preferisco avere sempre il massimo per poi "scendere" dopo aver terminato la postelaborazione...chi invece ha un flusso di lavoro elevato e che non richiede particolari aggiustamenti ma una semplice conversione NEF -> JPG probabilmente opterà per una maggiore compressione del NEF oltre che evitare i 14bit

Andrea


Dovendo dirla tutta, 14 bit significano circa 13 stop teorici di dinamica, 12 bit significano 11-12 stop, sufficienti in DX 16-24 Mp e FX 36 Mp, ma forse non in FX 12-24 Mp. Si perde qualcosa per la non-linearità dei convertitori. E' possibile con tecniche di arrotondamento/dithering spaziali, che paiono applicate su D800 e NEX, evitare ogni effetto pratico a 12 bit. Durante la conversione raw, la correzione gamma (TIFF/JPEG) o la memorizzazione lineare (DNG a 16 bit) evitano ulteriori deterioramenti percettivi. Il denoising a 16 bit azzera ogni differenza: gli ultimi bit sono sempre casuali in quanto imbottiti di rumore.

A presto telefono.gif

Elio
mædo
Nikonista
Messaggio: #10
io uso 12bit compressione senza perdita e vado come un treno!
Enrico_Luzi
Messaggio: #11
QUOTE(pes084k1 @ Aug 14 2013, 03:40 PM) *
Dovendo dirla tutta, 14 bit significano circa 13 stop teorici di dinamica, 12 bit significano 11-12 stop, sufficienti in DX 16-24 Mp e FX 36 Mp, ma forse non in FX 12-24 Mp. Si perde qualcosa per la non-linearità dei convertitori. E' possibile con tecniche di arrotondamento/dithering spaziali, che paiono applicate su D800 e NEX, evitare ogni effetto pratico a 12 bit. Durante la conversione raw, la correzione gamma (TIFF/JPEG) o la memorizzazione lineare (DNG a 16 bit) evitano ulteriori deterioramenti percettivi. Il denoising a 16 bit azzera ogni differenza: gli ultimi bit sono sempre casuali in quanto imbottiti di rumore.

A presto telefono.gif

Elio


dici che 14bit sono inutili al di sotto di 16mpx ?
pes084k1
Messaggio: #12
QUOTE(horuseye @ Aug 14 2013, 09:58 PM) *
dici che 14bit sono inutili al di sotto di 16mpx ?


In pratica sono rumore e flare ottico. Tenerli, però, può creare dithering per le tessiture lievi, a volte evidenziandole. Sui sensori 5400 dpi (D800, Fuji e NEX) sul raw vedo chiaramente l'aratura di qualche dispositivo di arrotondamento intelligente. 12 bit significano 4000:1, è possibile riprodurli in uscita sono da pochissime diapositive e solo per trasparenza. I due bit in più a volte servono per ridurre errori di monotonicità dell'A/D. In campo consumer si preferisce usare molti bit poco precisi, mentre in campo professionale e radar si cercano pochi bit, ma precisi.

A presto _telefono!

Elio

QUOTE(horuseye @ Aug 14 2013, 09:58 PM) *
dici che 14bit sono inutili al di sotto di 16mpx ?



Al di sopra di 16 Mbit sono quasi inutili, ma sotto i pixel meno rumorosi meritano di più.

A presto telefono.gif

Elio
giuliomagnifico
Messaggio: #13
Quello che scrive Elio è sempre inutilmente complicato....

Detta molto più semplicemente: un file RAW è composto di tutte le informazioni che escono dal sensore, avere un file da 14bit significa avere più informazioni nel file (che essendo fotografia digitale sono numeri finiti al contrario della analogica) MA il punto è molto più semplice: riesce il sensore della mia macchina a catturare correttamente tutta la luce per saturare di informazioni un file da 14bit oppure le scriverà "a caso" (che poi a caso ovviamente non è ma lasciamo stare)?

Sui sensori e macchine come D800 (e anche la D7100 direi), potrebbero riuscire a catturare queste informazioni in più e quindi tornare utile quando si hanno foto eseguite con bassa luce ad esempio.

Il quanto sia utile dipende dalle tue esigenze, da cosa dovrai fare con quel file.

Poi non è una questione di 16 o 78 o 36 mpx, quella c'entra perchè se rimpicciolisci un file, i programmi automaticamente vanno a mettere insieme pixel con informazioni più simili. Ma se non comprimi il file e se lo visualizzi o stampi ad 1:1 ne puoi (teoricamente, vale quanto scritto sopra) apprezzare le maggiori informazioni del file.

E inoltre un quando comprimi un file, il programma che lo fa riuscirà ad essere più preciso nell'accoppiare/eliminare i pixel superflui (perchè ha più informazioni per capire quale pixel sia più simile all'altro ovviamente).

Per quello Elio parlava di algoritmi e paroloni inutilmente complicati biggrin.gif corretti per carità ma noiosi laugh.gif

Adesso che sai le differenze sta a te decidere insomma biggrin.gif io con la mia D800 scatto al massimo che tanto a buttare via informazioni si sta un attimo ma aggiungerle dove non ci sono è impossibile farlo meglio o uguale a come se ci fossero, così non ci penso e me ne tornò a dormire in questo 15 agosto di non vacanza messicano.gif
Andrea Meneghel
Messaggio: #14
C'è da considerare che quando facciamo postprodizione ed andiamo ad applicare un filtro oppure una variazione qualsiasi dell'informazione digitale...avere più passaggi tonali significa danneggiare molto meno l'informazione originale e mantenere passaggi più omogenei nelle zone dove andiamo a recuperare luce.
Nella postproduzione, avere 14bit è indubbiamente un vantaggio.

Andrea
pes084k1
Messaggio: #15
QUOTE(giuliomagnifico @ Aug 15 2013, 08:49 AM) *
Quello che scrive Elio è sempre inutilmente complicato....

Detta molto più semplicemente: un file RAW è composto di tutte le informazioni che escono dal sensore, avere un file da 14bit significa avere più informazioni nel file (che essendo fotografia digitale sono numeri finiti al contrario della analogica) MA il punto è molto più semplice: riesce il sensore della mia macchina a catturare correttamente tutta la luce per saturare di informazioni un file da 14bit oppure le scriverà "a caso" (che poi a caso ovviamente non è ma lasciamo stare)?

Sui sensori e macchine come D800 (e anche la D7100 direi), potrebbero riuscire a catturare queste informazioni in più e quindi tornare utile quando si hanno foto eseguite con bassa luce ad esempio.

Il quanto sia utile dipende dalle tue esigenze, da cosa dovrai fare con quel file.

Poi non è una questione di 16 o 78 o 36 mpx, quella c'entra perchè se rimpicciolisci un file, i programmi automaticamente vanno a mettere insieme pixel con informazioni più simili. Ma se non comprimi il file e se lo visualizzi o stampi ad 1:1 ne puoi (teoricamente, vale quanto scritto sopra) apprezzare le maggiori informazioni del file.

E inoltre un quando comprimi un file, il programma che lo fa riuscirà ad essere più preciso nell'accoppiare/eliminare i pixel superflui (perchè ha più informazioni per capire quale pixel sia più simile all'altro ovviamente).

Per quello Elio parlava di algoritmi e paroloni inutilmente complicati biggrin.gif corretti per carità ma noiosi laugh.gif

Adesso che sai le differenze sta a te decidere insomma biggrin.gif io con la mia D800 scatto al massimo che tanto a buttare via informazioni si sta un attimo ma aggiungerle dove non ci sono è impossibile farlo meglio o uguale a come se ci fossero, così non ci penso e me ne tornò a dormire in questo 15 agosto di non vacanza messicano.gif


Volevo dire un'altra cosa, opposta. Non ci siamo capiti. La D800 e la D7100 hanno pixel piccoli, che sono rumorosi (in basso della gamma tonale) e limitati nella carica massima (in alto), circa 3 volte più di quelli D3/D700/D4 e 4 volte della D3s. Quando il convertitore A/D è scalato in modo tale che:
1) alla massima carica possibile (max saturazione colore e TENSIONE sul gate CMOS) corrisponda il max. codice (es: 4095 a 12 bit o 16383 a 14 bit;
2) il codice minimo (sempre 0 per definizione) corrisponda a una tensione lievemente inferiore alla deviazione standard del rumore TERMICO
non possiamo avere più informazione. Questo corrisponde a 12 bit (stop) o meno su D800e e D7100, circa 13.5 stop sulle altre. Punto. Quindi 14 bit hanno senso SOLO sulle 12 Mp DX oggi. Poi ci sono i sensori retroilluminati e raffreddati che vogliono di più. Possono misurare quello che vogliono sulle riviste, i fatti FISICI sono questi.
Prer inciso, un'immagine brillante stile diapositiva da 12 bit con gamma=2 porta la "dinamica" a 6 stop scarsi, come una Provia o una CT100. Quindi la gamma dinamica che ho sopra indicato vale solo per immagini mosce e svaporate (gamma = 1).

Quando vado a processare, i 12 o i 14 bit sono sempre riconvertiti in 16 bit aggiungendo 4 o 2 zeri binari a destra e questi (non i bit dell'A/D) determinano la resistenza alla posterizzazione e al rumore di quantizzazione.
I convertitori reali non hanno un comportamento perfetto dei codici, il che crea ulteriore "rumore". In questo caso, invece di usare 12 bit precisi (tarati e costosi) ne posso usare 14 meno selezionati, ma pur sempre capaci di assicurare 12 bit abbastanza lineari. In questo caso si usa combinare i bit meno significativi di fotositi vicini mediante algoritmi di media non lineare e complicata, che li risommano come rumore di arrotondamento (dither) ai bit più significativi "pulendoli" leggermente, ma non creando informazione.
Un 12 bit lossless su camere a sensore fitto va benissimo, con 14 non ci guadagnate nulla, se non come sicurezza del comportamento dell'A/D sui bit minimi. Piccole differenze sono solo dovute a questa non-idealità.

A presto telefono.gif

Elio
federico777
Messaggio: #16
QUOTE(pes084k1 @ Aug 15 2013, 07:31 PM) *
non possiamo avere più informazione. Questo corrisponde a 12 bit (stop) o meno su D800e e D7100, circa 13.5 stop sulle altre. Punto. Quindi 14 bit hanno senso SOLO sulle 12 Mp DX oggi. Poi ci sono i sensori retroilluminati e raffreddati che vogliono di più. Possono misurare quello che vogliono sulle riviste, i fatti FISICI sono questi.


Le riviste sono affidabili quando ti danno ragione, mentre negli altri casi possono misurare quello che vogliono? hmmm.gif

F.
giuliomagnifico
Messaggio: #17
QUOTE(pes084k1 @ Aug 15 2013, 07:31 PM) *
Volevo dire un'altra cosa, opposta. Non ci siamo capiti. La D800 e la D7100 hanno pixel piccoli, che sono rumorosi (in basso della gamma tonale) e limitati nella carica massima (in alto), circa 3 volte più di quelli D3/D700/D4 e 4 volte della D3s. Quando il convertitore A/D è scalato in modo tale che:
1) alla massima carica possibile (max saturazione colore e TENSIONE sul gate CMOS) corrisponda il max. codice (es: 4095 a 12 bit o 16383 a 14 bit;
2) il codice minimo (sempre 0 per definizione) corrisponda a una tensione lievemente inferiore alla deviazione standard del rumore TERMICO
non possiamo avere più informazione. Questo corrisponde a 12 bit (stop) o meno su D800e e D7100, circa 13.5 stop sulle altre. Punto. Quindi 14 bit hanno senso SOLO sulle 12 Mp DX oggi. Poi ci sono i sensori retroilluminati e raffreddati che vogliono di più. Possono misurare quello che vogliono sulle riviste, i fatti FISICI sono questi.
Prer inciso, un'immagine brillante stile diapositiva da 12 bit con gamma=2 porta la "dinamica" a 6 stop scarsi, come una Provia o una CT100. Quindi la gamma dinamica che ho sopra indicato vale solo per immagini mosce e svaporate (gamma = 1).

Quando vado a processare, i 12 o i 14 bit sono sempre riconvertiti in 16 bit aggiungendo 4 o 2 zeri binari a destra e questi (non i bit dell'A/D) determinano la resistenza alla posterizzazione e al rumore di quantizzazione.
I convertitori reali non hanno un comportamento perfetto dei codici, il che crea ulteriore "rumore". In questo caso, invece di usare 12 bit precisi (tarati e costosi) ne posso usare 14 meno selezionati, ma pur sempre capaci di assicurare 12 bit abbastanza lineari. In questo caso si usa combinare i bit meno significativi di fotositi vicini mediante algoritmi di media non lineare e complicata, che li risommano come rumore di arrotondamento (dither) ai bit più significativi "pulendoli" leggermente, ma non creando informazione.
Un 12 bit lossless su camere a sensore fitto va benissimo, con 14 non ci guadagnate nulla, se non come sicurezza del comportamento dell'A/D sui bit minimi. Piccole differenze sono solo dovute a questa non-idealità.

A presto telefono.gif

Elio


Scusa ma un file con 16383 "numeri" è più preciso di un file da 4095, quindi alla massima tensione registrata avrà più sfumature possibili fino alla minima. Non hai capito quello che ho scritto, non intendevo avere "più informazioni" registrate dalla macchina, l'hardware sempre quello è, intendevo avere più informazion e sopratutto più precise nel file (l'ho scritto) per il lavoro dopo.
Poi con 14 bit non guadagni nulla, su quello sono d'accordo, è con 12 bit che perdi qualcosa, avere una maggiore quantità di dettagli nel file è meglio, anche superflui e anche che verranno scartati poi o aggiunti arrotondandoli, c'è sempre una maggiore sicurezza.

Anche il fatto di avere pixel di dimensioni più o meno grandi, non c'entra molto, o meglio, c'entra a seconda di come utilizzi il file, ovviamente più grandi sono e più sono importanti e più informazioni sono in grado di "storare" (si dice immagazzinare in italiano credo biggrin.gif ) ma anche se sono più piccoli, e quindi meno capaci di ricevere informazioni aggiuntive, io preferisco che abbiano la possibilità di farlo, sopratutto se li uso tutti, ovvero stampo in grande.
Io (quasi) sempre converto il nef in tiff a 16 bit per portarlo in stampa, è totalmente inutile ma perchè non devo farlo visto che ormai i costi al GB sono bassissimi e l'hardware lo de/codifica in un millisecondo di differenza? L'unico difetto del digitale è la possibilità finita di avere informazioni, io più ne ho e più son contento, tanto non sono di sicuro informazioni sbagliate, piuttosto sono inutili.

E`come paragonare un acceleratore DBW ad uno a cavo, con il cavo hai ipoteticamente infinite posizioni da farfalla aperta a chiusa, con uno DBW nei hai un numero finito, se l'hardware che le codifica lo fa su una maggiore gamma di numeri, le minime posizioni intermedie (sfumature appunto) sono maggiori, poi che nessuno se ne accorga che abbia 4 milioni di sfumature/posizioni possibili o 8milioni è vero ovviamente, però per questo non vuol dire che "non serve". Io preferisco avere sempre più possibilità di numeri che meno, i calcolatori son fatti per calcolare, che lo facciano al massimo della loro possibilità che non gli costa nulla (al massimo qualche € in bolletta laugh.gif ).


Poi stiamo qui a parlare di ste cose un pò superflue, io vorrei sempre vedere la differenza col mio occhio (e anche li si potrebbe discutere di chi come vede), a dir la verità da 12 a 14 non l'ho vista le poche volte che ho provato però io continuo ad usarne di più.

Le cose "compresse" invece non le sopporto, quelle mai, perchè c'è sempre una innegabile perdita di informazioni (anche se poco utili o percepibili), e come ho scritto sopra, GB e processori costan poco, non vedo perchè non sfruttarli!
gianlucaf
Nikonista
Messaggio: #18
QUOTE(bluesun77 @ Aug 14 2013, 12:03 PM) *
se fai postprduzione spinta con recuperi importanti, il 14bit ti garantisce più passaggi tonali e meno rumore nelle zone d'ombra; ovviamente occorre avere anche i mezzi per accorgersi di queste differenze

http://www.earthboundlight.com/phototips/n...sus-12-bit.html


io chiedevo qual'è la pena. perchè porsi certe domande? ovvero quale svantaggio c'è ad usare il massimo che la macchina può offrire?
chiedere per sapere ok, ma non sarà mica un problema di storage, oggi, con gli attuali prezzi dei dischi. 2TB, 90 euro 3TB, 125 euro.

la raffica?
maurizio angelin
Messaggio: #19
QUOTE(gianlucaf @ Aug 15 2013, 08:41 PM) *
...
la raffica?


Si. E' quella che ti permette (o non permette) di portare a casa scattuci come questi:

Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



IPB Immagine



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



... ma anche questi

IPB Immagine



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.



Ne avevi mai sentito parlare ?
Credo di no.
O almeno non compiutamente.

Messaggio modificato da maurizio angelin il Aug 15 2013, 08:11 PM
walter lupino
Messaggio: #20
Maurizio, è sempre un piacere vedere le tue belle foto ma .... il punto è: tra salvare le foto a 12 o 14 bit quanto si perde effettivamente nella raffica? Io credo poco a nulla, e credo fosse il pensiero che voleva trasmettere gianlucaf, magari in modo un po' più sintetico smile.gif
maxbunny
Messaggio: #21
QUOTE(giuliomagnifico @ Aug 15 2013, 08:32 PM) *
Scusa ma un file con 16383 "numeri" è più preciso di un file da 4095, quindi alla massima tensione registrata avrà più sfumature possibili fino alla minima. Non hai capito quello che ho scritto, non intendevo avere "più informazioni" registrate dalla macchina, l'hardware sempre quello è, intendevo avere più informazion e sopratutto più precise nel file (l'ho scritto) per il lavoro dopo.
Poi con 14 bit non guadagni nulla, su quello sono d'accordo, è con 12 bit che perdi qualcosa, avere una maggiore quantità di dettagli nel file è meglio, anche superflui e anche che verranno scartati poi o aggiunti arrotondandoli, c'è sempre una maggiore sicurezza.

Anche il fatto di avere pixel di dimensioni più o meno grandi, non c'entra molto, o meglio, c'entra a seconda di come utilizzi il file, ovviamente più grandi sono e più sono importanti e più informazioni sono in grado di "storare" (si dice immagazzinare in italiano credo biggrin.gif ) ma anche se sono più piccoli, e quindi meno capaci di ricevere informazioni aggiuntive, io preferisco che abbiano la possibilità di farlo, sopratutto se li uso tutti, ovvero stampo in grande.
Io (quasi) sempre converto il nef in tiff a 16 bit per portarlo in stampa, è totalmente inutile ma perchè non devo farlo visto che ormai i costi al GB sono bassissimi e l'hardware lo de/codifica in un millisecondo di differenza? L'unico difetto del digitale è la possibilità finita di avere informazioni, io più ne ho e più son contento, tanto non sono di sicuro informazioni sbagliate, piuttosto sono inutili.

E`come paragonare un acceleratore DBW ad uno a cavo, con il cavo hai ipoteticamente infinite posizioni da farfalla aperta a chiusa, con uno DBW nei hai un numero finito, se l'hardware che le codifica lo fa su una maggiore gamma di numeri, le minime posizioni intermedie (sfumature appunto) sono maggiori, poi che nessuno se ne accorga che abbia 4 milioni di sfumature/posizioni possibili o 8milioni è vero ovviamente, però per questo non vuol dire che "non serve". Io preferisco avere sempre più possibilità di numeri che meno, i calcolatori son fatti per calcolare, che lo facciano al massimo della loro possibilità che non gli costa nulla (al massimo qualche € in bolletta laugh.gif ).
Poi stiamo qui a parlare di ste cose un pò superflue, io vorrei sempre vedere la differenza col mio occhio (e anche li si potrebbe discutere di chi come vede), a dir la verità da 12 a 14 non l'ho vista le poche volte che ho provato però io continuo ad usarne di più.

Le cose "compresse" invece non le sopporto, quelle mai, perchè c'è sempre una innegabile perdita di informazioni (anche se poco utili o percepibili), e come ho scritto sopra, GB e processori costan poco, non vedo perchè non sfruttarli!


Quoto

QUOTE(gianlucaf @ Aug 15 2013, 08:41 PM) *
io chiedevo qual'è la pena. perchè porsi certe domande? ovvero quale svantaggio c'è ad usare il massimo che la macchina può offrire?
chiedere per sapere ok, ma non sarà mica un problema di storage, oggi, con gli attuali prezzi dei dischi. 2TB, 90 euro 3TB, 125 euro.

la raffica?


Meglio utilizzare sempre il massimo perché, come è stato gia' detto, ad eliminare si fa sempre in tempo, aggiungere non è possibile. Il vantaggio dei 14 bit in una foto scattata con la giusta esposizione si nota poco o per nulla. Quando invece per forza di cose si è sbagliato lo scatto e non se ne posseggono altri, in fase di sviluppo del raw prima, ed in post dopo, avere più informazioni possibili è molto utile per recuperare lo scatto.

QUOTE(maurizio angelin @ Aug 15 2013, 09:07 PM) *


E' molto strano quello che dici, la D3X oltre ad avere una raffica veloce ha anche un buffer elevato, la differenza di peso di file tra un 12 bit ed un 14 bit è di circa 3-4 MB, una differenza minima che non dovrebbe influire hmmm.gif
Metalslug
Banned
Messaggio: #22
Lo stesso discorso lo si può applicare alla compressione con perdita di dati, ad occhio non cambia molto, in termini di pesantore del file c'e' molta più roba.
Anche in questo caso in pp c'e' un vantaggio abbastanza evidente.
Sulla d5100 uso un firmware hakerato, senza compressione raw....
pes084k1
Messaggio: #23
QUOTE(federico777 @ Aug 15 2013, 08:30 PM) *
Le riviste sono affidabili quando ti danno ragione, mentre negli altri casi possono misurare quello che vogliono? hmmm.gif

F.


No, i numeri di TF sul raw, per esempio, se letti bene, sono allineati a quanto ho detto e a quanto ho misurato a casa sui file. Per esempio, a 400 ISO leggo un S/R normalizzato di 23.5 (NEX-5n, 12 bit) e 24-25 (D800, 14 bit), circa 4 livelli su 256 e una differenza di 0.1-0.2 stop, entro gli errori di misura per sensori elettricamente identici, cambiando solo il pacco filtri colore/IR/AA, e totalmente inavvertibile.
Quelle che non vanno sono le argomentazioni sul ricampionamento, che sarebbero valide per un rumore bianco, e le definizioni di "dinamica" senza tener conto delle trasformazioni (compressioni) del contrasto e della rasatura delle tessiture. Il rumore delle DSRL attuali Bayer, per vari motivi, è spazialmente correlato, più forte a bassa frequenza e a bassi ISO e poi si rialza ad alta frequenza per effetto di sharpening e residui di aliasing (dovuto anche all'interpolazione a 10 Mp). In questo caso, se l'interpolazione viene fatta prima dello sharpening, si taglia il pochissimo rumore ad alta frequenza e qualche dettaglio. Viceversa, si tagliano meno dettagli ma si ha più aliasing. La coperta è corta e in pratica non si guadagna nulla o quasi (0.2-0.3 stop) con un ricampionamento a 10 Mp.
Non si possono ignorare gli effetti dello spettro del rumore e del segnale. Al contrario, uno scanner o un Foveon possono essere analizzati con quei principi, tenendo conto del filtraggio colore e di altre cose come multisampling o multipass HDR.
DxO è invece problematico: per alcune cose la metodologia è interessante, ma non è in grado di capire la cancellazione hardware delle tessiture dovuta all'omogeneizzazione dei bit rumorosi, che si porta dietro anche il segnale, anzi include tutto nel calcolo artificiale di S/R, quindi "elettricamente" apparente e non legato all'informazione visiva.
C'è anche da dire che il rumore "vero", sotto una certa soglia (3-5 livelli su 256), non da contributo alla qualità percepita, se non in casi particolari, come i miglioramenti stile Retinex (non con le curve) delle ombre. In questi casi, con gli algoritmi allo stato dell'arte, vince il pixel grosso, se sufficiente per l'ingrandimento desiderato.

A presto telefono.gif

Elio
federico777
Messaggio: #24
QUOTE(pes084k1 @ Aug 15 2013, 10:39 PM) *
No, i numeri di TF sul raw, per esempio, se letti bene, sono allineati a quanto ho detto e a quanto ho misurato a casa sui file.


I redattori di TF saranno onorati nel sapere che le loro misurazioni corrispondono a quelle che tu hai misurato a casa...

QUOTE
Quelle che non vanno sono le argomentazioni sul ricampionamento, che sarebbero valide per un rumore bianco, e le definizioni di "dinamica" senza tener conto delle trasformazioni (compressioni) del contrasto e della rasatura delle tessiture. Il rumore delle DSRL attuali Bayer, per vari motivi, è spazialmente correlato, più forte a bassa frequenza e a bassi ISO e poi si rialza ad alta frequenza per effetto di sharpening e residui di aliasing (dovuto anche all'interpolazione a 10 Mp). In questo caso, se l'interpolazione viene fatta prima dello sharpening, si taglia il pochissimo rumore ad alta frequenza e qualche dettaglio. Viceversa, si tagliano meno dettagli ma si ha più aliasing. La coperta è corta e in pratica non si guadagna nulla o quasi (0.2-0.3 stop) con un ricampionamento a 10 Mp.


Sì, però adesso cortesemente dovresti mettere online due identiche immagini ad alti iso, una a 10Mp e una a 30, in cui si possa appurare questa differenza di appena 0.2 stop... visto che TF e il resto del mondo vede differenze decisamente più evidenti.

F.
pes084k1
Messaggio: #25
QUOTE(federico777 @ Aug 15 2013, 11:27 PM) *
I redattori di TF saranno onorati nel sapere che le loro misurazioni corrispondono a quelle che tu hai misurato a casa...
Sì, però adesso cortesemente dovresti mettere online due identiche immagini ad alti iso, una a 10Mp e una a 30, in cui si possa appurare questa differenza di appena 0.2 stop... visto che TF e il resto del mondo vede differenze decisamente più evidenti.

F.


No guarda, tutto il mondo dice lo stesso con i numeri. Le chiacchiere interpretative invece se le porta il vento. Anzi, ho preso questi due esempi come "trappolone". Se prendi una D7000 (ancora stessa geometria) o una Fuji X (idem) avresti ancora sul pixel i medesimi risultati, se lavori in maniera standard sul raw o su PC con sw allo stato dell'arte. Anche una prova appurò che una D800e in crop DX andava circa come la D7000. Le iperboli da Internet sono dannosissime. Il rumore dominante è fotonico e la sua varianza dipende da quanti "fotoni" intercetto dall'unità di tempo sul pixel.

Indipendentemente dal fatto che posso fare misure su Matlab, anche se non ha senso mediare 400 scatti quando ho 12-36 Mp per fare medie spaziali equivalenti, peraltro meno influenzate dal pattern noise (non lo sanno i tester?), i buoni denoiser (Neatimage, Xidenoiser) hanno una scala e un profilo spettrale grezzo del rumore o almeno indicano il livello di rumore programmato e quindi di immagini ne vedo e misuro con ragionevole precisione centinaia. Ora se io misuro una volta 5.6, un'altra 6.3 livelli di rumore, so che queste misure sono coerenti con una deviazione di 6. Ma se misuro una volta 6 e una volta 10, qualche cosa non torna.
Un anno fa ho fatto vedere su questo forum che cosa accadeva alla NEX-5n (stessi risultati strumentali su pixel, lo ricordo, di D800 e di ogni sensore 5400 dpi CMOS allo stato dell'arte) quando ricampionavo, con a paragone la ineffabile D700, a 6400 ISO. Cambiava pochissimo con il ricampionamento, il rumore DX misurato sul target Neatimage era sempre maggiore di circa 1.5 stop (bastava un vecchio regolo per calcolarlo a priori dai dati di targa) di quello FX. Era ben diverso anche all'occhio.
Questo non può essere discusso. Resta il fatto che se io applico lo STESSO denoiser ad entrambi i sensori, ottimizzandone i parametri e il trasferimento del segnale (quindi anche senza gonfiare i pixel), i guadagni di resa sono uguali e la distanza tra i sensori resta circa invariata. Anzi, per le leggi fisiche, a un certo punto il pixel più rumoroso crolla prima, lisciando le tessiture e creando artefatti, quindi DIMINUENDO IL SEGNALE UTILE e AUMENTANDO GLI ARTEFATTI, che si sommano al rumore nel bilancio.
Quindi non è lecito osservare separatamente segnale e rumore, se non a ISO ragionevoli (rumore gamma-corretto minore di 10 livelli sul grigio medio) e sul ricampionamento devo stare attento all'ambiente e allo spettro del rumore (sensore Bayer con acquisizione simultanea). Lo stesso discorso vale per la "dinamica", anche se devo fare mente locale al gamma di conversione e un bel po' di semplificazioni, valide separatamente per ombre, luci e mezzitoni, per tirare un numerino serio.

A ogni buon conto, avendo dischi a sufficienza, preferisco scattare a 14 bit lossless (se non faccio prove su Matlab), tanto poi lavorerò a 16 in ogni caso fino al JPEG, ma è una coperta di Linus e basta.

A presto telefono.gif

Elio
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
3 Pagine: V   1 2 3 >