QUOTE(giampal @ Feb 3 2019, 01:35 PM)
...
Riferendomi alla pellicola -elemento sensibile che ha preceduto l’era digitale, di cui ne esistono con varie sensibilità nominali (a prescindere che fossero poi ulteriormente “push processing ” con lo sviluppo), evidentemente dovute ad una diversa dimensione e distribuzione dei sali d’argento sul supporto oltre ad un diverso trattamento chimico degli stessi- posso solo immaginare in forma digitale analoga modalità applicata ai pixel sul sensore.
...
L'equivalente (con moltissimi distinguo) della pellicola più sensibile (sali d'argento a grana più grossa) è un sensore con bassa densità di pixel.
I costruttori di sensori le studiano naturalmente tutte per raccogliere ogni singolo fotone anteponendo micro lenti a i fotositi e usando la luce riflessa dalla parte 'posteriore' del sensore (BSI).
Quindi dal mio punto di vista non ha senso pensare a sensori da 100, 200 o 3200 ISO, perché semplicemente i costruttori di sensori cercheranno di raccogliere la maggior quantità di luce possibile, con i fotositi più piccoli possibile e poi dovranno per forza fare i conti con una più o meno grande amplifucazione dei segnali in gioco.
Forzando sempre i paragoni con la pellicola (anch eio sono dell'idea che non sia troppo il caso):
- Il sensore con i suoi fotositi di certe dimensioni, di efficienza più o meno alta corrisponde ad una pellicola di determiniata sensibilità (nominale) che non puoi cambiare perché è un parametro costruttivo
- L'aumento degli ISO in sede di esposizione corrisponde al tiraggio che facevamo della pellicola; il trattamento più aggressivo (tempi e temperature dei bagni di sviluppo) contribuiva ad amplificare l'effetto delle reazioni chimiche innescate dalla luce che aveva colpito la pellicola stessa
- Il recupero delle ombre in un programam di elaborazione RAW corrisponde alle operazioni che facevamo in camera oscura quando sceglievamo la carta, il tempo di esposizione e ancora la durata dei bagni
Il tema di cui si sta discutendo è seconodo me legato alla capacità di misurare finemente, con grande precisione ed evitando di sovrapporre qualuque segnale spurio (rumore in priomis) piccole quantità di luce che trasformate in segnali elettrici e opportunamente campionati generino numeri da 14 bit (base per la maggior parte dei sensori moderni) che una volta raddoppiati per 5-6 volte e messi in fila producano immagini realistiche.
Dal punto di vista matematico in un RAW a 14 bit ho spazio per 2^14 sfumature per ciascuna componente di colore RGB.
Sono più di 16 mila per singola componente che in tottale producono 4 miliardi di possibili sfumature totali.
Pensiamo ora di sottoesporre un'immagine di 6 stop e recuperarla in post produzione.
Se divido 2^14 per 6 (i 6 stop di sottoesposizione) ottengo 2^8 che significa 256 sfumature (per componente di colore RGB).
In realtà le sfumature nelle zone d'ombra sono meno, (altrimenti con la moltiplicazione otterrei un'immagine completamente bianca).
I moderni sensori (e tuta l'eletronica collegata) riescono a misurare la luce così bene che la rappresentazione di ombre in poche decine di gradazioni (sempre per singola componete RGB) è 'pulita' abbastanza da non notare noi poi un degrado peggiore di quello che otterremmo amplificando prima il segnale analogico dei fotositi e sfruttando fin da subito l'intera scala a 14 bit.
Ovviamente la matematica dice che un'esposizione corretta ci darà il maggior numero di sfumature su cui lavorare.