FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
4 Pagine: V  « < 2 3 4  
Test Mtf
Cosa sono e come funzionano?
Rispondi Nuova Discussione
iengug
Messaggio: #76
Gli scanner a tamburo hanno l'indubbio vantaggio di fare le scansioni su un piccolo punto e quindi soffrono meno di riflessioni interne al percorso ottico. Detto questo ormai non sono così sicuro che un flatbed come i Kodak/Creo/Scitex vada apprezzabilmente peggio di uno scanner a tamburo. Il vantaggio come comodità è tale che io a un Kodak un pensierino ce lo faccio, quelli a tamburo li lascio dove stanno.
d-80
Messaggio: #77
QUOTE(iengug @ Nov 19 2007, 01:41 PM) *
Gli scanner a tamburo hanno l'indubbio vantaggio di fare le scansioni su un piccolo punto e quindi soffrono meno di riflessioni interne al percorso ottico. Detto questo ormai non sono così sicuro che un flatbed come i Kodak/Creo/Scitex vada apprezzabilmente peggio di uno scanner a tamburo. Il vantaggio come comodità è tale che io a un Kodak un pensierino ce lo faccio, quelli a tamburo li lascio dove stanno.


Hai perfettamente ragione.
pes084k1
Messaggio: #78
QUOTE(d-80 @ Nov 19 2007, 08:49 AM) *
A sua volta High Definition non significa Alta risoluzione, che non so come ripeterlo è un parametro che isolarmente non dice nulla della definizione che si ha.

Non ho capito perchè il filtro antialiansing dovrebbe abbassare la risoluzone limite. Non è vero, abbassa solo il contrasto a frequenza elevate. sono filtri progettati per non fa passare informazioni a partire dalle frequenze doppie. Questo si fa per limitare l'insorgere dei falsi colori, dovuti alla matrice di tipo Bayer e non certo perchè l'intento era quella di eliminare l'aliansing. Basti sapere che il Foveon superato il limite di risoluzione produce aliasing, così come la pellicola e così come gli obiettivi (mtf=0). Questo tipo di filtro non è molto selettivo e quindi si ha un attenuazione anche a frequenze elevate (un abbassamento di contrasto)

E non capisco perchè a mtf=50% le linee dovrebbero confondersi. Non è assolutamente vero.
Se a mtf=100 abbiamo un livello di bianco e di nero rispettivamente di 255 e 0 a mtf= 0 avremmo 127-127 il sistema non è in grado più di differenziare le linee e avremmo la cosidetta frequenza limite.

Mtf=50 significa che se il contrasto originale tra le due linee bianche e nere era nell'originale di 254, la loro differenza sarà solo di 127 sul sensore pellicole (che a loro volta abbasseranno di nuovo questo valore). Non c'è nessuna confusione di linee e l'aliasing non compare certo a mtf=50


Guarda, stiamo dicendo la stessa cosa, cerchiamo di spiegarci meglio con ordine. Il concetto di definizione sottende la separazione dei dettagli con sufficiente contrasto per l'intellegibilità, quindi la risoluzione deve essere comunque elevata. Altrimenti le transizioni, spesse e micro-contrastate, "allagano" l'immagine coprendo i dettagli fini.
Sull'antialiasing sono d'accordo in generale. Il problema era riferito al Coolscan 5000, la cui ottica ha ancora MTF elevatissimo alla frequenza di Nyquist eq. a 4000 dpi. Le frequenze oltre 4000 dpi si possono riversare sotto i 4000 dpi con contrasto elevato, al limite raddoppiando la MTF (apparente misurata) ma distruggendo i dettagli fini. Non è che il limite di risoluzione sia al 50% MTF, ci mancherebbe! Il limite di risolvenza su film può essere stimato a quanto l'ampiezza dell'armonica di prova si riduce all'ampiezza della grana (4-10 livelli i genere), ma bisogna vedere caso per caso. Il campionamento delle pellicole è random. Non vale il limite di Nyquist e ci sono scadenti "bound" in giro.

A presto telefono.gif

Elio
pes084k1
Messaggio: #79
QUOTE(d-80 @ Nov 19 2007, 09:28 AM) *
100lp/mm sono 200 linee a mm e non può catturarle acquisendo a 200 Punti/mm (osservi che non sto parlando di pixel), ma almeno a 400 punti/mm. Questa è la teoria della campionatura (teorema di shannon) non ci prendiamo in giro. Ovvero come citi testualmente la frequenza di campionatura deve essere almeno doppia rispetto a quella originale. Potere risolvente di 100lp/mm allora bisogna catturare 200lp/mm ovvero 400 linee complessive ogni mm.

E ancora una volta bisogna distinguere i pixel che compongono l'immagine dalla risoluzione.
Una d200 ha una risoluzione di circa 4-5Milioni di punti e ha una risoluzione in pixel di oltre 10MP.
Non confondiamo le due cose. Per questo ho detto che solo 100lp/mm sarebbe gia straordinario, visto che il sensore della nikon arriva a circa 50lp/mm, quindi una risoluzione quattro volte maggiore.

1)Cosa ti dice che 400 pixel/mm risolvono 200lp/mm? Non capisco. E' frutto di test pratici? Se la risposta è affermativa posso sapere come li hai eseguiti?
Io non mi pronuncio sui pixel necessari, perchè non conosco.

P.s:. Diamo per assodato che la pellicola sia in grado di risolvere 100lp/mm (una maco BN da 400iso è stimata a 170 lp/mm) questo vuol dire che la pellicola è in grado di catturare 45 milioni di punti nel formato Leica. Per fare un confronto: Una 1ds M2 canon sarebbe in grado di catturare poco più di 7 milioni di punti. Uno scanner dovrebbe catturare l'equivalente di 90 milioni di punti, ovvero produrre un immagine di 180 Mpixel (grossomodo).
Sono risoluzioni che in campo fotografico non si sono mai raggiunte.

Una dia scansionata con uno scanner consumer (i nikon sono probabilmente i migliori) è inferiore alla qualità offerta da un d2x cosa assolutamente non vera con uno scanner a tamburo.


La teoria dice che una sinusoide (reale) può essere campionata con almeno due punti (linee in 2D) per ciclo (lp). La dimensione finita dei pixel distorce un po' proprio la PSF/MTF (sinc-interpolation).Sstai tranquillo. Il teorema del campionamento di Nyquist (non Shannon, che si riferisce all'"informazione") asserisce la non-ambiguità della ricostruzione, che in questo caso è provata anche per sola evidenza.
Lo ripeto, gli scanner da soli "potrebbero" arrivare a queste capacità in Mp. L'ottica/film la limitano un po'. Da 35 Mp posso sperare di avere 24 Mp in casi favorevoli (ma con 10-12 bit di dinamica!). Dai 21 Mp del Nikon posso avere 14-16 Mp "utili". Solo che le scansioni hanno la stessa banda per luminanza e crominanza, da qui i 200 MB non compressi a 16 bit.
OK per il drum, ma ci voglio essere io dietro a pilotarlo! L'Imacon a secco forse è il migliore di tutti, non ho visto controprove, ma alla Hasselblad apprezzavano comunque il Minolta 5400 per la qualità finale.

La D2x è una bella macchina, ma se gli metti a fianco una scansione 5400 dpi stampata a grande formato dopo pp di qualità, ti viene da riflettere: la regolarità dei pixel digitali indica che mi sto mangiando tessiture fini, alcuni dettagli non spiccano o compaiono proprio se usi ottiche top, il colore e il macrocontrasto digitali sono "vuoti"... Un Coolscan ancora pareggia bene (lo uso qualche volta).
La grana, dopo denoising, non si vede direttamente, ma da matericità alla foto! Io per adesso penso a obiettivi top per 135/FX e a compatte digitali con ottiche di qualità. Sono deluso abbastanza, per le mie foto, dalle DSRL. Per il lavoro (ricerca) sono digitalista.

A presto telefono.gif

Elio
pes084k1
Messaggio: #80
QUOTE(iengug @ Nov 19 2007, 08:56 AM) *
Caro Elio, in un post precedente parlavi di algoritmi Retinex. C'è qualcosa di nuovo commerciale che tu sappia, dopo i prodotti della True View?
Cari saluti,
Claudio


I filtri Retinex originali (astronomici) sono nel Gimp, oppure, in versione riveduta, nel plugin Kodak SHO professional per PS. Tramite una trasformata logaritmica-wavelet, l'"illuminazione" della scena viene separata dalla "riflessione". Poi l'illuminazione viene appiattita per far rientrare l'immagine nella gamma dinamica di monitor e stampanti e si rigenera l'immagine. Ovviamente l'originale deve saper incassare contrasti elevati: negative a colori, dia, specialmente in multiexposure, digitali in bracketing d'esposizione (con software HDR). I risultati sono sempre sorprendenti, se non se ne abusa, specie con le dia, sempre ostiche in stampa. Ci possono essere scorrimenti di colore e un nero non perfettamente tale, da compensare in pp. Appena raggiungo l'archivio, ti posso postare un articolo del 2004 di cui sono coautore.
Dimenticavo. Il retinex va usato dopo un filtro antirumore di qualità (es: GEM 2.0).

A presto telefono.gif

Elio
Utente cancellato
DEREGISTRATO
Messaggio: #81
Gentili Signori, sono estremamente orgoglioso di avere iniziato un 3D che ormai consta di 79 interventi, 1174 visite e che mi è servito molto fino al post numero 10. Dopodichè mi sono perso ..... aiuto, sto affogando, ho perso la trebisonda, non capisco più nulla. Qua i superspecialisti si sono scatenati. Ho sbagliato a postare la domanda, ho chiesto cosa sono i test MTF, mentre dovevo chiedere come si valuta, a occhio, una ottica. Penso che però alla fine le risposte sarebbero state le stesse. Per mia deficienza rinuncio a proseguire la lettura, ormai si va troppo sul difficile, ritenterò a settembre, quando sarò più preparato.

Saluti a tutti rolleyes.gif

Giovanni


PS: complimenti agli esperti grazie.gif

Messaggio modificato da gciraso il Nov 19 2007, 09:23 PM
d-80
Messaggio: #82
QUOTE(pes084k1 @ Nov 19 2007, 08:03 PM) *
(sinc-interpolation).Sstai tranquillo. Il teorema del campionamento di Nyquist (non Shannon, che si riferisce all'"informazione") asserisce la non-ambiguità della ricostruzione, che in questo caso è provata anche per sola evidenza.
Lo ripeto, gli scanner da soli "potrebbero" arrivare a queste capacità in Mp. L'ottica/film la limitano un po'. Da 35 Mp posso sperare di avere 24 Mp in casi favorevoli (ma con 10-12 bit di dinamica!). Dai 21 Mp del Nikon posso avere 14-16 Mp "utili". Solo che le scansioni hanno la stessa banda per luminanza e crominanza, da qui i 200 MB non compressi a 16 bit.
OK per il drum, ma ci voglio essere io dietro a pilotarlo! L'Imacon a secco forse è il migliore di tutti, non ho visto controprove, ma alla Hasselblad apprezzavano comunque il Minolta 5400 per la qualità finale. bla bla bla


Stiamo parlando della stessa cosa.
ecco un link che cade a pennello
http://it.wikipedia.org/wiki/Teorema_del_c...Nyquist-Shannon

Spero che avrai capito che per catturare l'informazione di due pixel/mm bisogna utilizzarne 4. La frequenza di campionatura deve essere doppia. Purtroppo dai ragionamenti fin qui emersi sembra proprio di no.

A livello (teorico badi bene) ho ragione nel dire che lo scanner Nikon riesca a catturare 40lp/mm perchè il sensore è in grado di risolvre circa 80lp/mm. Segui tutto il ragionamento.
E se non ti trovi con le singole tappe dimmelo



Anteprima(e) allegate
Immagine Allegata

 
d-80
Messaggio: #83
cerco di correggere il tiro.

Valuto, secondo le mie conoscenze, questo grafico riferito al Sigma 180 Macro a tutta apertura.
http://www.nital.it/forum/index.php?act=at...st&id=89721
Come abbiamo detto in precedenza le due coppie di linee si riferiscono a due diversi valori della frequenza spaziale (10 e 30lp/mm in questo caso). Il primo valore può solo dirci il contrasto che è in grado di riprodurre mentre le linne più basse, che diventano significative ingrandendo il formato Dx a 20*30 e il FF a 30*40cm (valori indicativi).

Premetto che siamo di fronte ad un obiettivo di straordinaria levatura. Bordi sono solo leggermente meno contrastati del centro, ma tutto sommato la definizione nell'angolo estremo è superiore a quella ottenibile dal 18-70Nikkor al centro a f/5,6.
Da notare che stiamo parlando di TA
Come si può notare dal grafico la distanza massima dal centro nel formato leica è di circa 22mm.
Per un sensore FX da 12MP (Circa 33lp/mm) questo obiettivo si dimostra eccellente, e non ci saranno miglioramenti tangibili con obiettivi probabilmente più dotati ad elevate frequenze spaziali (quali l'ottimo Nikkor 70-200 vr) ovviamente dove questi parametri non sono in grado di dare un giustizio, come sulle aberazzioni, sfocato, è sempre meglio rimanere con i piedi di piombo.

Questo grafico in verità risulta semplicistico perchè non viene inclusa la frequenza più importante: quella dei 40lp/mm che sono molto prossimi al limite di risoluzione dei sensori DX (anche se a dire il vero il contrasto è ritenuto accettabile un pò prima di quei fatidici 50lp/mm a causa della stessa filtratura dei moderni sensori). Con questo ritengo (opinione personalissima, opinionabile) che quest'ottica sfrutti tutti i 12MP di una FX, ma non si può dire lo stesso sulla d2x per mancanza di informazioni.

Messaggio modificato da d-80 il Nov 19 2007, 10:13 PM
d-80
Messaggio: #84
QUOTE(pes084k1 @ Nov 19 2007, 07:34 PM) *
Guarda, stiamo dicendo la stessa cosa, cerchiamo di spiegarci meglio con ordine.
1)Il concetto di definizione sottende la separazione dei dettagli con sufficiente contrasto per l'intellegibilità, quindi la risoluzione deve essere comunque elevata. Altrimenti le transizioni, spesse e micro-contrastate, "allagano" l'immagine coprendo i dettagli fini.

2)Sull'antialiasing sono d'accordo in generale.

3)Il problema era riferito al Coolscan 5000, la cui ottica ha ancora MTF elevatissimo alla frequenza di Nyquist eq. a 4000 dpi. Le frequenze oltre 4000 dpi si possono riversare sotto i 4000 dpi con contrasto elevato, al limite raddoppiando la MTF (apparente misurata) ma distruggendo i dettagli fini.

4) Non è che il limite di risoluzione sia al 50% MTF, ci mancherebbe!

5)Il limite di risolvenza su film può essere stimato a quanto l'ampiezza dell'armonica di prova si riduce all'ampiezza della grana (4-10 livelli i genere), ma bisogna vedere caso per caso. Il campionamento delle pellicole è random. Non vale il limite di Nyquist e ci sono scadenti "bound" in giro.

1) sono d'accordo. ho detto all'inizio che per avere un elevata definizione, è d'obbligo avere un elevata risoluzione ed un elevato contrasto (notare la congiunzione "e")

2) sono contento.

3) parli di elaborazione di software.

4) Avevo capito l'esatto contrario, ma so anche che è difficile trattare di questi argomenti su un forum.

5) il teorema vale sempre. E si dovrebbe prendere come riferimento la massima risoluzione della pellicola, se non si vogliono perdere informazioni. Sono perfettamente d'accordo nel definire tale limite "random".

ps Visto che probabilmente non esiste nessuna ottica in grado di risolvere tanto è inutile cercare il poter risolvente della pellicola, perchè alla fine sarà il tutto limitato dall'accoppiata pellicola-obiettivo.

Messaggio modificato da d-80 il Nov 19 2007, 10:32 PM
pes084k1
Messaggio: #85
QUOTE(d-80 @ Nov 19 2007, 10:28 PM) *
1) sono d'accordo. ho detto all'inizio che per avere un elevata definizione, è d'obbligo avere un elevata risoluzione ed un elevato contrasto (notare la congiunzione "e")

2) sono contento.

3) parli di elaborazione di software.

4) Avevo capito l'esatto contrario, ma so anche che è difficile trattare di questi argomenti su un forum.

5) il teorema vale sempre. E si dovrebbe prendere come riferimento la massima risoluzione della pellicola, se non si vogliono perdere informazioni. Sono perfettamente d'accordo nel definire tale limite "random".

ps Visto che probabilmente non esiste nessuna ottica in grado di risolvere tanto è inutile cercare il poter risolvente della pellicola, perchè alla fine sarà il tutto limitato dall'accoppiata pellicola-obiettivo.


Vedo che stiamo convergendo.
1) Le ottiche "alta definizione" hanno infatti un contrasto elevato, dovuto in parte a schemi ottici non particolarmente complessi nelle focali fisse, una elevata risolvenza, derivante da una curva MTF progrettata piatta e regolare (bisogna controllare anche la fase, però...), e un raccordo "adeguato" del "microcontrasto" alle medie frequenze (10-30 lp/mm). Le ottiche "snappy" hanno invece un contrasto buono, ma spesso limitato dalla complessità ottica (flare), un microcontrasto particolarmente elevato a frequenze intermedie, ma decadono "rapidamente" oltre le 30-40 lp/mm. Esistono anche famose ottiche "intermedie", che verso TA sono "snappy", ma con definizione che aumenta a livelli classificabili come alti un paio di stop sotto.

3) Quando ti riversano tonnellate di aliasing nella conversione analogico-digitale, accadono strane cose e devi tagliare parecchia banda in software.

5) D'accordo, ma il limite è molto più complicato. Ne so qualcosa, perchè ho dovuto risolvere per discretizzazione problemi elettromagnetici. In questo caso posso fare altre "assunzioni" sul segnale (es: interpolabilità polinomiale) per ricavare altri teoremi di ricostruzione "esatta". Per il random sampling, cerca su Internet o sul libro di Vetterli "Numerical recipes" il cosiddetto "periodogramma di Lomb" per avere esempi.

A presto telefono.gif

Elio
pes084k1
Messaggio: #86
QUOTE(d-80 @ Nov 19 2007, 09:28 PM) *
Stiamo parlando della stessa cosa.
ecco un link che cade a pennello
http://it.wikipedia.org/wiki/Teorema_del_c...Nyquist-Shannon

Spero che avrai capito che per catturare l'informazione di due pixel/mm bisogna utilizzarne 4. La frequenza di campionatura deve essere doppia. Purtroppo dai ragionamenti fin qui emersi sembra proprio di no.

A livello (teorico badi bene) ho ragione nel dire che lo scanner Nikon riesca a catturare 40lp/mm perchè il sensore è in grado di risolvre circa 80lp/mm. Segui tutto il ragionamento.
E se non ti trovi con le singole tappe dimmelo


Guarda bene i dettagli del teorema (manca il nome di Papoulis nel link, il più importante per gli sviluppi wavelet moderni...) sul link, senza chiuderti.
Una sinusoide a frequenza f e periodo T=1/f, può essere campionata con periodo Tc<=1/(2f), quindi con due campioni per periodo o più. D'accordissimo!
Pixel o campionamento "rect" a dimensione finita modificano solo la H(f). Si corregge con lo sharpening/deblur (ecco perché è necessario e anzi dovrebbe essere accoppiato a un NR "ottimale"...).

La sinusoide di prova MTF campionata al limite genera un campione (linea qui) bianco + uno adiacente nero, quindi ha periodo pari a T=2 (f=0.5) punti (pixel), perchè l'immagine si ripete identica ogni 2 pixel (linee).
Quindi, dal link, Tc=1/fc<=1/(2*0.5) = 1/1 = 1. Ho quindi bisogno di un pixel/linea o 2 pixel/lp. Hai solo inserito un fattore 2 di troppo nel periodo T, non me ne volere a male. Disegnati un grafico con calma e ci troveremo d'accordo!
Un sensore a 4000 dpi può quindi riprodurre al limite 2000 cicli per pollice (25,4 mm) o circa 80 lp/mm. Filtro antialiasing o...l'aliasing stesso dai segnali naturali, che non sono a banda rigidamente finita, limitano ulteriormente questo confine se vogliamo una riproduzione esatta.

A presto telefono.gif

Elio
Utente cancellato
DEREGISTRATO
Messaggio: #87
Come iniziatore del 3D chiedo a qualche moderatore di spostare la discussione in sezione più appropriata, tipo Tecniche fotografiche o altro, dato che ritengo si sia ampiamente superato l'interesse generale.

Saluti

Giovanni
pes084k1
Messaggio: #88
QUOTE(d-80 @ Nov 19 2007, 09:35 AM) *
Scusa il microcontrasto non è il contrasto misurato ad alte frequenze spaziali?

In pratica hai detto questo....
Il macro Zeiss spinge parecchio il microcontrasto perchè non lavorerà mai in alte frequenze? Ma che cosa stai a dì

Il macro è più nitido perchè è meno luminoso del 50mm f/1,4. Questa è la verità. Gli obiettivi macro hanno spesso la luminosità degli zoom, ma sono ottimizzati come solo i fissi possono essere. Ecco perchè gran parte dei macro sono utilizzabili e rendono il meglio quasi subito (non sono rari i casi in cui il diaframma migliore sia f/4).

vorrei la tua valutazione dei test mtf ad inizio pagina


Il "microcontrasto" dell'immagine è dato sostanzialmente dalla MTF a medio-vasse frequenze. Ad alte frequenze devo introdurre altri concetti (dispersione PSF, rapporti segnale/rumore...) per spiegare accettabilmente la "risolvenza", anzi parlare di microcontrasto può essere fuorviante. Se vai sul sito www.focusmagic.com, vedrai a comparazione una unsharp mask, che alza la MTF, ma non migliora la "dispersione"/risolvenza, e un filtro di deblur adattato (come quello delle DSRL buone), che con la stessa MTF, ha una dispersione/risolvenza chiaramente migliore.

Un tizio si è preso la briga di provare sull'asse con un tester MTF queste ottiche normali. Risultato: l'1.4 (= maggiore apertura numerica, quindi vantaggio teorico), anche se di poco, vince "anche in MTF" sul macro f/2, come valori e anche come qualità di curva. Altri top (Leica) caracollano dietro.
In realtà, direi che bisogna osservare altre cose:
- I Leica sono più contrastati a bassa frequenza verso TA e hanno maggior curvatura di campo. Quindi, su soggetti piani o paesaggi, gli ZF avrebbero maggior definizione comunque, ma meno "snap";
- Il Macro-Planar avrebbe meno curvatura di campo di tutti (ma lo ZF 1.4 è fra i migliori, guarda le resa a 1.4 sul sito Zeiss!) sotto 1-2 m, ma la sua risolvenza non pare al livello dello ZF 50 1.4 (La Zeiss reclamizza solo i long-range ZF 1.4). Così, a bassi ISO, prenderei senz'altro l'1.4, con un ulteriore stacco di MTF finale, ad alti ISO e breve distanza passerei sul macro, usato anche a TA.
- La presunta superiorità dei modelli meno luminosa è contraddetta dalla fisica (+apertura = + risolvenza). Le curve MTF da sole danno in genere ragione. Ma in pratica, i meno luminosi sono spesso più contrastati perché hanno meno lenti (-flare), schemi simmetrici (meno distorsione), maggior controllo di certe aberrazioni (migliore PSF) e quindi miglior risolvenza. Ma non è il caso con il semplice ed efficiente ZF 50 1.4! I Macro sono bestie strane, con MTF elevatissima fino alle 40 lp/mm, ma molte lenti, destinate a correggere la resa a breve distanza e PSF "tormentate" in genere, che riducono soggettivamente la resa oltre i 2-3 m.

Per prova, prendi lo ZF 50 1.4 e il Micro Nikkor 60 (stranamente quasi identico al Macro-Planar 60 2.8 C/Y...) a medio-lunga distanza e capirai la differenza.

Il Makro-Planar ZF 50 f/2 si confronta poi direttamente con il Micro 55 AIS come concezione e resa a medi diaframmi (sono entrambi fortissimi anche all'infinito): chi lo usa al posto del pur manifestamente inferiore Nikkor 50 1.4S/D per i paesaggi e le cerimonie?

A presto telefono.gif

Elio
d-80
Messaggio: #89
x elio

Il grafico non l'ho disegnato io...ma è giusto. E non c'è nessun errore; almeno indicassi un link da dove apprendere le tue teorie, non posso crederti, se metti in dubbio un teorema (che oltretutto mi è molto caro), che conosco bene.
Ti metto un altro link http://it.wikipedia.org/wiki/Campionamento. Non ho voglia di discuterne, abbiamo ripetuto fino adesso le stesse cose, e non voglio continuare all'infinito.

gciraso ha ragione: siamo andati entrambi fuori dall'interesse pratico, comune. Dopotutto ci sono forum di utenti elettronici, che potrbbero chiarirti (perchè no? chiarirmi) dei concetti non chiari, ma che con il topic in questione non centra.
iengug
Messaggio: #90
QUOTE(d-80 @ Nov 20 2007, 02:35 PM) *
x elio

Il grafico non l'ho disegnato io...ma è giusto. E non c'è nessun errore; almeno indicassi un link da dove apprendere le tue teorie, non posso crederti, se metti in dubbio un teorema (che oltretutto mi è molto caro), che conosco bene.
Ti metto un altro link http://it.wikipedia.org/wiki/Campionamento. Non ho voglia di discuterne, abbiamo ripetuto fino adesso le stesse cose, e non voglio continuare all'infinito.

gciraso ha ragione: siamo andati entrambi fuori dall'interesse pratico, comune. Dopotutto ci sono forum di utenti elettronici, che potrbbero chiarirti (perchè no? chiarirmi) dei concetti non chiari, ma che con il topic in questione non centra.


Il paio di linee (in realta la variazione di illuminazione deve essere idealmente sinusoidale) è un ciclo di sinusoide, per cui in effetti ti bastano due pixel per campionare un paio di linee. Purtroppo a differenza di quello che avviene per esempio nell'audio o nella acquisizione in generale di segnali elettrici, la lunghezza della finestra di campionamento è piuttosto lunga nello spazio (negli altri casi invece si ragiona in termini di tempo e c'è un sample and hold in genere che approssima molto meglio un segnale di tipo delta di dirac per campionare puntualmente il segnale) e rovina un pò le cose. Spero di averti aiutato a visualizzare meglio il problema, è solo una questione di intendersi. Il teorema vale e nessuno lo discute.
Ciao,

Claudio

d-80
Messaggio: #91
QUOTE(iengug @ Nov 20 2007, 03:17 PM) *
Il paio di linee (in realta la variazione di illuminazione deve essere idealmente sinusoidale) è un ciclo di sinusoide, per cui in effetti ti bastano due pixel per campionare un paio di linee.

Io non ragionerei in questo modo. Perchè devi anche mettere in preventivo che due pixel rappresentano la variazione di illuminazione come una coppia di linee.
La frequenza deve essere idealmente doppia.
tutte le volte che andiamo a leggere un segnale con una frequenza inferiore al doppio della frequenza massima presente nel segnale, andiamo incontro al rischio di aliasing., di leggere cioè dei segnali inesistenti nel segnale reale. Tutto qui.

Devo dire la verità le tue parole mi hanno fatto sorgere un dubbio.
pes084k1
Messaggio: #92
QUOTE(iengug @ Nov 20 2007, 03:17 PM) *
Il paio di linee (in realta la variazione di illuminazione deve essere idealmente sinusoidale) è un ciclo di sinusoide, per cui in effetti ti bastano due pixel per campionare un paio di linee. Purtroppo a differenza di quello che avviene per esempio nell'audio o nella acquisizione in generale di segnali elettrici, la lunghezza della finestra di campionamento è piuttosto lunga nello spazio (negli altri casi invece si ragiona in termini di tempo e c'è un sample and hold in genere che approssima molto meglio un segnale di tipo delta di dirac per campionare puntualmente il segnale) e rovina un pò le cose. Spero di averti aiutato a visualizzare meglio il problema, è solo una questione di intendersi. Il teorema vale e nessuno lo discute.
Ciao,

Claudio


Hai compreso perfettamente la questione, identica, fra l'altro, a quella dei circuiti elettrici, le cui risposte non sono a banda "rigorosamente" finita (ecco perché usiamo in elettromagnetismo/ottica/immagini modelli polinomiali (Gauss-Laguerre nell'approssimazione parassiale dei raggi...) e ragioniamo "anche" sull'errore residuo di ricostruzione. L'hold nel nostro caso è dato dalla dimensione finita e dalla forma dei pixel e...cambia un po' le cose. I concetti di campionamento/interpolabilità (e risposta in frequenza/MTF/PSF...) sono forse i più difficili da capire e da insegnare. Spero che abbiate apprezzato l'esempio macro/superluminoso, più... fotografico e meno tecnico.

A presto telefono.gif

Elio
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
4 Pagine: V  « < 2 3 4