RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Risolvenza lente / Risoluzione sensore - Aiuto agli esperti


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Risolvenza lente / Risoluzione sensore - Aiuto agli esperti





avatarsenior
inviato il 23 Maggio 2014 ore 12:36

Premessa, l'intento di questo post è quello di fare chiarezza sull'argomento utilizzando concetti semplici, quindi sono benvenuti tutti gli esperti del settore purchè si SFORZINO di far comprendere i concetti anche ad una capra come me.

Quindi da questo thread sono bandite formule matematiche ed equazioni, devono essere centellinati i modelli e gli assunti (es. disco di Airy o frequenza di Nyquist) che se proprio non riuscite a trattenervi dalla libidine di dirlo, lo dovete preventivamente spiegare in modo semplice, che possa essere capito da tutti, anche da un semplice fotografo.

Io parto con la mia analisi molto terra terra, da uomo della strada, utilizzando semplici esempi, poi mi fermo perché francamente le cose mi appaiono nebulose, quindi attendo un vostro aiuto CHIARO in merito, niente super×le, mi raccomando!!!

Dunque, leggendo la documentazione della Schneideroptics che ha linkato ieri il buon Pierfranco, si parte da un assunto che è quello della visione dell'occhio umano.

www.schneideroptics.com/pdfs/whitepapers/optics_for_digital_photograph

Si è stabilito che per il formato DIN A4 (quindi una stampa che magari riproduce delle linee sottili) l'occhio umano, posto alla distanza di una "chiara visione" della stampa, stabilita in 25cm, riesce a vedere 6 linee in nello spazio di un mm.

Quindi, per farla breve, se ci poniamo a 25cm da una stampa A4 riusciremo a contare 6 linee pari (12 linee singole alternate bianco/nero) in un mm, non di più.

L'ottica, ha il compito di proiettare la scena all'interno di un formato prestabilito che possiamo stabilire nel formato full frame 24x36.

Quindi deve essere in grado di prendere queste 6 linee in un mm e riprodurle in una superficie che è c.ca 7 volte più piccola.

7 volte è dato dalla proporzione del foglio A4 con la dimensione del sensore 24x36.

Quindi, per poter risolvere l'occhio umano, la lente deve proiettare almeno 7 volte il valore visibile dall'occhio, quindi 7 x 6linee/pmm fa 42 linee per millimetro.

La lente deve risolvere 42 linee per millimetro.

Se mettiamo questo concetto in relazione alla risoluzione del sensore, inizio a perdermi.

Dunque, dal documento, si evince tramite una formula matematica, quante linee per millimetro può risolvere un pixel e questo valore è inversamente proporzionale alla dimensione del pixel.

Un pixel della grandezza di 12 micron, risolve 41,6 linee per millimetro che sulla base DIN A4 è il limite massimo visibile dall'occhio umano.

Quindi, se prendiamo questi pixel da 12 micron e li "spargiamo" su un'area di 24x36 mm abbiamo come risultato una risoluzione di 2000x3000 pixel, quindi 6megapixel.

Se ho capito bene, sulla base del formato DIN A4 per risolvere il potere massimo visivo dell'occhio umano basta un sensore FF da 6MPixel, a patto di avere un'ottica che arrivi a trasferire quel valore di 40 linee per millimetro.

Ma non è così, nella riproduzione delle linee per millimetro, alla risoluzione massima del fotodiodo, ci rendiamo conto che la linea è più piccola della dimensione del fotodiodo, ci troviamo 7 linee pari (cioè 14 linee) per 10 pixel.

Ma l'immagine riprodotta non supera le 10 linee per 10 pixel, questo perché le transizioni chiaro scuro non sono repentine e quindi si perde informazione in questi passaggi.

Quindi da 14 linee ne vedo 10 il che vuol dire che perdo c.ca il 30% dell'informazione.

Da qui in poi mi perdo? anzi, forse mi sono perdo anche un po' prima?. Qualcuno può proseguire o correggere quanto ho scritto?


Grazie in anticipo a chi avrà il buon cuore di intervenire.

avatarsenior
inviato il 23 Maggio 2014 ore 12:43

scusa intanto ti rispondo sulla prima parte - poi quando riesco mi dedico alla tua domanda - nel documento si parla giustamente di "6 PAIRS"non di "6 lines" proprio perché risolvere 6 linee significa distinguerne 6 scure con in mezzo 6 chiare. quindi NON è 3 se no tutto il discorso che hai fatto dopo avrebbe valori da dimezzare.

appena faccio pausa leggo il documento e vedo dove ti sei perso

avatarsenior
inviato il 23 Maggio 2014 ore 12:49

Dunque, dal documento, si evince tramite una formula matematica, quante linee per millimetro può risolvere un pixel e questo valore è inversamente proporzionale alla dimensione del pixel.


Ciao Paco.
Se vuoi distinguere 42 linee in 1 mm, devi dividere 1 / (42*2) cioè per il doppio delle linee che vuoi percepire (per ogni nera ne vorrai una bianca che le divida). Il risultato è 0,0119. Circa 12 micrometri.

Con quella dimensione del fotosito sei in grado di distinguere 42 linee nere in un millimetro di sensore.

Paolo

avatarsenior
inviato il 23 Maggio 2014 ore 12:55

Corretto Black, ho sbagliato io.

6 linee pari, quindi 12 linee singole.

Correggo sopra.

avatarsenior
inviato il 23 Maggio 2014 ore 12:58

Ma non è così, nella riproduzione delle linee per millimetro, alla risoluzione massima del fotodiodo, ci rendiamo conto che la linea è più piccola della dimensione del fotodiodo, ci troviamo 7 linee pari (cioè 14 linee) per 10 pixel.


Qui mi perdo io. Cosa intendi per "alla risoluzione massima del fotodiodo"? Un fotodiodo in sé non ha una risoluzione, ha una dimensione ma restituisce un valore di carica elettrica valido per l'intera sua area.

avatarsenior
inviato il 23 Maggio 2014 ore 12:58

Si Paolo, quindi un sensore di 12 micron risolve 42 linee pari per millimetro.

Cioè ne vede 42 nere e 42 bianche in 1 mm.

Giusto?

avatarsenior
inviato il 23 Maggio 2014 ore 12:59

Esatto. Io capisco così.

avatarsenior
inviato il 23 Maggio 2014 ore 13:00

Qui mi perdo io. Cosa intendi per "alla risoluzione massima del fotodiodo"? Un fotodiodo in sé non ha una risoluzione, è adimensionale: restituisce un valore di carica elettrica valido per l'intera sua area.


Si, è poco chiaro anche a me, vai a pag 8 del pdf e lì trovi la rappresentazione.

Tu come la interpreti?

avatarsenior
inviato il 23 Maggio 2014 ore 13:09

Credo dica che quando il numero di linee aumenta oltre la risoluzione massima campionabile, avviene che uno stesso fotodiodo sarà più grande della dimensione delle linee, e sarà interessato in parte da un'area bianca ed in parte da una nera. Non essendo in grado di distinguerle dimensionalmente, l'unica cosa che può fare è di restituire un valore medio della luce che lo colpisce. Valori che sono sempre diversi in funzione della dimensione dell'area chiara rispetto a quella scura.

Purtroppo devo uscire per andare a prendere mia figlia all'asilo, vi seguirò dopo.

avatarsenior
inviato il 23 Maggio 2014 ore 13:44


Credo dica che quando il numero di linee aumenta oltre la risoluzione massima campionabile, avviene che uno stesso fotodiodo sarà più grande della dimensione delle linee, e sarà interessato in parte da un'area bianca ed in parte da una nera. Non essendo in grado di distinguerle dimensionalmente, l'unica cosa che può fare è di restituire un valore medio della luce che lo colpisce. Valori che sono sempre diversi in funzione della dimensione dell'area chiara rispetto a quella scura.


Dice questo anche secondo me.

avatarsenior
inviato il 23 Maggio 2014 ore 14:24

Molto bene, ok.

Ma quindi questo vuol dire che se il numero di linee supera il limite campionabile io mi ritrovo un degrado dell'immagine dovuto ad informazioni spurie?


avatarsenior
inviato il 23 Maggio 2014 ore 14:54

Esatto, questa è la ragione per cui i sensori di solito sono protetti da un filtro AA che taglia le frequenze più alte del limite campionabile del sensore.

Ad esempio se devo campionare un segnale di 10Hz devo usare una frequenza di campionamento di 20Hz almeno.
Il problema nelle macchine fotografiche è che non sai esattamente che frequenza ti troverai a campionare sul sensore; quindi il filtro AA si interpone per bloccare quelle troppo alte. L'eventuale passaggio di queste frequenze inquinerebbe la ricostruzione del segnale campionato.

Le vie per evitare questa distorsione sono due, e possono essere combinate insieme: alzare la frequenza di campionamento (sensore più denso), usare il filtro AA. Più un sensore è denso meno necessita del filtro AA.

La frequenza con cui un sensore campiona è la metà della sua risoluzione lineare.
Per esempio la D800E ha 206 pixel/millimetro; ciò significa che è in grado di campionare una frequenza massima di 103 linee/millimetro. Se sul sensore arrivano frequenze più alte di 103 linee/millimetro si può verificare un alias; non è certo perché questo dipende molto dalla morfologia del segnale; trame fitte come un tessuto sono molto più insidiose di un paesaggio.

Per fare un raffronto la D700 ha pixel pitch di 8,4 micron e campiona a 59 linee/millimetro al massimo.
La tua Mamiya ZD ha pixel pitch di 9 micron e campiona a 55 linee/millimetro al massimo; siccome non ha filtro AA lenti in grado di risolvere più di questo limite potrebbero darti il fenomeno del moirè.
Per questo motivo i software orientati ai dorsi digitali (di solito privi di filtro AA) sono sempre stati provvisti di un controllo apposito per risolvere il problema del moirè.

avatarjunior
inviato il 23 Maggio 2014 ore 15:06

Significa che se hai più linee del limite campionabile perdi necessariamente informazione.
Il teorema di Nyquist-Shannon, studiato diversi anni fa, indica che ti serve ALMENO il doppio della frequenza di campionamento per distinguere un elemento a una determinata frequenza. Altrimenti non sei in grado di campionare correttamente i dati.
Mettendo dei numeri semplici sulla carta, se vuoi campionare una linea spessa un millimetro devi essere in grado di campionare ALMENO ogni mezzo millimetro.
Se ciò non avviene hai la comparsa di tutti quegli effetti di aliasing, come ad esempio l'effetto moirè. L'aliasing è l'effetto di distorsione che subisce un segnale campionato quando non è possibile posizionarlo ad un livello piuttosto che a quello adiacente perché in realtà sta in mezzo.
Esempio semplice, se tu puoi contare solo da 1 a 10 con numeri interi e ricevi il numero 2,5 hai un bel problema di dove mettere questo valore: sarà 2 o sarà 3? Ovunque tu lo metta compi un errore di campionamento (in questo caso quantizzazione del segnale) e l'informazione che quel segnale portava viene distorta quando è registrata e quindi successivamente anche quando sarà utilizzata per la riproduzione.

Succede lo stesso sul sensore, dove se non hai abbastanza frequenza spaziale di campionamento (o la lente stessa non risolve in maniera precisa le linee) hai un valore registrato che non è esattamente quello reale ma viene "tagliato" o "stirato" a seconda dei casi.

Il filtro AA davanti al sensore serve per attenuare a monte questo tipo di problemi e comunque non li risolve tutti, come puoi ben vedere nei casi in cui compare l'effetto moirè, che non è altro che un problema di posizionamento spaziale delle informazioni che sono state distorte durante la registrazione.

EDIT: anticipato di un soffio da Raamiel

avatarsenior
inviato il 23 Maggio 2014 ore 15:13


Questo documento credo sia piuttosto vecchio, e quando è stato scritto non esistevano sensori densi come quelli di oggi.

La parte interessante, a mio parere, è che per la risoluzione dell'occhio umano bastano ed avanzano 40 l/mm che siano propriamente risolte anche dal sensore.

avatarsenior
inviato il 23 Maggio 2014 ore 15:13

scusa Paco forse se traduci "pairs" con paia e non "pari" diventa più facile capire il discorso.

in generale: quando il mezzo che campiona - in questo caso il snesore - può distinguere meno "dettagli" del segnale - in questo caso il numero di linee che l'obiettivo trasmette sul sensore - si ha un degrado del segnale, che è chiamato aliasing. il filtro anti aliasing altro non è che un limitatore delle frequenze spaziali, ovvero del numero di linee che arrivano al sensore. perché la d800E non ce l'ha? perché ha una freq di campionamento così alta - ovvero un numero di pixel così alto - che può farne a meno perché le ottiche attuali non superano le sue capacità

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 243000 iscritti, c'è spazio per tutti, dal principiante al professionista.






Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me