| inviato il 29 Aprile 2014 ore 22:07
“ Chissà se qualcuno se lo leggerà sto coso „ Leggo sempre con interesse questi threads tecnici e li apprezzo moltissimo, come quello sulla gestione del colore di qualche tempo fa. Continua così! |
| inviato il 29 Aprile 2014 ore 23:32
Grazie, ci proverò |
| inviato il 27 Giugno 2014 ore 17:02
Up |
| inviato il 27 Giugno 2014 ore 17:50
veramente ottimo Raamiel |
| inviato il 27 Giugno 2014 ore 18:25
“ 1 si deve dimostrare che la deviazione dei raggi comporti un degrado dell'immagine. In realtà se i raggi deviati vanno perduti o comunque non raggiungono altri fotositi, sempre di diffrazione si tratterà, ma produrrà non un degrado dell'immagine bensì una diminuzione dell'efficienza/sensibilità del sensore. 2 atteso che la deviazione è prodotta dal restringimento dovuto a qualche parte strutturale del fotosito, bisognerebbe vedere se ha una, e quale, relazione con la diffrazione dovuta al diaframma. Altrimenti si tratterebbe comunque di una caratteristica intrinseca del sensore, presente in tutti i sensori di analoga costruzione, ma non in relazione con l'uso del diaframma ai fini di ottenere una diversa resa dell'ottica. In sostanza, sarebbe a mio giudizio fuori tema in questo topic. 3 In ogni caso tenere presente che la riflessione proposta da Raamiel conclude l'esistenza di un valore teorico massimo per un fenomeno. Quindi risulta compatibile con una diminuzione di tale valore dovuta a ulteriori cause di degrado a valle della superficie del sensore. Eventuali tesi che considerano molto rilevante il degrado dovuto a cause ulteriori dovrebbero partire con la frase: fin qui è giusto, ma io non trascurerei... „ Provo, nel mio piccolo, a dare una risposta a questi punti. 1. La diffrazione "sparge" i raggi ottici in un intorno abbastanza piccolo. La distanza tra diaframma e sensore non permette a questi raggi di andare da qualche parte che non sia in un fotosito vicino a quello in teoria destinatario. Quindi la diffrazione produce disturbi sui fotositi adiacenti in numero maggiore a seconda di quanto questi raggi si "spargono" quando colpiscono il bordo del diaframma 2. La parte del sensore che "incanala" la luce verso il fotodiodo non può produrre diffrazione per il semplice motivo che hai detto tu: se questi raggi non scappano da qualche altra parte colpendo altri fotositi non creano diffrazione ma al massimo una riduzione dell'efficienza luminosa. Qualsiasi cosa posta immediatamente davanti a un fotosito non sarà "sparpagliato" verso il fotosito vicino ma o colpirà lo stesso fotosito o rimbalzerà indietro verso il nulla. 3. Il fatto che vi sia un limite teorico massimo e questo non è raggiungibile da nessuna lente è spiegabile per il semplice fatto che il diaframma di un obiettivo non ha una superficie ideale e quando il raggio colpisce il bordo questo non è certamente "una lama" come quella che si considera nel modello di calcolo. Il bordo, a dimensione molecolare, sarà tutto frastagliato e questo produce un aumento della diffrazione. Diffrazione (o meglio diffusione) che può essere anche prodotta dalla polvere e dai corpuscoli sospesi nell'aria all'interno dell'obiettivo. Anche questi "sparpagliano" la luce che li colpisce provocando una diminuzione della nitidezza registrata dal sensore. Il fatto è che molti associano l'aumento della diffrazione guardando il disturbo a livello del singolo fotodiodo. Misurandolo così è ovvio che più il fotodiodo è piccolo (quindi sensore più denso) più risulterà disturbato. Ma "la media" del disturbo è uguale qualsiasi sia la densità dei pixel e quando si stampa a dimensione fissata quello che viene impresso è proprio la media di questo disturbo. La stessa cosa vale per il rumore. Preso per singolo pixel risulterà maggiore man mano che la densità del sensore aumenta, ma mediamente il valore è lo stesso per tutta la superficie e stampando a dimensione fissa (o guardando a monitor a stessa risoluzione) il disturbo visibile sarà quello medio, che è indipendente dal numero di pixel presenti sulla superficie. |
| inviato il 27 Giugno 2014 ore 19:10
Una precisazione doverosa; il limite diffrattivo di una lente ideale non è determinata dal diaframma. La diffraction cutoff frequency si riferisce a lenti ideali prive di diaframma in cui il rapporto f/stop è quello di massima apertura nativa. Il diaframma aggiunge una strozzatura nelle lenti reali e varia il rapporto f/stop introducendo anche altre variabili; per esempio la concentricità del foro, che non è mai perfetta, la forma del foro, lo spessore delle lamelle e il come si sovrappongono, la finitura superficiale ecc... |
| inviato il 28 Giugno 2014 ore 15:43
Grazie Raamiel Domanda riferita all'ultimo grafico ( Zeiss 35 e a7r) Nel caso invece di una a7 liscia come sarebbe la linea gialla? Supererebbe fc o fn e quindi "si dimostra" la necessità del filtro anti alias? |
| inviato il 28 Giugno 2014 ore 15:54
Probabilmente sì. Assumendo come assoluta la misurazione della lente direi che lo Zeiss 35 probabilmente sorpassa la Fn del sensore della A7. Il filtro AA in questo caso potrebbe essere necessario; comunque sono scelte progettuali. La Leica non lo monta nemmeno su un sensore da soli 18Mp. |
| inviato il 22 Settembre 2014 ore 20:58
Io un po' mi perdo, però, se la matematica non è un opinione |
| inviato il 22 Settembre 2014 ore 21:10
Così è..... piaccia o no |
| inviato il 22 Settembre 2014 ore 21:45
Grazie Raamiel continua così :) |
| inviato il 24 Giugno 2015 ore 22:56
Grazie mille per la tua disponibilità, Raamiel. È un piacere studiare i tuoi post. |
| inviato il 30 Novembre 2015 ore 10:22
complimenti e grazie mille ! Unica domanda se posso per capire meglio: Il segnale analogico immagino sia la luce che colpisce il fotosito...immagino venga integrata nel tempo.... Cosa viene una curva con suo periodo giusto per ogni fotosito? A quel punto non capisco perchè avere più densità e quindi pixel vicini porta a poter campionare con frequenza maggiore... cioè anzi capisco che questo mio ragionamento non funziona..se puoi spiegarlo... |
| inviato il 30 Novembre 2015 ore 15:53
Sono due cose diverse, un conto è la registrazione della carica del singolo fotosito, che è appunto l'integrale della carica sul tempo; un conto sono le frequenze spaziali. E' chiaro che più è fitta la maglia con cui un sensore divide il cono di immagine proiettato sul piano focale, più precisa sarà la conversione in digitale dei dettagli. |
| inviato il 30 Novembre 2015 ore 15:53
Sono due cose diverse, un conto è la registrazione della carica del singolo fotosito, che è appunto l'integrale della carica sul tempo; un conto sono le frequenze spaziali. E' chiaro che più è fitta la maglia con cui un sensore divide il cono di immagine proiettato sul piano focale, più precisa sarà la conversione in digitale dei dettagli. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |