| inviato il 18 Aprile 2014 ore 23:47
@pdennis Ci sei molto vicino, solo che il sensore non genera diffrazione. Parlare di diffrazione del sensore è errato. Definizione di diffrazione : “ In fisica la diffrazione è un fenomeno associato alla deviazione della traiettoria di propagazione delle onde (come anche la riflessione, la rifrazione, la diffusione o l'interferenza) quando queste incontrano un ostacolo sul loro cammino. È tipica di ogni genere di onda, come il suono, le onde sulla superficie dell'acqua o le onde elettromagnetiche come la luce o le onde radio; la diffrazione si verifica anche nelle particolari situazioni in cui la materia mostra proprietà ondulatorie, in accordo con la dualità onda-particella. „ Il sensore non è un ostacolo alla propagazione oltre il quale avvengono fenomeni diffrattivi; quindi non si può parlare di diffrazione del sensore. Diffrazione e campionamento sono due cose diverse. |
| inviato il 18 Aprile 2014 ore 23:54
“ Ci sei molto vicino, solo che il sensore non genera diffrazione. „ Ma nessuno ha mai detto questo... EDIT In realtà forse si era parlato di influenza sulla diffrazione di alcune caratteristiche costruttive dei fotositi, lo spazio tra uno e l'altro, le microlenti : in definitiva a caratteristiche fisiche che possono influenzarne il rendimento... Ma non ho mai letto che "generassero" diffrazione... |
| inviato il 18 Aprile 2014 ore 23:56
“ Diffrazione e campionamento sono due cose diverse. „ Non vedo come questo distinguo possa alterare la descrizione fatta... Possiamo farne un discorso di proprità lessicale ma la sostanza non mi sembra che cambi di molto... |
| inviato il 19 Aprile 2014 ore 0:00
I termini hanno la loro importanza, non si può essere approssimativi. Una inesattezza lessicale induce a un errore concettuale molto spesso. Non volermene, ripeto, penso tu abbia capito il succo. |
| inviato il 19 Aprile 2014 ore 0:10
“ Una inesattezza lessicale induce a un errore concettuale molto spesso. „ Questo nel caso di una grammatica generativa. Io però funziono dalla nascita secondo una semantica generativa, le insufficienze del significante non mi spostano più di tanto |
| inviato il 19 Aprile 2014 ore 0:18
E no aspetta Raamiel stai semplificando troppo. La pellicola registra solamente. La struttura dei sensori moderni e' piuttosto complessa e la luce subisce trasformazioni prima di essere registrata. Qui la struttura www.olympusmicro.com/primer/digitalimaging/cmosimagesensors.html www.nikon.com/about/technology/rd/core/optics/cmos/index.htm Siamo d'accordo quello che c'e' davanti interviene anche sulle proprieta' fisiche della luce prima di registrare il segnale a differenza della pellicola? Ora miniaturizzando sempre il sensore (singolo recettore+ schema ottico e filtri) fatto con questo schema cosa succede? |
| inviato il 19 Aprile 2014 ore 0:47
@Pdeninis No... ma spostano chi ti legge. @Marinaio No... quello che avviene nel sensore non è diffrazione. Anche se nell'attraversare i vari strati la luce subisce delle variazioni questo non comporta diffrazione; questo perché il pixel è una unità adimensionale. Quello che ci fornisce il singolo fotodiodo è una tensione elettrica, in questo senso non ha estensione fisica. Niente estensione fisica, niente diffrazione. |
| inviato il 19 Aprile 2014 ore 1:20
Buona Pasqua, Raamiel, e grazie per l'interessante scambio! Paolo |
| inviato il 19 Aprile 2014 ore 1:34
@Marinaio Io penso che si tratti di un equivoco. Che tu abbia sentito usare l'espressione "diffrazione del sensore" e gli abbia attribuito inconsciamente un significato fisico, piuttosto che prenderlo solo per un modo di dire. E hai indotto l'esistenza del fenomeno da un modo di dire. Forse non ha aiutato la circostanza che, a fronte di cause generative diverse, gli effetti sono stati descritti invece in maniera identica da entrambe le parti ! L'esperienza del fenomeno è la stessa. Però credo che, se ci pensi bene alla luce della tua esperienza, l'idea di una diffrazione generata dai fotodiodi non convinca neanche te... Mentre sul fatto che sia importante, almeno a posteriori, farsene una corretta rappresentazione mentale sono naturalmente d'accordo con Raamiel... Un grazie anche a te! Paolo |
| inviato il 19 Aprile 2014 ore 6:51
Poi per tornare all'argomento originale se avete voglia guardatevi questo video di una lecture data da Eric Fossum a Yale. (E' l'inventore dei CMOS) Se non volete guardarlo tutto non saltate i passaggi a 24 minuti, 38 minuti (grande verita!!!!) e 44 minuti anche se secondo me tutto il video e' interessante. Buon divertimento. m.youtube.com/watch?feature=player_embedded&v=JkBh71zZKrM |
| inviato il 19 Aprile 2014 ore 7:55
Buona Pasqua! |
| inviato il 19 Aprile 2014 ore 8:56
Buona Pasqua Kame e a tutti ragazzi, sono in partenza e non avro' linea nei prossimi giorni |
| inviato il 19 Aprile 2014 ore 12:26
“ Il più piccolo punto che l'occhio distingue è la dimensione del CdC calcolata sulla "distanza di osservazione = diagonale del sensore", cioè 0,25mm ca. con le approssimazioni che sappiamo. Una dimensione simile permette all'occhio che osservi da ca. 25 cm di distanza un'immagine di dimensioni 20x25 di cogliere fino a 18 milioni di punti distinti (per seguire Cristian). „ 18 milioni mi sembrano un po' troppi Comunque.. il più piccolo punto che un osservatore riesce a distinguere ad una data distanza (e quindi il diametro massimo di CoC accettabile in una riproduzione) è legato soltanto all'acutezza visiva dell'osservatore e, appunto, alla distanza. Non c'è nulla da calcolare, non c'è sensore, non c'è diagonale. Ci sono soltanto rilevazioni da effettuare. Trovato, osservatore per osservatore o in media, questo diametro massimo, si può dire quanti punti ha senso inserire ad esempio in una riproduzione di 20x25 da fare osservare a 25cm di distanza, e lo si può fare direttamente se il diametro massimo di CoC accettabile è stato rilevato con prove effettuate a 25 cm di distanza, altrimenti va modificato opportunamente. “ Disponendo di un sensore da 36MP un ingrandimendo che ci permettesse di cogliere da distanza ravvicinata un crop della metà dell'area (18MP) ci apparirebbe ugualmente dettagliato dell'immagine originaria "quando la cogliamo per intero". „ sono d'accordo, e la pdc percepita sarebbe minore rispetto alla riproduzione dell'intera area osservata per intero (non c'entra con questa discussione ma c'entra con un'altra che Paolo sa) @Marinaio: nel primo link che hai postato, la parte dove parla di difrrazione si riferisce alla diffrazione generata dal reticolo utilizzato per la costruzione fisica dei sensori, che limita la dimensione dei singoli componenti del sensore stesso. Non capisco il nesso con quello di cui state parlando. |
| inviato il 19 Aprile 2014 ore 14:46
Oddio... che casino immenso che si può fare... Marinaio... il primo link che hai postato non c'entra un fico con la discussione. Il doc parla del reticolo di diffrazione e le sue implicazioni per l'incisione del wafer con la tecnica del Photolithography. Nel doc è descritto il metodo con cui si FABBRICANO i sensori. Nel caso viene posto il problema della diffrazione per quanto concerne la capacità di incidere i solchi nel wafer; siccome per descrivere la matrice si usa una mask il solco più piccolo ottenibile dipende dalla lunghezza d'onda usata e dalla fessura della mask. Nelle pagine successive infatti si discute sulla sorgente usata per l'incisione, 193nm (UV) e 13,5nm (EUV). Dovrebbe essere ovvio che non è luce visibile. Leggere un doc tecnico in modo approssimativo è foriero di molti fraintendimenti. | |

Metti la tua pubblicità su JuzaPhoto (info) |