RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Risolvenza lente / Risoluzione sensore - Aiuto agli esperti


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Risolvenza lente / Risoluzione sensore - Aiuto agli esperti





avatarsenior
inviato il 23 Maggio 2014 ore 23:39

Dovresti porti la domanda più semplicemente.

Prendiamo lo Zeiss 135 e la D800E, fai lo scatto e ottieni 36Mp completamente risolti (è solo una ipotesi perché il test di DxO non può dirti questo in realtà, ma è una approssimazione accettabile).
Il file che hai acquisito è adimensionale, a questo stadio della faccenda non ci sono più misure fisiche, il file contiene solo entropia.

Hai solo pixel; sul lato lungo ne hai 7360. Se vuoi stampare devi sapere i ppi a cui opererà la macchina; in digitale è così.
Mettiamo di stampare con una tecnologia a 360 ppi 7360/360=20,45 pollici = 519 millimetri
Secondo la normativa ISO 216 sul formato carta il formato che più si avvicina è un B3 (353 × 500); quindi possiamo affermare che con 36Mp stampi 1:1 su un B3. Nessun ingrandimento con la tecnologia di stampa 360 ppi.

A questo punto si dovrebbero fare altre considerazioni, anche sulla diffrazione.

avatarsenior
inviato il 23 Maggio 2014 ore 23:47

Raamiel, io sono perfettamente d'accordo con te, nel momento in cui la luce ha colpito il sensore e quindi quel puntino sul muro, si è materializzato nei pixel del sensore, da qui in poi è il digitale che la fa da padrone.

Quindi giusto il calcolo che hai fatto.

Queste 8 pagine però, hanno analizzato quello che succede prima ed il come succede e questo è dipendente solo da regole fisiche dell'ottica.

Lo ha analizzato ponendo come parametro la risolvenza dell'ottica e l'immagine che essa deve proiettare sui vari formati dei sensori.

Esattamente come recita il documento della Schneideroptics.






avatarsenior
inviato il 24 Maggio 2014 ore 0:04

Documento vecchio però, ancora ancorato a un mondo non ancora tramontato a quell'epoca.

La catena dei calcoli può essere razionalizzata.

Mettiamo di riprendere la stessa scena con un FF e una MF con una ottica che copre 54 gradi:

su FF è un 35mm
su MF è un 60mm

il sensore FF è 36Mp
il sensore MF è 80Mp

Il primo sensore quantizzerà la scena con 7424 pixel in orizzontale
Il secondo sensore quantizzerà la scena con 10380 pixel in orizzontale

Il pixel pitch è molto simile, praticamente uguale; questo comporta che le due ottiche seppure molto diverse tra loro per lunghezza focale e formato dovranno fornire frequenze equivalenti.

Il MF si avvantaggia in questo caso di un 39% in più di dettaglio. Ma questo calcolo viene fatto sui Mp. Se i sensori fossero stati entrambi da 36Mp il MF non avrebbe registrato vantaggi.

avatarsenior
inviato il 24 Maggio 2014 ore 0:27

Ma ti complichi la vita per nulla, nei sensori digitali non devi passare dai rapporti di ingrandimento come nella pellicola. E' un passaggio inutile.


Questo lo dici tu.
Prima che la luce arrivi al sensore valgono le regole ottiche. Mi chiedo come fai a non averlo ancora capito, probabilmente non vuoi, oppure fai finta per il gusto di discutere.

Queste regole ottiche (che non spiego più perché già fatto all'infinito) fanno in modo che la lente sia obbligata a lavorare ad un numero maggiore di linee/mm per rendere lo stesso dettaglio all'interno un'area più piccola (quella del sensore APS-C ad esempio). Quando lavora in questo modo, la lente rende peggio.

Il sensore APS-C che gli metti dietro, a questo punto, non fa altro che registrare perfettamente la merda che esce da quella lente (così forse è più chiaro).
Non lo dico io, lo dicono Schneider Optics, Marco Cavina, Sergio Namias, Progresso Fotografico...e probabilmente qualsiasi persona che conosca un po' di ottica.

avatarsenior
inviato il 24 Maggio 2014 ore 0:28

Bravo Paco. Credo tu abbia messo il dito nella piaga.

Spero che anche Raamiel possa concordare sulla necessità di considerare i rapporti di ingrandimento.

Perché in realtà sono in due direzioni: non solo "dal sensore alla stampa", ma prima anche "dal soggetto al sensore".

È qui che il formato del sensore fa la differenza.
Poi quello che dice Raamiel è vero: una volta campionata l'immagine il formato del sensore è ininfluente.


avatarsenior
inviato il 24 Maggio 2014 ore 0:34

Otherwise, it can happen that good optics with high modulation are judged to be worse
than inferior optics with a lower modulation


letto questo benedetto pdf - si ma è vecchio come il cucco ragazzi... - e dedico la citazione sopra ai simpatici amatori del "meglio puntare all'ottica e tenersi la fotocamera da 4 megapixel che avere la fotocamera con tanti pixel e l'ottica scarsa" -
Per inciso non è vero neanche che l'ottica migliore risulta scarsa.. as far as... ci sia un bel filtro antialiasing davanti al sensore. semmai risulta semplicemente inutile ma non dannosa.

ora non mi resterebbe che leggermi 8 pagine di thread per capire qual è il punto che non torna.... :D qualcuno mi riassume quale sia l'argomento del dibattere ?

avatarjunior
inviato il 24 Maggio 2014 ore 0:35

Quando il file contiene solo entropia... Tutto il resto è noia...

avatarsenior
inviato il 24 Maggio 2014 ore 0:41

No.. io non faccio finta, perché dovrei fare finta.

Non sto negando che un sensore grande sia migliore; a parità di scena inquadrata e di dettaglio risolto la lente su MF lavora a frequenze più ridotte.
Ma non è detto che i due sensori abbiano lo stesso numero di Mp.

Io sto solo dicendo che la frequenza di lavoro dell'ottica nel mondo digitale è determinata dal pixel pitch del sensore.
Se il pixel pitch è 5 micron (per esempio) l'ottica sul MF e sul FF dovrà compiere uno sforzo simile; ovviamente poi l'immagine sul MF avrà più dettaglio.

Non capisco perché vogliate per forza scannarmi.

avatarsenior
inviato il 24 Maggio 2014 ore 0:49

Io sto solo dicendo che la frequenza di lavoro dell'ottica nel mondo digitale è determinata dal pixel pitch del sensore.
Se il pixel pitch è 5 micron (per esempio) l'ottica sul MF e sul FF dovrà compiere uno sforzo simile; ovviamente poi l'immagine sul MF avrà più dettaglio.


Alleluhia! È d'accordo anche Raamiel!
Per me il caso è chiuso.

Quello che avevo capito da tempo, e lo avevo segnalato a Raamiel, è che in questi dibattiti ci si dice NO solo perché ognuno vuol mantere il proprio ordine di prospettazione del problema.

Una volta che si arriva a contemplare veramente TUTTE le variabili si scopre che si stava dicendo cose perfettamente compatibili, solo che ognuno pensava ad un particolare tipo di situazione diversa dall'altro.

In questo caso la frase rivelatrice è :"ovviamente poi l'immagine MF avrà più dettaglio". Che, ragionando all'incontrario, vuol dire che "per avere pari dettaglio devi far lavorare l'ottiche su frequenze spaziali differenti".

Come del resto aveva detto sopra: "Non sto negando che un sensore grande sia migliore; a parità di scena inquadrata e di dettaglio risolto la lente su MF lavora a frequenze più ridotte ".

avatarsenior
inviato il 24 Maggio 2014 ore 0:49

Nessuno ti vuole scannare. Ora ho capito dove i due discorsi si ingarbugliano.
Per me è un discorso di dettagli a parità di inquadratura, in uscita dalla lente, quando dietro alla lente ci sono aree differenti (diversi formati, siano essi pellicola o sensore).
Per te è un discorso micrometrico, che va a guardare quanto è la distanza fra i fotodiodi perché quella secondo te è la risolvenza che deve garantire la lente (o a cui le lente lavora) perché il sensore possa riprodurre il massimo dettaglio.

Io continuo a sostenere però che il massimo dettaglio raggiungibile da una lente genera immagini di pessima qualità (come Schneider Optics e Cavina insegnano).
Senza dimenticare il fatto che per avere un dettaglio appena percepibile all'occhio bastano 42 l/mm su Full Frame

user10190
avatar
inviato il 24 Maggio 2014 ore 0:51

Raamiel io vorrei soltanto capire il tuo concetto nel differenziare il lavoro dell'ottica come se fosse un'auto che cambia marcia e quindi velocità.

Se mi dici che attraverso un sistema ottico passano diverse frequente e il sensore decide quale di esse produrranno un segnale utile, allora comincio a visualizzare decentemente l'argomento.

avatarsenior
inviato il 24 Maggio 2014 ore 0:54

Bravo anche Pierfranco.

Hai spiegato con riferimento diretto quello che avevo tentato di descrivere sopra.

Io continuo a sostenere però che il massimo dettaglio raggiungibile da una lente genera immagini di pessima qualità (come Schneider Optics e Cavina insegnano).


Questo è quello che frulla nella mia testa e che chiedevo a Raamiel. Perché negli MTF si usano due frequenze spaziali e non solo una? Se l'importante fosse solo di stipare più risoluzione possibile (LPMM) quella a 10 LPMM non ci sarebbe: basterebbe quella a 30 LPMM. Evidentemente l'una costituisce un vincolo per l'altra. Migliorando la risoluzione, peggiora l'altra. È possibile?

Pierfranco tu hai capito che voglio dire?

avatarsenior
inviato il 24 Maggio 2014 ore 0:56

Pierfranco tu hai capito che voglio dire?


Da un po'

avatarsenior
inviato il 24 Maggio 2014 ore 1:05

Un file da 60Mp fatto con un sensore più o meno grande contiene sempre la stessa informazione.


e no questo proprio no. l'informazione è diversa perché se il sensore su cui è stata proiettata l'immagine ha dimensione diversa da un altro di riferimento o lo hai posto a distanza diversa con la stessa ottica, o hai cambiato ottica. la stessa ottica a distanza maggiore - PUR AVENDO LA STESSA RISOLVENZA - vede due punti della stessa scena più vicini, ovvero i loro proiettori arrivano con una angolo minore. quindi l'immagine è meno nitida. tanto per dire una differenza.
se al contrario si è scattato dalla stessa distanza si è dovuto cambiare ottica e quindi cambia la pdc e tante altre cose. non si può parlare di pixel e basta per il risultato in stampa, prescindendo la dimensione del sensore sul quale si è proiettata l'immagine.

avatarsenior
inviato il 24 Maggio 2014 ore 1:20

Raamiel aggiungo una considerazione molto molto alla larga: nemmeno i buchi neri si ritiene oggi che non conservino memoria: è difficile, anche senza fare troppi ragionamenti, pensare che il sensore magicamente faccia scomparire la memoria di come ha catturato l'informazione

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 243000 iscritti, c'è spazio per tutti, dal principiante al professionista.






Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me