RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

diffrazione canon 5div vs 5dsr


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » diffrazione canon 5div vs 5dsr





avatarsenior
inviato il 08 Maggio 2018 ore 18:06

nel frattempo... ditemi la vostra!

www.juzaphoto.com/topic2.php?l=it&t=2778310

avatarsenior
inviato il 08 Maggio 2018 ore 18:18

@Uly, Simone il sudamericano ha contribuito numeri un po' troppo teorici, peggio della mia formula approssimata che risale nientepopodimeno che a Otto Schade, una specie di Werner von Braun pioniere dell'approccio MTF in TV (negli anni Cinquanta non si immaginava neanche il digitale per le LeicaMrGreen).

Le cose si possono sempre vedere da due angolazioni. Alessandro tiene i piedi ben piantati per terra, fa da Cassandra per Nikon e da Catone per tutti gli altri (scherzo...MrGreen). Per questo gli dedico un paio di calcoli banali, D4 e D810.
Va precisato che i numeri che escono sono validi al 100% per macchine monocromatiche (come le Monochrom e le P1) o dai sensel RGB impilati (come i Foveon). I Bayer sono una complicazione in più, come pure i filtri AA. Alla necessità si possono modellare entrambi, nel caso Nikon supponiamo che il debayer avvenga con lo stesso algoritmo.

Nel digitale lo spauracchio è l'aliasing: consiste nelle alte frequenze spaziali spurie che si ripiegano su se stesse e si sovrappongono a quelle veraci compromettendo la nitidezza. La D4 ha sensel da 6.95 µm, va in aliasing a 72 lp/mm. Montarci obiettivi super-risolventi potrebbe essere imbarazzante se non ci fosse il filtro AA, che altro non fa che smistare su quattro sensel la luce che ne colpisce uno solo. La D4 era stata proposta per raffiche e AF efficiente anche in bassa luce.
La D810 ha sensel da 4.88 µm e nessun filtro AA, l'aliasing a 102 lp/mm, "scappa" in frequenza davanti a obiettivi super, che tuttavia non arrivano a 100 lp/mm con un MTF percepibile all'occhio (fra MTF10 e MTF20). La D810 è stata concepita per la risoluzione.
Al momento di stampare succede questo: per avere stampe della stessa dimensione o si interpolano i 16 Mpx della D4 verso 36 Mpx o si fa l'inverso. Le due operazioni non sono la stessa cosa. La D4 portata a 36 Mpx non guadagna né risoluzione né in SNR. La D810 portata a 16 Mpx lascia per strada parte della risoluzione nativa guadagnando in SNR. (Ovvio che non si sia parlato di sharpening o abbattimento rumore, che invece è pratica comune in PP).

Diffrazione: a qualsiasi f/ e lunghezza d'onda la D4 non risolve mai di più della D810.

Adesso dobbiamo dare ad Alessandro quello che è di Alessandro. Con la Risoluzione (eq), accettata nel mondo scientifico ma che non va presa come dimensione di sensel reale, confrontiamo D4 e D810, limitandoci a G (verde) a 520 nm= 0.520 µm. R(eq) ci dice quanto ci scostiamo dalla risoluzione propria del sensore in funzione di f/ a causa della diffrazione:

f/2 D4=7.21 D810=5.24
f/4 7.94 6.21
f/8 10.35 9.09
f/11 12.64 11.63
f/16 16.85 16.11
f/22 22.22 21.66
f/32 31.48 31.08

Quindi ha ragione Alessandro che la diffrazione livella le bigmpx. Tuttavia i sensori densi non sono mai superati da quelli medi.

Adesso i numeri della Mamiya di Paco che ha sensel da 9 µm:

f/2.8 9.40
f/4 9.78
f/5.6 10.51
f/8 11.83
f/11 14.10
f/16 17.79
f/22 22.95
f/32 31.99

Claro?

user14103
avatar
inviato il 08 Maggio 2018 ore 18:21

Come sempre preciso ed esaustivo;-)

avatarsenior
inviato il 08 Maggio 2018 ore 18:24

Valerio, tutto vero, ma non bisogna dimenticare alcune variabili che nella teoria vengono lasciate per strada.

a-sharpening... uno sharpening fatto bene stacca ancor di piu una big mpx dall'altra proprio perche' c'e' piu' roba da prendere , e lo dicono a Cambridge come a Calcutta..MrGreen

b-Il fatto che Alessandro inizi il discorso perche' lui va a 100% sulla d810 e sulla d4... e non ricorda che sta vedendo da un lato che so.. il 1/16 di una foto , nell'altro 1/8 della superficie totale.. e quindi inizia con sta storia del velo dimenticando che l'ingrandimento e' esageratamente diverso..

c-la tecnologia che sta dietro le due variabili non inserite, AA, entita' dell AA e lente ...

Insomma.. di sicuro sappiamo che non si va MAI peggio .. senza sharpening, come ho scritto nel nuovo topic... quale SHARPENING applicare per staccare e di tanto le meno risolute con tutta quella quantita' di dati?

avatarsenior
inviato il 08 Maggio 2018 ore 18:46

Uly scusa non ho capito.
Partendo da una differenza di risoluzione nota, come fai ad “aumentare ancor più”, come tu affermi, la differenza. Perché una meno risoluta non guadagna con lo sharpening? La differenza perché non dovrebbe restare la stessa?
Me lo spiegate questo?

avatarsenior
inviato il 09 Maggio 2018 ore 7:39

Grazie salvo,
Non sarà un problema degno di nota ma io sarei curioso lo stesso...
Eppure Juza ha fatto esattamente quel test con 5ds e 5dIII
quindi avrà ritenuto che a qualcuno potesse interessare credo

avatarsenior
inviato il 09 Maggio 2018 ore 8:52

Izanagi

Provo a spiegartelo io
Un sensore da 16mpx che in una data condizione non subisce l'effetto della diffrazione registrerà un tot di informazioni "pulite" che anche usando sharpening adeguati di certo non potranno aggiungere informazioni inesistenti.......

Diversamente il file prodotto da un sensore da 50 mpx in diffrazione potrà essere "recuperato" andando a tirare fuori quelle informazioni "velate" tramite lo sharpening !


Ulysseita afferma giustamente che il sensore più risoluto avrà sempre e comunque una maggiore informazione a disposizione e che questa informazione presente potrà essere ottimizzata ancora di più intervenendo per contrastare l'effetto della diffrazione in postproduzione !

avatarjunior
inviato il 09 Maggio 2018 ore 9:50

Quella di Rednaxela mi sembra un'ottima sintesi di quello di sensato che è stato detto!

Aggiungo solo che, se si vuole essere certi di sfruttare tutto il dettaglio fornito da una lente, si deve arrivare a vedere la diffrazione.


avatarsenior
inviato il 09 Maggio 2018 ore 10:07

Sono d'accordo.
Un po come l'esposizione a Dx : si deve arrivare a pelare le luci, in questo caso anche un po di più

avatarjunior
inviato il 09 Maggio 2018 ore 12:18

@ Valgrassi Tutto giusto quello che dici, non capisco solo perché definisci spurie le alte frequenze spaziali! Se campioni al di sotto di Nyquist, anche le frequenza spaziali vere "pure" trasmesse dalla lente, come quelle dei tessuti, si ripiegano a basse frequenze, con gli effetti che conosciamo ....

avatarsenior
inviato il 09 Maggio 2018 ore 13:51

Ragazzi basta parlare di Nyquist
Il teorema di Nyquist-Shannon si basa sul campionamento di un segnale che è una valutazione "puntiforme" (nel caso di campionamento spaziale) del segnale
I pixel non sono esattamente questo, valutano una area piccola ma non infinitesima
Inoltre il segnale di partenza dovrebbe essere a banda limitata e ricostruito tramite la funzione Sinc

Il sistema di campionamento a pixel è una approssimazione, ma la trattazione di un sistema di campionamento / ricostruzione del genere è ben più complessa, anche se molto più facile da realizzare nella pratica

avatarsenior
inviato il 10 Maggio 2018 ore 6:05

@Cavalier-na
Aggiungo solo che, se si vuole essere certi di sfruttare tutto il dettaglio fornito da una lente, si deve arrivare a vedere la diffrazione.
Un po' ambiguo, vera nel caso di un obiettivo TOTALMENTE esente da aberrazioni. Ci sono due regimi nel digitale:
- limitato dal sensore (cioè dalla dimensione del sensel);
- limitato dall'ottica (cioè dalla diffrazione in funzione di f/).
Normalmente le foto sono miscele dei due regimi, la formula che avevo riportato fornisce "numeri" per caratterizzare questo fatto.
"Spurie" significa semplicemente campionate malamente senza obbedire a Nyquist. L'effetto è l'abbassamento della nitidità, come si disse in un altro 3DMrGreen

@Stefano appena scrivi Nyquist-Shannon sveli di essere un ingegnere giovane, beato te!:-P

@Paolo bisognerebbe sempre evitare la diffrazione. Si fa usando diaframmi aperti. Si minimizza la diffrazione però le aberrazioni sono più difficili da correggere. Sigma negli Art generalizza f/1.4 a scapito del peso. Quando non c'erano i calcolatori potenti, le ottiche le ottimizzavano all'infinito, se andavano bene anche da vicino era un di più.;-)


avatarsenior
inviato il 10 Maggio 2018 ore 7:42

@val: nooo.. non svelarlo!! qua sono un fotografo per passione (modesto ahimè... ) e astrofilo.
Al lavoro poi mi tocca esserlo;-)


Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista.







Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me