RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

nitidezza e risoluzione.


  1. Forum
  2. »
  3. Tecnica, Composizione e altri temi
  4. » nitidezza e risoluzione.





avatarsupporter
inviato il 22 Marzo 2020 ore 11:07

Pignolo MrGreen

avatarsenior
inviato il 22 Marzo 2020 ore 11:14

@Rolu le frequenze spaziali dell'oggetto e dell'immagine sul sensore hanno di mezzo un fattore 2 che è poi Nyquist.
Per 24 Mpx FF possiamo prendere il sensel come 6µm con tutte le semplificazioni al contorno che hai già scritto.
In un mm ci sono 1000 µm (i vil meccanci li chiamano micron!). In 1000 µm ci stanno 1000/6=167 pixel (sensel).
Se fossimo nei domini tempo/frequenza e dovessimo campionare una sinusoide pura, il criterio di Nyquist ci impone di prendere "almeno" due punti per periodo. Nel caso fotografico immagina che righe bianche e nere siano onde quadre che non sono sinusoidi ma hanno un periodo anche loro. Non era scontato, ma Nyquist funziona anche per spazio/frequenze spaziali oltre che per tempo/frequenze. Un periodo sarà partire da una riga nera e arrivare alla prossima riga nera. In mezzo ci sarà una riga bianca. Per il minimo necessario per distinguere righe bianche e nere bisogna che un sensel intercetti una nera e quello adiacente una bianca, quindi due campioni per periodo (ciclo, cycle), ossia Nyquist. Se in un pixel cadono contemporaneamente una riga bianca e una nera non li hai risolti.
Deriva che un sensel da 6 µm ha Nyquist a 167/2=83 lp/mm, come avevi già precalcolato tu.

Per arrivare a MTF64 a Nyquist devi ricorrere alla MTF del sensel che è sin(PI*f)/(PI/f) ossia una sinc.
f vedilo come cicli. La sinc va a 0 per f=1 ciclo perché sinPI=0. Nyquist sta a f=mezzo ciclo=1/2. Hai già fatto tu il calcolo che è MTF=0.63661... abbreviabile in MTF64. (Quando sono eleganti le formule sono quasi poetiche:-P). Qui c'è di mezzo PI/2 e traiamo una costante universale per qualsiasi sensel a Nyquist: MTF64!;-)

Nyquist è il minimo sindacale, il fotografo avveduto cercherà di andare incontro all'ottica che monta abbastanza lontano da Nyquist. Se l'ottica avesse MTF50 a 60 lp/mm (niente di troppo esagerato), il 24 Mpx FF (scordandosi AA e demosaicizzazione che sono ulteriori turbative) restituisce un MTF(sistema)=MTF(0.5*0.8)=MTF40. Se usi l'esagerata R4: MTF(0.5*0.92)=MTF46. Più Mpx ha il sensore meno danneggi la MTF originale dell'obiettivo.
In tutta questa discussione si è assunto che MTF rispecchiasse la "nitidezza". Se la "nitidezza" si intende in modo diverso, non è escluso che queste siano considerazioni sballate.
Insomma: un sensore più Mpx ha e meno abbassa la MTF di un'ottica. Questo non è affatto condiviso da tutti in questo 3D.
E allora avanti con post di esempi reali, io sono uno sperimentale, non un teorico.:-P

avatarsupporter
inviato il 22 Marzo 2020 ore 11:54

Sulla diffrazione, che affliggerebbe le bigmpx più delle altre, anche in questo caso, non è vero ciò vero ma quel che sembra, ovvero che se ragioniamo al 100% è vero, ma se normalizziamo l'output, accade questo:



sinistra a9, destra a7r4, f/22 è un diaframma "abbastanza" chiuso, no? ;-)

avatarsenior
inviato il 22 Marzo 2020 ore 11:59

Grazie Valgrassi per la risposta,

hai confermato le mie assunzioni di partenza ed i dubbi sulle unità di misura (non ero sicuro che cy/mm fosse sempre ed universalmente equivalente a lp/mm).

Adesso posso farti domande con risvolti pratici.

Ho sempre letto in rete che la frequenza di Nyquist fosse la massima risoluzione teorica di un sensore; per avere quella effettiva, per tenere conto dello schema Bayer, bisogna dividere per un fattore che mediamente viene indicato fra 1.3 ed 1.5.
Dall'applicazione della formula invece risulta che alla frequenza di Nyquist si ha MTF64, valore molto superiore a quello che generalmente si considera come limite di risolvenza, cioè MTF10 o MTF20 al massimo.
E d'altra parte se le linee della mira ed i pixel cadono a cavallo si ha MTF0 alla frequenza di Nyquist e si dovrebbe avere MTF100 se coincidono perfettamente.

Ha quindi senso utilizzare la formula MTFsensore, e di conseguenza quella della MTFtotale, per frequenze prossime a quella di Nyquist?

La nitidezza non è una grandezza misurabile ma percepita, sono state fatte prove fatte su individui a cui venivano fatte vedere delle immagini e sembra che sia legata soprattutto ad un buon contrasto su frequenze alte ma non ancora vicine al limite del dettaglio distinguibile.

user175879
avatar
inviato il 22 Marzo 2020 ore 12:03

Il rumore, che limita l'estensione verso il basso, se ingrandisci di più (cosa che occorre fare con i sensori più piccoli per avere la stessa dimensione di stampa) si vede di più e diventa più importante rispetto al segnale.

Eeeek!!!

avatarsenior
inviato il 22 Marzo 2020 ore 12:07

@Roberto 147 "In realtà la gamma dinamica è un rapporto che tiene conto solo dei valori minimo e massimo possibili e non delle sfumature intermedie, e non vedo come questo possa essere influenzato dal rapporto di ingrandimento"

Dal punto di vista ingegneristico potrebbe essere corretto quanto sopra affermi: la gd è legata alla tecnologia (tipo,materiali, dimensioni) del singolo fotodiodo e dell'elettronica di contorno.
Potremmo fermarci qui, non ha senso parlare di crop o formati, la gd è una proprietà intrinseca del sensore.
Volendo considerare i formati c'è un aspetto aggiuntivo semplicemente legato al rapporto di riproduzione. Consideriamo pixel uguali in tutto e per tutto, cambia solo il formato. D850 vs D500 si avvicinano nella realtà a questa situazione. Scattiamo la stessa foto, stessa posizione, stessa esposizione, una con 50mm l'altra con 35nm.
Nellla foto c'è un oggetto scuro e poco illuminato. Se questo oggetto, riprodotto sul sensore della d500, occupa 100 pixel, sul sensore della d850 ne occuperà 225. Ci può essere una situazione limite di luce in cui sulla d500 quell'oggetto verrà sommerso nel rumore di fondo, mentre sulla d850 è ancora visibile. A questo punto il fotografo con la d500 potrebbe alzare l'esposizione di uno stop e quindi pareggiare i conti: l'oggetto scuro si vede altrettanto bene. Ma che succede ora se nella stessa scena c'e' un oggetto delle stesse dimensioni ma fortemente illuminato? La stessa quantità di luce, che sulla d850 è spalmata su 225 pixel, sulla d500 è ora concentrata su 100 pixel. Ad un certo punto sulla d500 l'oggetto verrà bruciato mentre sulla d850 sarà ancora visibile.

Torno a ripetere, l'aspetto dimensionale e' aggiuntivo

avatarsenior
inviato il 22 Marzo 2020 ore 12:18

Sulla diffrazione, che affliggerebbe le bigmpx più delle altre, anche in questo caso, non è vero ciò vero ma quel che sembra, ovvero che se ragioniamo al 100% è vero, ma se normalizziamo l'output, accade questo:


Certamente che funziona così, e questo vale per diffrazione, micromosso, obiettivo poco performante, difetti di messa a fuoco; se si normalizza non fai di sicuro peggio, migliori anche se di poco.

Se le condizioni sono ideali invece fai parecchio meglio.

Ed anche se un file di una 24MP a 300dpi ti copre esattamente le misura di stampa che vuoi fare, da una 48MP ridimensionata alle dimensioni di una 24MP ottieni un file di partenza migliore.

Bisogna sempre ricordare che 2/3 dei dati dei pixel di un'immagine sono calcolati e non misurati, si possono migliorare le cose con ricampionamento verso il basso oppure con la fusione di più immagini con piccolissimi scostamenti.

Chiaramente si possono ottenere bellissime stampe con il file originario, ma più MP non possono fare danni a parità di modalità di fruizione dell'immagine.

Fare delle misure con un metro senza tacche dei millimetri può essere più che sufficiente per molte cose, ma se ci sono anche i millimetri non è che le misure sono più imprecise.

avatarsupporter
inviato il 22 Marzo 2020 ore 12:19

Ma poi dico, per provare, ci vuole molto? Ognuno che ha una FF ha in casa anche una potenziale "aps-c", basta ritagliare la parte centrale.
Si monta uno zoom, si fanno due foto su una scena molto contrastata, adattando la focale in modo da inquadrare il medesimo angolo di campo, si espone al limite delle luci e poi si aprono le ombre più scure, in ultimo si portano le foto alla stessa risoluzione (cosa che fanno in molte delle prove di comparazione della GD, la più famosa è quella mostrata da DxOMark nel rank delle fotocamere), e si vede cosa è uscito.
Dai, è semplice...ma a postare degli esempi VERI e non solo chiacchiere, siamo sempre i soliti quattro gatti; tanti, chiedono atti di fede.;-)

avatarsenior
inviato il 22 Marzo 2020 ore 12:30

Senza filtro aa...

avatarsenior
inviato il 22 Marzo 2020 ore 13:55

La mia impressione è che tu confondi la gamma dinamica con il numero di passaggi tonali che ci sono tra il punto più scuro e quello più chiaro di un'immagine. In realtà la gamma dinamica è un rapporto che tiene conto solo dei valori minimo e massimo possibili e non delle sfumature intermedie,


Il problema è proprio che la gamma dinamica NON indica la differenza tra il punto più scuro e quello più chiaro, ma indica quanti livelli di luminosità diversi sono riproducibili da ciascun pixel.
L'ho scritto qualche pagina fa il calcolo, per avere la gamma dinamica devi dividere il numero massimo di elettroni raccolti nel pixel (la Full Well Capacity, FWC) per il rumore di lettura del pixel (read noise, ovvero quanto è preciso il convertitore a leggere la carica di ciascun pixel).

Purtroppo i costruttori di reflex normali non divulgano quei dati (e imho è un peccato dato che se fossero più trasparenti si eviterebbe un sacco di confusione), ma si possono trovare per camere più specializzate tipo quelle per astrofotografia.
Questa ad esempio monta lo stesso sensore della A7r4 astronomy-imaging-camera.com/product/asi6200mc-pro-color

Ciascun pixel raccoglie circa 51.000 elettroni al gain minimo, il read noise sempre a gain minimo (cioè quelli che in fotografia normale sarebbero i bassi ISO) è di 3,5e.
51.000/3,5= 14571 sfumature diverse, tradotte in stop facendo il logaritmo di 14571 in base 2 = 13,83 STOP.





P.S. dal sito si nota che la camera monta un convertitore a 16 bit, il che può sembrare superfluo dato che ne basterebbero 14 (come sulla A7IV classica) per descrivere tutti i 13,8 stop di sfumature, ma con 16 si riduce l'errore di quantizzazione dovuto alla conversione in digitale. In realtà mi pare di aver letto che anche la A7IV usi un convertitore a 16bit per poi fare l'output a 14, ma non divaghiamo altrimenti non se ne esce più MrGreen


avatarsupporter
inviato il 22 Marzo 2020 ore 13:58

In realtà mi pare di aver letto che anche la A7IV usi un convertitore a 16bit per poi fare l'output a 14

Esatto...;-)

avatarsenior
inviato il 22 Marzo 2020 ore 14:43

La a7 iv? È già uscita?MrGreen

user175879
avatar
inviato il 22 Marzo 2020 ore 14:45

Il problema è proprio che la gamma dinamica NON indica la differenza tra il punto più scuro e quello più chiaro, ma indica quanti livelli di luminosità diversi sono riproducibili da ciascun pixel.

Ho sempre sospettato che stavamo parlando di cose diverse. Ne prendo atto, mi risulta comunque difficile pensare che due fotositi di uguali caratteristiche possano generare segnali diversi solo perché inseriti in sensori più o meno estesi. Tutt'al più un fotosito di un sensore più piccolo è 'costretto' a mediare i valori di una sezione di scena più estesa. Il che paradossalmente in casi limite potrebbe anche voler dire maggior compressione e minor clippaggio .

avatarsupporter
inviato il 22 Marzo 2020 ore 15:27

Sì ma la sostanza resta quello che ti ho esposto io, il crop aps-c di un sensore ff a parità di scena inquadrata (quindi con DIFFERENTE focale) e dimensioni di output ha meno lavorabilità, ossia più rumore sulle ombre, del frame intero.

avatarsenior
inviato il 22 Marzo 2020 ore 15:39

La a7 iv? È già uscita?


Scappata una r :-P

Ne prendo atto, mi risulta comunque difficile pensare che due fotositi di uguali caratteristiche possano generare segnali diversi solo perché inseriti in sensori più o meno estesi


Ma infatti NON generano segnali diversi, motivo per cui il crop APS-C da fullframe è identico ad una vera APS-C.
La differenza è che quando si sfrutta l'intero sensore e poi si ricampiona a risoluzioni più basse il segnale si somma linearmente mentre il rumore si somma sotto radice dato che è casuale, quindi il rapporto segnale rumore aumenta.
I pixel però sono sempre quelli, per la A7rIV avrai sempre 13,8 Ev di gamma dinamica "vera" su ciascun pixel, quei 14+ stop che vedi in giro sono "virtuali".
Ne prendo atto, mi risulta comunque difficile pensare che due fotositi di uguali caratteristiche possano generare segnali diversi solo perché inseriti in sensori più o meno estesi: Sensore 1 da 10mpx e sensore 2 da 40mpx grande il quadruplo, pixel identici.
Entrambi hanno un read noise di 2e- per pixel e 20.000e- di FWC per pixel. La GD REALE a livello del singolo pixel è 13,28 STOP.
Se però si riduce l'immagine del Sensore 2 da 40 a 10mpx, ciascun pixel è composto da 4 pixel, quindi la FWC totale diventa 80.000 ma il rumore di lettura diventa SQRT(2²*4)=4. La gamma dinamica del "superpixel" è quindi 80.000/4=20.000, tradotto 14.28 Stop

Certo se si intende erroneamente la GD come differenza tra la parte più luminosa e quella più scura la cosa risulta strana, perché qualunque sia la dimensione del sensore se clippi... clippi!

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 242000 iscritti, c'è spazio per tutti, dal principiante al professionista.




RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me