| inviato il 03 Febbraio 2025 ore 19:02
Se non ricordo male, Sony da qualche anno applica già la correzione, ma sono dati che non forniscono, insieme a efficienza quantica ecc ecc |
| inviato il 03 Febbraio 2025 ore 22:05
@Saro lo troveresti facilmente via Google ma ti metto il link al pdf di Merklinger che tengo su Google Drive. drive.google.com/file/d/1aIcjrBPI-JkJ0VOZwCLFNcF53Ip6mZBp/view?usp=dri Si intitola "The INs and OUTs of Focus". È lo sviluppo di articoli su Shutterbug degli anni 90, quando Merklinger usava una Leica M3 col Tri-Elmar. Personalmente cito sempre fuoco a infinito e diaframmi chiusi coi grandangoli per avere tutto a fuoco. Invece Merklinger nel suo libretto (92 pagine, purtroppo!) offre anche indicazioni su come tenere a fuoco piani diversi. È l'ottica geometrica classica, non parla di sensori digitali. Merklinger (ebreo) è un fisico USA che ha sempre lavorato per agenzie federali in Canada, è ritenuto un'autorità nel campo delle tecniche di focheggiatura per macchine di grande formato. f/16 con un 35 mm significa 35/16=2.2 mm. Osserva attentamente i dettagli a 3 m che ti interessano. Se sono ripetitivi con un passo inferiore ai 2.2 mm, allora fuoco all'infinito e f/16 non fa al tuo caso. Se hai a 3 m sottili fili d'erba dell'ordine di 1 mm ti vengono impastati a diverse distanze. Se pistilli e gambi di eventuali fiori sono grossi, f/16 con fuoco a infinito va bene. Ciottoli e sassi vanno bene. La sabbia dipende dalla grana, se è sotto 1 mm non se ne parla. Naturalmente puoi usare un 28 mm e hai 28/16=1.75 mm, è meglio ma non decisivo. Fuoco a 3 m con f/16 è una buona soluzione se lo sfondo per te non è importante. Constaterai a schermo che la diffrazione a f/16 non è un incubo. Cavalletto, pazienza e PP... |
| inviato il 04 Febbraio 2025 ore 0:08
seguo |
| inviato il 04 Febbraio 2025 ore 9:38
Chi vuole verificare che la diffrazione è anche funzione della lunghezza d'onda λ non ha che esaminare i canali RGB di un Bayer che sono quasi-monocromatici. Il canale dominante per i Foveon è il blu (B). Non lo si fa notare da parte dei Foveonisti (ho la Merrill dp2m) ma una Merrill o una Quattro fanno guadagnare pressappoco uno stop in diffrazione rispetto ad un Bayer. |
| inviato il 08 Febbraio 2025 ore 5:51
@Vincenzo di sicuro le Case non massaggiano i raw direttamente per correggere la diffrazione. C'è un modo per svelare senza ombra di dubbio chi interviene direttamente sui raw. Basta andare su p2p di Bill Claff sui grafici delle gamme dinamiche. Quando ci sono triangoli col vertice verso il basso significa che la Casa fa una specie di doping del raw, abbassa il rumore direttamente. Il guadagno può essere sensibile in gamma dinamica, cfr. Canon 5D Mk IV con R5.
 Emil Martinec lo aveva fatto notare per gli ARW delle Sony di allora (2008). Aveva usato le trasformate di Fourier bidimensionali (2D-FT). Bill Claff è un seguace di Martinec, viene da Stanford, non è un mezzobusto à la YT. Se non ci fosse la diffrazione vorrebbe dire che non è valido il principio di indeterminazione di Heisenberg che è comunemente accettato in meccanica quantistica. Non c'entra niente con Heisenberg, ma è sconvolgente (almeno per me...) che le FT siano affette dal principio di indeterminazione fra i domìni tempo e frequenze. |
| inviato il 08 Febbraio 2025 ore 12:11
La trattazione della diffrazione è affrontata dalla "Fourier Optics", il passo successivo all'ottica geometrica che risale addirittura a Gauss (quasi due secoli, ma i fotografi non l'hanno ancora introiettata...). È la luce considerata un'onda elettromagnetica. La luce come onda non si vede come possa essere registrata da un sensore al silicio (Si). I fotografi sfruttano il fatto che il fotone (quanto) può anche essere considerata una particella, non un'onda. Il fotone interagisce con gli elettroni del silicio che è un semicon, gli elettroni che mobilizza NON sono quelli di valenza. La quantistica è nata con l'osservazione che gli elettroni dai metalli venivano estratti a pacchetti discreti (Planck, Einstein, quanti, fotoni). Si chiama effetto fotoelettrico (esterno). Non c'è bisogno del silicio, basta un metallo. Non c'entra niente col meccanismo per cui un fotone incide sul silicio e mobilizza gli elettroni di conduzione (NON di valenza, non postiamo fregnacce!). In effetti il silicio non è un metallo. Ci sono fisici che chiamano tutto questo "effetto fotoelettrico interno", questa definizione non ha mai preso piede. Va detto che la fisica dello stato solido non è banale da capire, come tutta la quantistica del resto. Una volta riconosciuto il carattere di particella al fotone (altrimenti foto non ne registri), vale il principio di indeterminazione di Heisenberg. Che dice che o conosci bene (dopo misurazione) la posizione di una particella o conosci bene il suo momento, non entrambi bene CONTEMPORANEAMENTE. A questo punto anche uno con la terza media capisce che a f/22 si sa bene dov'è inizialmente il fotone ma si sa male dove è andato a finire nella sua propagazione. È Airy, è la diffrazione, bellezza! Molti ing non hanno cognizioni di quantistica e non ci credono, ma non vuol dire che non sia vero... |
| inviato il 09 Febbraio 2025 ore 17:09
@Andrea la diffrazione insieme a ETTR e ISO è indigesta a chi non ha le basi per capire la fotografia digitale a livello tecnico (astenersi gli arguti critici di estetica fotografica, questo non è un 3d per loro). Il precedente grafico p2p mostra che uno con la 5DIV deve fare ETTR per pareggiare la R5. La stragrande maggioranza dei fotografi FF non fa ETTR. Attualmente l'ETTR serve (a chi non ha FF, usa una m4/3 magari) a fare arrivare la stessa luce al sensore. I grafici DR (GD, gamma dinamica) p2p sono ETTR a ogni ISO. Uno con la Canon R5 che non esponga ETTR è soggetto all'eventualità che uno con la 5DIV + ETTR lo eguagli in dinamica. Poco male, se la scena non è ad alto contrasto Alla stessa stregua uno con la R5 può legittimamente pareggiare i conti con una MF (FF+) in termini di luce raccolta dal sensore FF. L'ETTR per non fare danni al colore deve essere applicata a un raw (CR3) lineare. La via più breve è applicare un Cobalt Repro. Uno che sottoespone 1/3 EV (il contrario di un'ETTR) una FF si mette il cuore in pace, pensa di avere salvato le alte luci. In effetti non si accorge a occhio di avere tagliato la dinamica e si ritorna a "occhio non vede, cuore non duole". |
| inviato il 09 Febbraio 2025 ore 17:44
“ Uno che sottoespone 1/3 EV (il contrario di un'ETTR) una FF si mette il cuore in pace, pensa di avere salvato le alte luci. In effetti non si accorge a occhio di avere tagliato la dinamica e si ritorna a "occhio non vede, cuore non duole". „ Valerio, a volte per salvare le alte luci (che non recuperi in nessun modo, e ne ho diversi di scatti irrimediabilmente persi così) altro che 1/3 di EV di sottoesposizione In quei casi per me le informazioni che perderei valgono molto di più del sacrificio della gamma dinamica, in alcune situazioni la fotografia è compromesso, e comunque non è mai solo formule matematiche come fai tu, io la trovo anatomia patologica! |
| inviato il 09 Febbraio 2025 ore 19:05
@NoPhoto ti riferisci probabilmente ad una esposizione con prevalenza centrale o valutativa (Matrix chez Nikon). In ETTR si espone spot sul punto più luminoso della scena. Il sistema esposimetrico lasciato a se stesso tenterebbe di registrare le alte luci in mezzo all'istogramma raw con la perdita di dettagli nelle ombre ormai nere. Allora provi un bracketing a +1, +2, +3 EV. Controlli cosa perdi per strada e tieni una sovraesposizione ragionevole che successivamente riprendi in PP. Non perdere le altre luci è una leggenda metropolitana. Agendo in ETTR quello che rischi di perdere sono i mezzi toni fatti slittare a dx. Quelli non puoi perderli, pena scartare lo scatto. Ma le alte luci propriamente dette la maggior parte dei casi le puoi scartare. Fai il bracketing proprio per controllare QUANTO hai spostato i mezzi toni nelle alte luci. Se hai una macchina che acquisisce a 14 bit, hai a disposizione 16384 passi. Gli ultimi 8192 passi possono mostrarti pochi punti sparsi vicino a 16383 e allora la tua sovraesposizione non ha eliminato i mezzi toni. Se invece vedi milioni di punti impilati a 16383 sei sicuro che hai danneggiato i mezzi toni e retrocedi la sovraesposizione. Tutto questo lo vedi chiaramente usando RawDigger coi suoi RAW. Gli istogrammi JPEG che vedi a schermo o nel mirino ti ingannano, non sono diagnostici per un'ETTR corretta. Parlare di esposizione senza fare ricorso a RawDigger è in pratica piuttosto difficile e si possono prendere granchi facilmente. Attenzione che l'ultimo dei 14 bit contiene il rumore più alto! Gli ultimi 8192 punti possono essere ridotti a 30-100 punti senza che te ne accorgi perché non è importante descrivere bene il rumore! Le mie Nikon 1 acquisiscono a 12 bit, formalmente sono un totale di 4096 punti. Nikon ne usa da 700 a 800 soltanto nei raw: sono NEF compressi lossy. Dove sono le formule in tutto questo? |
| inviato il 09 Febbraio 2025 ore 19:41
Valerio, appena recupero uno scatto lo posto e capisci, a volte si scatta al volo e per forza di cose deve essere buona la prima non c'è modo di fare bracketing o ETTR, altre volte ci si concentra sul dito e non sulla luna! |
| inviato il 09 Febbraio 2025 ore 19:49
@NoPhoto sì, l'ETTR è tutto fuorché adatta a scatti in tempo reale. Troppo macchinosa. Se uno è fortunato, misura spot e sovraespone sperando di non avere combinato disastri. |
| inviato il 09 Febbraio 2025 ore 22:28
Valerio, ecco lo scatto incriminato:
 errore mio per carità ma la luce sulla colonna di sx è irrecuperabile (poi in post ho fatto un lavoro certosino di clonazione) ma tant'è, ed era una situazione da cogliere l'attimo perché nonostante la visita prenotata, era arrivato un gruppetto non previsto che la guida ha fatto entrare lo stesso (a dx si vede già una persona), poi in altri scatti ci sono diverse persone noncuranti di chi stesse cercando di fare fotografie, intenti loro stessi a fotografare con lo smartphone d'ordinanza. |
| inviato il 11 Febbraio 2025 ore 19:56
Io mi faccio una domanda, che non è assolutamente una critica di nessuno . Premesso che chiunque può desiderare e possedere sensori da 100M e oltre (ho una ventina di corpi funzionanti e non so quante ottiche e corpi non funzionanti) la domanda è questa Quanti fanno stampe da 70 cm e oltre ? Lo chiedo perché è a questo che dovrebbe servire un sensore da 50 MP … Perché con un sensore da 24 MP si fanno già stampe da 40 cm , con uno da 36 stampe da 50 cm |
| inviato il 11 Febbraio 2025 ore 20:50
Riccardo, rispondo per quanto mi riguarda, non stampo! Comunque, sempre per me, il passaggio da 24 a 61 Mpx ha portato solo vantaggi. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 254000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |