|
|
inviato il 29 Novembre 2025 ore 10:13
“ 4) se invece faccio 4 foto e faccio uno stitch la GD mi aspetto che aumenti.tipo 15 stop. „ Lo Stitch (unire [negozio 24]iacenti) aumenta la risoluzione e l'angolo di campo, non la Gamma Dinamica. Stai creando una singola foto più grande e dettagliata, ma la GD rimane limitata dai 12 stop della singola esposizione in ogni porzione. (altra cosa invece se fai un HDR) HDR: Scattare più foto della stessa inquadratura con diverse esposizioni (es. un'esposizione per le ombre, una per i toni medi, una per le luci). Quando combini queste tre immagini in post-produzione, stai effettivamente sommando la gamma dinamica utile, superando il limite fisico dei 12 stop del sensore. Conclusione: Per catturare i 20 stop della scena: Aumenti la dimensione del pixel (o del sensore): Aumenta la GD intrinseca ad esempio, 14 stop. Aumenti il numero di esposizioni (HDR): Catturi il resto, arrivando a 15 o più stop. Il vero concetto alla base della GD in un sensore più grande (e la diminuzione nel ritaglio) è la media dell'informazione. Concetto della Media dell'Informazione: Quando passi dal ritaglio APS-C (meno superficie) al Full Frame (più superficie), ogni pixel del Full Frame ha gli stessi 12 stop di GD. Però, scattando in Full Frame, hai 2.25 volte i pixel dell'APS-C per coprire la stessa area del soggetto. Il software di demosaicizzazione e riduzione del rumore può mediare l'informazione e il rumore su un numero molto maggiore di pixel, attenuando l'effetto visivo del rumore nelle ombre. È come se ogni gruppo di pixel collaborasse per dare un'informazione più pulita. Ritaglio (meno pixel): Meno media, rumore amplificato con l'ingrandimento. Meno GD percepita. Sensore Intero (più pixel): Più media, rumore attenuato. Più GD percepita. È una differenza che non deriva da un cambiamento nella fisica del singolo pixel, ma dalla gestione del rumore e dal fattore di ingrandimento/visualizzazione dell'immagine finale. |
|
|
inviato il 29 Novembre 2025 ore 10:26
Ivo non è propriamente così.....non so come spiegarlo e ripeterlo....un conto è il pixel un altro la percezione in output (quindi no pixelpeeping). fotografo un quadro con un singolo scatto....e stampo la foto su un A0 per dire, avrò una certa gamma dinamica. Se lo stesso quadro lo fotografo unendo 4 foto che riprendono ognuna 1/4 del quadro, poi le unisco, e faccio la stessa stampa....avrò molta più gamma dinamica a disposizione, perché ho raccolto più informazioni, ogni singola parte di quel quadro avrà a disposizione molti più pixel per essere descritta. |
|
|
inviato il 29 Novembre 2025 ore 10:58
@Mactwin Non hai aumentato la GD fisica del singolo fotosito (rimangono i 12 stop massimi). Hai aumentato la GD efficace/utilizzabile dell'immagine finale, perché hai abbassato significativamente il livello di rumore percepito sul prodotto finito, sfruttando la maggiore risoluzione. Quindi, non è la GD del sensore a cambiare, ma l'SNR (Rapporto Segnale/Rumore) complessivo dell'immagine finale, che è l'obiettivo della fotografia di qualità. Conclusione: la fisica è una cosa, la percezione è un'altra cosa. Quindi la fisica porta ad una GD di 12 Stop, poi il miglioramento dell'SNR portano ad una percezione visiva, ma gli stop restano 12. |
|
|
inviato il 29 Novembre 2025 ore 11:02
Ivo ma hai letto cosa ho scritto…4 o 5 volte.. Ho ripetuto allo sfinimento che la gd a livello di pixel ovviamente non cambia… Riporto l'inizio dell'ultimo post un conto è il pixel un altro la percezione in output (quindi no pixelpeeping). |
|
|
inviato il 29 Novembre 2025 ore 11:08
Mac tu parli di gamma dinamica ma in pratica è il miglioramento dell'SNR, questo volevo dire. |
|
|
inviato il 29 Novembre 2025 ore 11:15
Grazie innanzitutto delle varie spiegazioni. Riassumendo, se ho capito bene. GD "scientifica" Differenza tra la luminosità massima e minima che un sensore può catturare, non cambia se ritaglio (APS-C) o faccio stitch di più immagini GD "percepita" Tiene conto delle sfumature e gradazioni di colori che si riescono a rappresentare, più pixel ho a disposizione, meno ingrandisco, miglioro il SNR e di conseguenza più GD percepita avrò. Cambia quindi se ritaglio oppure al contrario se faccio stitch di più foto. Corretto? |
|
|
inviato il 29 Novembre 2025 ore 11:29
Ivo è parte della gamma dinamica! L'ho scritto prima! La gamma dinamica (che trattamdosi di foto riguarda sempre la nostra percezione) è la risultante del full well capacity e del snr. Oh santa pazienza non esiste solo il valore tecnico elettronico, se fosse così non ci sarebbe differenza tra foto fatte con sensori diversi. La foto di un 4/3 ha la stessa gamma dinamica di un mf? NO! E non dipende dal singolo sensel (che potrebbe avere le stesse caratteristiche di sensori più grandi)…dipende dalla superficie! Più superficie significa raccogliere più informazioni, significa ingrandire meno l'origine per l'output riducendo la percezione di rumore e come detto se devo rappresentare 10 sfumature su 10cm, un conto è che quel centimetro viene raccolto da 10 pixel su 1mm ed un altro se li devo raccogliere con 5pixel su 0.5mm… |
|
|
inviato il 29 Novembre 2025 ore 12:19
@Machz08 Riassumo i due concetti per non fare confusione. Ed anche le differenze di punti di vista tra me e Mactwin. Le Due Definizioni di Gamma Dinamica: GD Fisica (Intrinseca): Il rapporto massimo tra il segnale di saturazione e il rumore di lettura del singolo pixel misurato in STOP. Ovvero la tecnologia e la dimensione del singolo fotosito. GD Utile (Percepita): La gamma dinamica che l'osservatore vede nell'immagine finale stampata o visualizzata, dopo che il rumore è stato ingrandito o mediato misurato in STOP. La dimensione totale del sensore e il fattore di ingrandimento/riduzione necessario per l'output. Ora la parte in discussione tra me e Mactwin: Non è una contraddizione, quello che affermo e quello che afferma Mactwin, ma una questione di contesto d'uso: Io sto definendo la GD dal punto di vista dell'elettronica. Mactwin (e la maggior parte dei fotografi) definisce la GD dal punto di vista dell'immagine finale. Concludo qui per non finire in OT e in polemica perenne. |
|
|
inviato il 29 Novembre 2025 ore 12:45
Ivo6767 Grazie per la spiegazione, Non riduco mai in realtà la risoluzione ma credevo ci fossero più dettagli.. non è così scontato quindi. |
|
|
inviato il 29 Novembre 2025 ore 13:24
Grazie a tutti per i chiarimenti, adesso, almeno per me, è diventato chiarissimo! Io ero fermo alla misurazione, GD fisica, e non tenevo in considerazione quella utile percepita. Grazie ancora. |
|
|
inviato il 29 Novembre 2025 ore 21:23
"Mach non capisco cosa ci azzecca adesso fare lo stich di 4 foto". Ci azzecca invece ed è la stessa domanda che ho posto io altre volte qui. Se si accetta che ritagliando una porzione di un sensore la GD ne venga diminuita (come da tabelle Photonstophotos) giustificato da il fatto che una sensore di maggiore dimensione raccoglie una quantità totale maggiore di luce, allora si dovrebbe allo stesso modo dedurre che fotografando un panorama e ricomponendo i diversi scatti con stitching be risulti aumentata la gamma dinamica e aumentato il rapporto S/R. Difatti, avendo per ipotesi un obiettivo T&S, con decentramento del corpo macchina FF di 12 mm si può catturare un immagine che con tre scatti simula un sensore virtuale di 48x36mm. Se vale il ragionamento che un taglio da FF ad ApsC diminuisce GD e S/R allora vale anche il ragionamento che l'area rilevata di 48x36 mm avrà pure un aumento di GD e S/R. |
|
|
inviato il 29 Novembre 2025 ore 22:32
Il dual pixel della r6iii è quello della II? Con problemi af con linee verticali? |
|
|
inviato il 29 Novembre 2025 ore 22:40
Solo la r1 ad oggi (in canon) legge anche ul contrasto orizzontale |
|
|
inviato il 29 Novembre 2025 ore 22:59
“ un sensore di maggiore dimensione raccoglie una quantità totale maggiore di luce „ @Andrea.taiana Si parla di dimensione del sensore oppure di dimensione del fotosito (o pixel)? |
|
|
inviato il 29 Novembre 2025 ore 23:18
AF R6 Mark II e R6 Mark III utilizzano lo stesso sistema di base: il Dual Pixel CMOS AF II (DPAF II). Il DPAF II è intrinsecamente un sistema "a croce" esteso. Ogni singolo pixel sul sensore è diviso in due fotodiodi (A e B). Questo permette di confrontare la luce da due angolazioni, rilevando così il contrasto in tutte le direzioni (orizzontale, verticale e diagonale). |
|

Metti la tua pubblicità su JuzaPhoto (info) |