| inviato il 28 Novembre 2025 ore 17:36
Gambacci le tollernaze sui chip sono parte della progettazione per cui vengono usati sfruttandoli ad una % più bassa di quella massima. I sensori di macchine uguali sono assolutamente identici, ci manca solo che si crei il filone del sensore fortunato che va meglio degli altri. Ho avuto tra le mani tante di quelle macchine che potrei fare concorrenza ad un negozio, lavorando su file magari di 4 macchine dello stesso tipo….fatti non congetture, i file sono tutti uguali! Quello che può succedere è che un sensore molto usato si consumi e perda di efficienza, quindi è possibile che un file di un sensore che ha lavorato centinaia di ore magari scaldandosi tanto, produca un file peggiore di uno nuovo, non per nulla capitano hot pixel oltre ai death. |
| inviato il 28 Novembre 2025 ore 17:55
“ ma questo non mi porta a dire che è una differenza solo sulla carta „ non volevo dire questo. Ci sono assolutamente usi dove la GD si vede Come ho specificato per quanto mi riguarda, siccome uso la fotocamera per foto "comuni", i sensori moderni van più che bene tutti, quindi personalmente mi preoccupo di più di altri aspetti (ad esempio la velocità di lettura del sensore). Però ad esempio nelle foto astronomiche che faccio la GD è una cosa che può avere una importanza molto alta (quando vengono fatte per misura e non per "estetica" è estremamente importante) Mi fa molto piacere vedere che Canon sta migliorando un sacco la velocità senza sacrificare troppo la qualità d'immagine. Per me già questo è un ottimo progresso La GD delle vecchie 5D3 e 6D non era adeguata P.S. le tolleranze sui sistemi di misura ci sono, ma ragazzi... 1 - 2 stop sono ben oltre alle tolleranze di misura 1 stop significa un raddoppio... una tolleranza di misura può essere un 10% come ordine di grandezza, mica uno stop |
| inviato il 28 Novembre 2025 ore 18:34
Gambacciani, il sensore della 5D4 era migliore perché aveva 2 stop di GD in più! semplice. I recuperi non esistono. Le info o ci sono o non ci sono. Quando si recupera si sta semplicemente modificando la curva di contrasto. Quando apri le ombre stai mettendo mano al piede della curva ma se le info non ci sono non ci sono. Se c'è banding o rumore nelle ombre è perché non ci sono dati. Il sensore non ce l'ha fatta. È fuori quella parte. Solo con l'AI puoi ricreare qualcosa. Ma parliamo di aggiunte. Riguardo ai test, tolleranze del 10-20% in una misurazione penso che non esistano nemmeno nel più sperduto villaggio del Burundi. Quando poi alle misurazioni ci puoi affiancare la resa reale mostrata dai vari comparometri di siti diversi, quando ti puoi scaricare i files e metterci mano e verificare te stesso... insomma dai. Allora un utilizzo appropriato di una R6mkx è semplicemente in meccanico a bassi iso e medi iso se ho bisogno di gamma dinamica. Dai 1600iso in su si può andare di elettronico senza remore. Immaginate una sposa vicino ad una finestra con parecchi stop di gamma dinamica tra esterno ed interno. Espongo per le luci. Le ombre di uno scatto in meccanico saranno nettamente più pulite. Non ci piove. |
| inviato il 28 Novembre 2025 ore 19:51
Il clipping è una cosa, il banding un altra. In passato alcuni sensori non disponevano di ac/dc su sensore e quello generava differenze nell'omogeneità dei dati raccolti. |
| inviato il 28 Novembre 2025 ore 19:56
Ma infatti era solo per dire che non si può dubitare quando ti dicono che c'è uno stop di differenza |
| inviato il 28 Novembre 2025 ore 21:35
"...Anche scattando con crop 1,6x in camera si perde uno stop di GD..." Checco79 potresti spiegare il motivo tecnico di questa affermazione che non lo conosco? Grazie. |
| inviato il 28 Novembre 2025 ore 22:06
Io avevo scritto che secondo me la s1 di panasonic rappresenta l'eccellenza per quanto riguarda le 24mpx. L'ho messa nel tool di confronto di sottoesposizione linkato da Webrunner. Confrontata con delle "coetanee" Z6II, A7III ed R6, dove nikon e sony dovrebbero avere lo stesso sensore. Giudicate voi il recupero a +6. www.dpreview.com/reviews/image-comparison/fullscreen?attr134_0=sony_a7 |
| inviato il 28 Novembre 2025 ore 23:04
Mach semplicemente perché si riduce la superficie e di conseguenza le informazioni a disposizione. Ovviamente a livello di pixel non cambia nulla ma sw consideri l'immagine nel suo insieme quando scatti su un sensore più grande hai più superficie che raccoglie più informazioni… Un conto e se devo descrivere una sfumatura con 100 pixel un altro se ne ho 150.. |
| inviato il 28 Novembre 2025 ore 23:28
Scusate, ho chiesto a Gemini la definizione e mi ha risposto così: La gamma dinamica è il rapporto tra il punto più luminoso e quello più scuro che un dispositivo può registrare, indicando la sua capacità di catturare dettagli in un'immagine con un ampio intervallo di luci e ombre. Misurata in «stop», è un parametro fondamentale nella fotografia e nei video. Secondo questa definizione non ci dovrebbero essere differenze tra due misurazioni della GD fatte su stesso sensore, stessi parametri, una fatta su FF e l'altra sul ritaglio (a patto che il punto più scuro e quello più chiaro siano dentro al ritaglio), no? Ed il ritaglio, per assurdo, potrebbe essere di solito 2 pixel, quello più chiaro e quello più scuro. È un'allucinazione della IA? |
| inviato il 29 Novembre 2025 ore 0:05
“ La gamma dinamica è il rapporto tra il punto più luminoso e quello più scuro che un dispositivo può registrare, indicando la sua capacità di catturare dettagli in un'immagine con un ampio intervallo di luci e ombre. Misurata in «stop», è un parametro fondamentale nella fotografia e nei video. Secondo questa definizione non ci dovrebbero essere differenze tra due misurazioni della GD fatte su stesso sensore, stessi parametri, una fatta su FF e l'altra sul ritaglio „ Questo in teoria si, ma nella pratica: la differenza emerge quando si confronta il risultato finale alla stessa dimensione di visualizzazione (ad esempio, stampato o visualizzato al 100% su un monitor). Quando si scatta in modalità ritaglio (crop mode, es. APS-C su un corpo FF), l'immagine registrata è più piccola in termini di Megapixel. Per farla sembrare grande come l'immagine Full Frame completa, è necessario ingrandirla di più (moltiplicarla per il fattore di crop, es. 1.5×). Ingrandimento del Rumore: Ingrandire l'immagine ritagliata ingrandisce anche il rumore presente nelle ombre. Riduzione del Segnale/Rumore (SNR): L'ingrandimento amplifica l'effetto del rumore di fondo. Siccome la gamma dinamica è definita come il punto in cui il segnale non è più abbastanza forte rispetto al rumore, l'aumento apparente del rumore fa sì che il punto più scuro utilizzabile si sposti verso l'alto. Risultato pratico: La porzione ritagliata del sensore avrà una gamma dinamica percepita inferiore rispetto all'immagine completa, in genere di circa 1 stop o poco più, perché le ombre appariranno più rumorose al momento del confronto sulla stessa dimensione di stampa/visualizzazione. |
| inviato il 29 Novembre 2025 ore 0:12
Mach come ti ho detto se ragioni in termine di pixel non cambia nulla ma se devo descrivere una serie di grigi, e riproduco quello che registrano 10 pixel su 1cm è ben diverso se ho dati di 15pixel su 1,5cm… |
| inviato il 29 Novembre 2025 ore 7:49
Ma ridimensionando un file di 32,5 a 20 non dovrebbe diminuire anche il rumore mantenendo però più dettaglio? |
| inviato il 29 Novembre 2025 ore 9:11
“ Risultato pratico: La porzione ritagliata del sensore avrà una gamma dinamica percepita inferiore rispetto all'immagine completa, in genere di circa 1 stop o poco più, perché le ombre appariranno più rumorose al momento del confronto sulla stessa dimensione di stampa/visualizzazione. „ Secondo quanto dite sarebbe vero anche il contrario. Esempio: 1) ho una scena in controluce forte con differenza di luminosità di 20 stop tra massimo e minimo 2) fotografo con un FF da 24Mpixel e catturo 12 stop di GD 3) se ritaglio in APSC ottengo 11 stop. 4) se invece faccio 4 foto e faccio uno stitch la GD mi aspetto che aumenti.tipo 15 stop. Scusate ma il ragionamento ancora non mi convince. |
| inviato il 29 Novembre 2025 ore 9:59
“ Ma ridimensionando un file di 32,5 a 20 non dovrebbe diminuire anche il rumore mantenendo però più dettaglio? „ Quando riduci un'immagine si comprime tutto, quindi anche e soprattutto le ombre, in questo modo nelle ombre ci saranno meno dettagli e i denoise attuali agiscono con AI non sui pixel ma sul disegno che rilevano. Ammettiamo che fai il denoise prima, di conseguenza riducendo verranno ricostruiti i pixel e il disegno si comprime e il dettaglio si impasta. In pratica si dovrebbe ridurre non in una volta sola ma a seconda di quanto si riduce, più si riduce e più passaggi servono, ma ad ogni passaggio si deve fare una maschera di contrasto per tenere i particolari in evidenza. Però alla fine l'immagine sarà più compressa ed anche il contrasto sarà diverso e nelle ombre i particolari che c'erano in origine saranno meno. Tutto è proporzionato al valore di riduzione (si sta parlando di immagini raster e non vettoriali). |
| inviato il 29 Novembre 2025 ore 10:01
Mach non capisco cosa ci azzecca adesso fare lo stich di 4 foto.... La gamma dinamica è differenza tra la quantità massima e minima di luce che può essere rappresentata....e dipende fondamentalmente da due fattori, il full well capacity ed il read noise. Per tanto la gamma dinamica a livello di pixel sarà identica se usi ff o modalità apsc, ma.....a livello percettivo in output per avere la stessa immagine quella apsc deve essere ingrandita....aumentando quindi la percezione del rumore nelle ombre e di conseguenza la gamma dinamica apparente risulta minore....come detto prima, hai meno pixel per descrivere un'area, quindi banalmente se ci sono 100 livelli di grigio e tu in apsc ha solo 80 pixel per descriverli...hai perso 20 pixel di informazione (spero di essere stato chiaro....meglio di così non so come spiegartelo). Usando tutta la superficie del sensore io sto raccogliendo molte più informazioni...le sto distribuendo meglio su una superficie più ampia, se un sensel riceve troppi fotoni o troppo pochi, è possibile che quello adiacente abbia raccolto un numero adeguato...contribuendo poi alla descrizione della scena, se riduco l'area...la possibilità di avere un caso simile si riduce tanto più riduci l'area e quindi le informazioni. Per tale motivo più il sensore è piccolo tanto più la GD diminuisce ed il rumore aumenta, indipendentemente dalla capacità del singolo pixel. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 256000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |