| inviato il 12 Ottobre 2019 ore 11:09
Wow. Semplice e geniale... |
| inviato il 12 Ottobre 2019 ore 11:42
Sì, ma quanta gamma dinamica si può sfruttare in un monitor, o in stampa? |
| inviato il 12 Ottobre 2019 ore 11:49
Cioè! Non l'ha pensata Sony? Ohmygod!! |
| inviato il 12 Ottobre 2019 ore 12:29
"Sì, ma quanta gamma dinamica si può sfruttare in un monitor, o in stampa?" E' proprio qui che casca il famoso asino, il miccio. Con un monitor da grafica buono, vedi al massimo circa 12 Stop, mentre in stampa, ne stampi circa 7, con la migliore stampante e la migliore carta, arrivi sui 7,5 Stop, stampa sia chimica che digitale. Ma.….l'inchiappettata della GD non finisce qui: un buon monitor da grafica mostra un rapporto di contrasto 1: 1000, mentre la migliore stampante con la miglior carta, se sei veramente bravo in fotoritocco, e non ci fai tagli tu, cosa quasi impossibile, ti stampa 1: 180. Ossia di tutte quelle bellissime e delicate tonalità di grigio o di colore che vedi a monitor, ne stampi, se sei veramente bravo, un po' meno di 1/5. Amen. Ci strombazzano troppo sulla gamma dinamica, se anche la fotocamera ce n'avesse molta più di quella che ha oggi, poi non c'è verso di vederla e tantomeno di stamparla. Detta in altre parole, da Fotografo che ha sempre stampato, ma chi se ne frega di quelle fregnacce lì! |
| inviato il 12 Ottobre 2019 ore 12:48
“ Sì, ma quanta gamma dinamica si può sfruttare in un monitor, o in stampa? „ Non importa. Qualunque sia il mezzo di stampa e qualunque sia la gd finale (anche fossero 3 miseri stop) più informazioni hai in ingresso più libertà hai nell fase di "compressione" (dalla gd iniziale a quella di stampa). Una tecnologia del genere ti permette, per esempio, di spingere molto l'esposizione a destra e arrivare in stampa con delle ombre molto pulite; poi deciderai se riportare in gamma (di stampa) le alteluci o lasciarle dove sono. Il fatto che hai delle informazioni in gamma per il sensore non obbliga ad averle in gamma anche in stampa. Nel caso dovessero servire ce le hai... Anche i sensori moderni, per la loro natura lineare, restituiscono poche informazioni nelle ombre (anche se abbastanza pulite). Comunque, è lo stesso identico risultato che otterresti con 2 o 3 scatti che rimetti insieme in post (HDR). Il fine è riportare in gamma (di stampa) tutto quello che nella scena non lo è (se serve). Se lo si fa da soli scattando 2 o 3 foto si è fotografi con il manico, se lo si fa tramite tecnologia sono micci... bah. Inoltre, tutto 'sto cinema, non significa che si debba per forza smanettare in post. Permetterebbe, tra le altre cose, ai produttori di essere meno assillati dalle alte-luci e non essere troppo conservativi con l'esposizione (sotto-esposizione). Le informazioni ci sarebbero, anche con esposizioni abbondanti (sempre molto salutari per le ombre), e il motore di conversione le userebbe per arrivare a un jpeg (che ha gamma molto limitata) senza bruciature... |
| inviato il 12 Ottobre 2019 ore 13:05
“ Sì, ma quanta gamma dinamica si può sfruttare in un monitor, o in stampa? „ Certo che si. Diversamente da quello che spesso si legge su questo forum, il recupero luci/ombre e le curve servono proprio a questo, non a recuperare errori ma a sfruttare una GD superiore a quelle del mezzo di rappresentazione, vale sia per la pp che per i jpg in camera. E' già così per i 14 stop attuali, contro gli 8 del jpg. |
| inviato il 12 Ottobre 2019 ore 13:07
“ Sì, ma quanta gamma dinamica si può sfruttare in un monitor, o in stampa? „ Certo che si. Diversamente da quello che spesso si legge su questo forum, il recupero luci/ombre e le curve servono proprio a questo, non a recuperare errori ma a sfruttare una GD superiore a quelle del mezzo di rappresentazione, vale sia per la pp che per i jpg in camera. E' già così per i 14 stop attuali, contro gli 8 del jpg. Ovvio che se si sfrutta un monitor HDR, già oggi con 10 bit di GD, la resa finale è migliore, ma prima si dovrebbe imporre un nuovo standard di codifica delle foto, cioè andare oltre il classico jpg universale. |
| inviato il 12 Ottobre 2019 ore 13:19
Se mettiamo insieme il QuadBayer che fa guadagnare un paio di stop a alti ISO a questa tecnologia che evita che si brucino le luci o in alternativa il simil Foveon organico di cui si comincia a parlare... Penso che nel prossimo futuro ne vedremo delle belle! |
| inviato il 12 Ottobre 2019 ore 13:23
Ho come l'impressione che qlc confonda la gamma dinamica in input rispetto a quella in output. Avere tanta gamma dinamica serve a equilibrarla prima dell'output. Solito discorso... Occhio, cervello ecc... |
| inviato il 12 Ottobre 2019 ore 14:13
@Simgen Il QuadBayer legge 4pixel insieme trattandoli come se fosse un unico pixel quindi riceve una quantità di luce 4 volte più grande... fatti i conti! PS: Naturalmente fare una cosa del genere ha senso solo su sensori da 48 o meglio 60 mpxl che diventano rispettivamente 12 e 15 mpxl |
| inviato il 12 Ottobre 2019 ore 14:20
A proposito di gamma dinamica... avete presente quelle belle notti di luna piena.. Con i Vostri occhi che risolvono 28ev vi potete godere la luna.. le montagne illuminate ecc. Ora, sapete benissimo che questa situazione è infotografabile salvo fare salti mortali con esposizioni multiple. Bene.. se la Vostra fotocamera tira i 28ev, avrete la possibilità di condensare.. comprimere la gamma su un supporto più povero. Se hai gamma ci puoi lavorare.. senza gamma... Quindi, con quel sensore.. vedi i passaggi più delicati delle montagne.. e i dettagli della luna, non uno sparo di luce nel cielo. Sempre se quella tecnologia arriva e non sarà un compromesso troppo spinto. |
| inviato il 12 Ottobre 2019 ore 14:46
@Simgen E' come avere due sensori: uno da 60mpxl per non bruciare le luci ai bassi ISO e uno da 15mpxl ti fa recuperare le ombre agli alti ISO... Certo la resa non sarà uguale a quella di un sensore nativo da 15mpxl ovvero con i pixel 4 volte più grandi, però un 60mpxl che in modalità QuadBayer che ne legge 4 assieme come se fosse un sensore da 15 mpxl poi ha anche la possibilità di fare una doppia lettura dello stesso scatto... quindi alla fine dovresti guadagnare molto di più più di quello che in teoria dovresti perdere per la minor risoluzione del sensore e per la maggiore complessità dei circuiti. |
| inviato il 12 Ottobre 2019 ore 15:28
seguo |
| inviato il 12 Ottobre 2019 ore 20:50
La quantità di luce che arriva al sensore dipende dalla lente, in particolare dal diametro della lente, non dal sensore. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |