| inviato il 13 Maggio 2014 ore 18:45
Eh.. speriamo... |
| inviato il 13 Maggio 2014 ore 23:07
Ad ogni modo, grazie Paco per averci dato ancora occasione di confronto su temi poco banali. |
| inviato il 13 Maggio 2014 ore 23:17
Grazie a te Pierfranco, credo che sia stata una discussione arricchente. |
| inviato il 13 Maggio 2014 ore 23:24
E anche grazie a Pierfranco per la sua rappresentanza della saggia sapienza fotografica di un tempo, che ancor oggi insegna molto. A volte ci siamo trovati in contrasto di opinioni, ma in fondo io sono solo un vil tecnico Insomma.. un po l'antica contrapposizione tra Labor e Opus, che poi vanno più d'accordo di quanto sembri |
| inviato il 13 Maggio 2014 ore 23:30
“ A volte ci siamo trovati in contrasto di opinioni „ E meno male, altrimenti sai che due balle verrebbero a darsi tutti ragione e tante pacche sulle spalle! |
| inviato il 13 Maggio 2014 ore 23:34
Eheheheh vero vero |
| inviato il 14 Maggio 2014 ore 6:42
Se posso consiglierei a tutti quelli che vogliono approfondire il sistema zonale di leggere questo libro molto pratico e ben fatto. Mi è servito davvero molto per chiarirmi alcuni concetti e poter iniziare a fotografare e sviluppare in analogico seguendo il sistema zonale, però c'è anche una parte dedicata al sistema zonale applicato alla fotografia digitale. The Practical Zone System for Film and Digital Photography: Classic Tool, Universal Applications |
| inviato il 14 Maggio 2014 ore 9:27
Confermo quello che dice Foxpeaking. E' un ottimo testo. Semplice e piuttosto completo. Consiglio di non saltare la parte che parla del negativo, perché ci sono delle ottime informazioni di base che facilitano di gran lunga la comprensione della parte sul digitale. Se fate una bella ricerca su web si trova anche da scaricare in formato pdf. Sennò, scrivetemi in pvt che vi mando il link. |
| inviato il 14 Maggio 2014 ore 10:06
" Usare la parole "tagliare" è sbagliato. " Come al solito sono all'estero, adesso in viaggio, sul ritorno e dopo aver volato tutta la notte, sono in una saletta a Francoforte: non ho molto tempo. Usare il termine taglio non è errato. Quando comprimi un'ampiezza tonale tagli, sempre e comunque. Ed il taglio lo puoi decidere tu, compresi gli estremi, in fotoritocco + sistema di presentazione immagine, o lo puoi far fare, con curva di trsferimento che NON conosci, al sisteme di presentazione immagine, se tu non intervieni. Il taglio può essere fatto su tutte le componenti della gamma dinamica, e se comprimi i grigi intermedi, ad esempio da 14 a 8 stop, tu tagli tutta la gamma dinamica: l'estensione è comunque minore. Se imposti il punto del nero a Zero, segnale nullo, quel bianco che vedi in monitor o su stampa, ossia il massimo valore di luminosità che ti mostra il sistema di presentazione immagine, NON E', non corrisponde, al valore massimo di luminosità registarto dal sistema ( sensore + elettronica associata) che ha 14 Ev di gamma dinamica, ma corrisponde ad un valore intermedio. In immagine presentata vedi dal bianco al nero, ma il "nero" ed il " bianco" che vedi NON corrispondono al nero ed al bianco registrati dal sensore, TEORICAMENTE ppuoi fissre il punto del nero a zero per l'immagine presentata, con il fotoritocco, e se così fosse il nero del sensore sarebbe uguale al nero dell'immagine presentata, ma in effetti anche quello è impossibile, dato che il fotoritocco (= algoritmi di calcolo) approssima, e la corrispondenza perfetta di tono non ce l'hai mai. Quando presenti una immagine di 14 Ev con un sistema di presentazione immagine che ha, ad esempio, 7 Ev, ossia che è in grado di farti vedere solo 7 Ev, tu muovi una " finestra" larga 7 Ev sopra una banda ampia 14 EV, e la muovi con una precisione che non è assoluta, ma limitata dagli errrori ed approssimazioni degli algoritmi di calcolo: in immagine finita vedi sia il bianco che il nero, ma quei valori che vedi NON corrispondono al bianco ed al nero, ossia ai valori estremi di luminosità registrati dal sensore, sono un ritaglio dentro la banda di luminosità del sensore, più ampia della fonestra che presenti. Come muovi la finestra di 7 Ev su una banada di 14 Ev, lo puoi decidere tu o lo puoi far fare, e non sai come, ad un monitor. Saluti cordiali |
| inviato il 14 Maggio 2014 ore 10:40
" Il thread è stato creato per un altro scopo, secondo voi esistono sul campo i 12EV di gamma dinamica??? " In laboratorio sì, sul campo pratico no. In uso normale, non ci sono praticamente mai ........e 12 stop di variazione luminosa in campo, anche se ci sono, non solo è è inutile registrali, dato che poi non li vedi, ma addirittura è MEGLIO non registrarli. La stampa buona deve praticamente sempre avere un po' di bianco e di nero pieno: quell'ombra piccolina , lontana, in stampa è meglio se è nera, se in fotoritocco la "tiri", la apri e la fai grigia, magari poi la stampa viene "morta", non è brillante, dato che il nero ed il contrasto in stampa ci vogliono, e quando contrasti, tagli toni intermedi. La gamma dinamica di un sensore o di una scena, tanto non cambia nulla, sopra un certo livello, 10 - 12 diaframmi, è inutile averla, può essere addirittura fotograficamente dannosa. Cercare di vedere tutto in una fotografia non solo sono pippe mentali, una bufala, dato che non puoi, ma è anche un errore strategico, grave, del fotografo: non sa cosa metter in evidenza di quella immagine e cerca di far vedere tutto, col risultato che l'immagine è piatta, manca il " messaggio". Gli HDR fanno estrema pietà fotograficamente parlando, vedi un mucchio di grigi che in realtà non esistono con quella modulazione, e le fotografie in HDR sono innaturali e piatte: tiri il collo al sensore, gli strizzi fuori tanti grigi intermedi, poi comprimi gli estremi, e te lo fa il monitor o la stampante, e la foto fa piangere. Un buon fotografo espone in funzione del messaggio che vuole far trasmettere ad una immagine, non per registrare il massimo registrabile in una scena. Se il cielo è bello, esponi per il cielo, lo metti in risalto, ed abbassi la luminosità del terreno, o viceversa, porti l'occhio dell'osservatore dove vuoi tu: sarebbe un errore grave registrare in modo uniforme, anche se la realtà E' uniforme. La fotografia è un'astrazione della realtà, sempre e comunque, ed bravo fotografo lo si vede da come interpreta questa questa astrazione, per interpretarla ci vuole un mezzo tecnico adatto, ed una fotocamera odierna, una qualsiasi, basta ed avanza per lo scopo. L'occhio cerca la luce, in una immagine fotografica l'occhio va a cercare subito quello che c'è nella luce, ed il contrasto attrae l'attenzione, mentrer la grande estensione di grigio la respinge ed il nero profondo lo si rifugge: l'esposizione va fatta sui parametri che regolano l'attenzioen dell'osservatore, che sono gli stessi di chi scatta. La gamma dinamica di una stampa, circa 7 stop, basta per fare foto suggestive, 14 Ev non esistono nel mondo reale da fotografare e se ci sono è meglio non cercare di farli vedere, perchè la foto tende a perdere personalità: ma che te frega se la fotocamera ha 10 o 14 Ev di gamma dinamica! Saluti cordiali |
| inviato il 14 Maggio 2014 ore 10:44
Ciao Alessandro. Scusa ma, forse per inesperienza, sono duro di comprendonio. Dal tuo intervento ho capito che in ogni caso parte delle gradazioni che i 14 bit sono in grado di registrare (quelle che inevitabilmente restano... esterne alla finestra di 7 Ev riproducibile in stampa) vanno perdute. Raamiel aveva invece sostenuto (mia interpretazione) che, attraverso il software (di sviluppo RAW, immagino io), è possibile comprimere tutti i toni registrati dai 14 bit - 14EV di toni - nei 7 Ev. [In realtà non ha detto tutti: forse la parte significativa di interesse. Non so se il software consenta di includerli proprio tutti...] . In questo modo NON si avrebbe perdita di toni (dettagli nelle ombre o nelle luci), il nero puro in ripresa coinciderebbe con il nero puro in stampa, il bianco più luminoso con il bianco della carta, mentre i toni intermedi si troverebbero ad essere compressi e la loro naturalezza dipenderebbe (immagino io) dal posizionamento del grigio 128. Tu sostieni che quello che ha detto Raamiel sia errato? (chiedo scusa se nel sintetizzare ho scritto inesattezze: correggetemi pure!). Perché sul dato che la stampa registri solo 7 Ev (circa) siamo tutti d'accordo: il problema è capire se, in questi 7, riusciamo a stipare più informazione! A me personalmente sembra che avere più DR sia assimilabile a poter disporre di un negativo con maggior latitudine di posa: può tornare utile anche per aver margine per recuperare esposizioni imprecise... Che ne dici? Paolo PS Spero che scrivere che un'idea è errata non sia considerato offensivo. Un confronto di idee serve proprio a discernere quelle migliori! Odio il politically correct... [La scienza nella storia ha sistematicamente corretto il tiro su affermazioni che si sono rivelate errate. Nessuno ha mai fatto ricorso a tribunali perché si è sentito diffamato... Né è stato sminuito se, a suo tempo, non disponeva degli strumenti per pervenire direttamente... all'"ultima scienza".] |
| inviato il 14 Maggio 2014 ore 13:34
[QUOTEQuando presenti una immagine di 14 Ev con un sistema di presentazione immagine che ha, ad esempio, 7 Ev, ossia che è in grado di farti vedere solo 7 Ev, tu muovi una " finestra" larga 7 Ev sopra una banda ampia 14 EV, e la muovi con una precisione che non è assoluta, ma limitata dagli errrori ed approssimazioni degli algoritmi di calcolo: in immagine finita vedi sia il bianco che il nero, ma quei valori che vedi NON corrispondono al bianco ed al nero, ossia ai valori estremi di luminosità registrati dal sensore, sono un ritaglio dentro la banda di luminosità del sensore, più ampia della fonestra che presenti. „ Proprio questo intendevo, non è assolutamente vero. In primis, la rappresentazione del colore (o intensità luminosa) sui monitor è diversa da quella catturata dal sensore, anche avessi la sterssa gamma dinamica sul monitor: il monitor è una fonte di luce emissiva, il sensore, come tutti gli oggetti non emittenti sono fonti di luce riflessive. Un nero sul monitor non è mai uguale al un nero catturato. Ma tralasciando questo, quello che volevo dirti è che è possibilissimo avere i 14EV mappati sul monitor da 7EV senza "tagli". Basta comprimere la gamma originale in modo che il valore 0 dell'immagine scorrisponda allo 0 del monitor e il valore 2^14 del sensore corrisponda al valore 2^7 del monitor. Perdi un sacco di informazione tra i due estremi, perché appunto viene compressa, ma quello che ottieni è che se non hai bruciato le luci o chiuso totalmente le ombre sul monitor manterrai i dettagli (ripeto, molto meno rispetto all'immagine originale ma comunque non sono persi come con un taglio). “ Cicciob guarda che faccio il paesaggista da diversi anni e posso affermare con certezza che: 1 il nostro occhio ha una gamma superiore ma non di diversi ordini superiore 2 la differenza tra un hdr e l'uso di doppie esposizioni o filtri graduati è enorme. L'hdr in come concetto prevede l'eliminazione delle ombre per ottenere rendere tutto leggibile Alla stessa maniera ma tutto ciò non è emulazione dell'occhio umano che per quanto sensibile vede ombre, neri e aree e bruciate. „ 1. L'occhio ha circa 10 stop di gamma dinamica in più in più rispetto ai sensori oggi sul mercato, che vuol dire capacità dinamica 1000 volte tanto, che vuol dire 3 ordini di grandezza. 2. l'HD non prevede assolutamente l'eliminazione delle ombre come principio. E' un modo di estendere la dinamica in modo che zone fotografate con esposizioni diverse possano essere unite. La teoria sarebbe che lo scatto finale è l'unione della gamma dinamica delle due foto. Purtroppo si torna al discorso fatto con Pollastrini sulla gamma dinamica a disposizione sui montor o nel formato JPEG finale. Tutta quella gamma estesa non ci sta e comprimendola si alza parecchio il valore delle ombre che si aprono. Il filtro usa il principio inverso invece: comprime all'origine la gamma dinamica in modo che rientri in quella registrabile dal sensore. E' un metodo che fa raccogliere meno informazione rispetto agli scatti multipli. Il risultato in realtà può essere identico a quello generato da più immagini proprio perché alla fine bisogna venire ai compromessi dovuti al sistema di rappresentazione finale dell'immagine e anche tagliando la gamma all'origine si riesce a superare quella del monitor/stampa. Se per assurdo avessimo monitor o tecniche di stampa in grado di arrivare a 20 stop e i sensori rimanessero da 14 stop, l'uso del filtro darebbe immagini qualitativamente peggiori perché la gamma sarebbe compressa a monte e quindi limtata ai 14 stop, mentre con la fusione di immagini a esposizoine diversa si potrebbe trarre vantaggio e fare una immagine di 20 stop. L'eliminazione delle ombre è quindi solo un effetto collaterale, non la tecnica finale. |
| inviato il 14 Maggio 2014 ore 14:12
Ragazzi.... davvero vi state perdendo dietro a un personaggio con dei problemi; è inutile discutere della realtà fisica con chi la fisica la ignora oppure non la conosce. Secondo me la ignora; perché fa di tutto e direbbe di tutto per infangare l'odiata Nikon. E nell'odiare la Nikon odia e disprezza chiunque usi i prodotti della "casa del male", in particolare la D800. Oggi fa di tutto per dire che i 14EV non esistono, oppure non servono, oppure sono dannosi, o altrimenti esistono in laboratorio e non nella realtà.... Quando Canon farà un sensore da 15EV vedrete che cambierà idea al volo... Lo ha già fatto in passato e basta fare una ricerchina sul web per scoprire che prima della D800 calunniava Nikon per non fare sensori densi; quando è uscita la D800 ha iniziato a calunniare per il motivo opposto. Poi ha detto che la D4 ha il peggior sensore che Nikon abbia a catalogo, salvo comprarsela quando è stata ribassata di prezzo. Chiunque ne tragga le debite conclusioni.... |
| inviato il 14 Maggio 2014 ore 14:29
é un discorso che avevo avuto modo di studiare quando feci un po' di ricerche sui sensori e come funzionano. La realtà che ci viene proposta è spesso molto diversa da come crediamo e basta, come dice Paco, fare una semplice prova... in caso di un paesaggio ma comunque di una foto in generale in cui ci sia un forte controluce, difficilmente la differenza fra luce ed ombra supererà i 10 stop. Almeno io non ci sono mai riuscito. é anche vero che poi sul reale utilizzo delle immagini mi sono trovato con foto simili fatte con d700, xpro e x100s e la capacità di leggere bene tutti gli stop di differenza che fossero 5 o 7 è stata, nella maggioranza dei casi, a favore del sensore fuji che mi permette di salvare molto sulle luci ... ma tanto tanto... rispetto alla d700. con quindi dei file poi molto lavorabili da questo punto di vista. non sono un tecnico e non mi interessa misurare ... mi basta sapere che quando scatto con la d700 sto molto attento a non bruciare nulla mentre con la fuji "me ne sbatto" e espongo in maniera molto più cattiva a destra... salvando quindi molta più informazione. |
|

Metti la tua pubblicità su JuzaPhoto (info) |