RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Il bianco e nero necessita ancora dei filtri colorati?


  1. Forum
  2. »
  3. Tecnica, Composizione e altri temi
  4. » Il bianco e nero necessita ancora dei filtri colorati?





avatarsenior
inviato il 21 Aprile 2019 ore 20:47

veramente....... anche a me è sembrato che ci sia stata.MrGreen

avatarsenior
inviato il 22 Aprile 2019 ore 21:56

Dipende se scatti in jpeg sono ancora utili anche se molte fotocamere permettono si simulare l'effetto dei pricipali filtri colorati per il b&n...ma il raw permette molta piu liberta di scelta non solo per il colore del filtro ma anche per l'intensità in tutti i casi utilizzando i fitri digitali sia in camera sia in postproduzione eviti la perdita di luce indotta dal filtro montato sull'obbiettivo....gli effetti secondo me si equivalgono a la differenza che la risposta ai colori delle pellicole b&n era molto variabile ...pancromatiche, ortocromatiche...ecc...

avatarsenior
inviato il 23 Aprile 2019 ore 9:28



ripeto, non confondere livello di segnale con informazioni

il segnale che esce da un sensore a colori ha più informazioni rispetto a quello che esce da un monocromo, indipendentemente da fatto che la misura di una componente tonale sia ottenuta filtrando selettivamente la luce piuttosto che misurandola direttamente.

un sensore di luminanza, se messo dietro ad un filtro, misura la componente spettrale corrispondente: l'unica differenza rispetto ad un eventuale sensore che misuri nativamente quella componente è nella precisione della misurazione.

In ogni caso, il BN "nativo" è, fotograficamente, il peggior BN che si possa ottenere, ossia quello ottenuto con semplice desaturazione del colore. Che poi, via software, gli vengano applicati filtri di contrasto, luminanza ecc ecc tale da renderlo visivamente "bello", quello è un altro discorso.
E quello del sensore monocromo è esattamente quello: desaturato.

avatarsenior
inviato il 23 Aprile 2019 ore 9:37

@Angor ho questo strano presentimento che non comprerai mai una Leica Monochrom o P1 Achromatic...MrGreen

avatarsenior
inviato il 23 Aprile 2019 ore 10:00

non è detto: non si compra una Leica per fare fotografie, credo che la M-D abbia ben dimostrato il concetto.




avatarsenior
inviato il 24 Aprile 2019 ore 10:59

Insomma quello è un “colorem imterruptus”MrGreen

avatarsenior
inviato il 24 Aprile 2019 ore 13:35

@Angor uno si compra una Leica M-D se si illude di ricrearsi l'impressione di una Leica M a pellicola. Ho una M3 e mi sembra chiaro che la M-D ha un fattore di forma diverso, però ci sono altre M, fino alla M6, se non sbaglio.
Thorsten Overgaard è uno stimato fotografo danese, fan di tutto ciò che è Leica. Qui parla di Sharpness
www.overgaard.dk/the-story-behind-that-picture-0202_gb.html
Una volta che ha definito Sharpness percettivamnete, ci sta tutto e di tutto. Cmq è chiaro che Thorsten ha idee vaghe sulla luce, per esempio:
One of the things that makes lens design exciting is that red always travels a little bit differently and strays off from the path. This is one of the things they correct for so that the three colors hit the same place, and it looks right.
Einstein talked about 'speed of light' as if all light was the same speed, but in the case of red light, it travels slightly faster.
Tradotto: il rosso subisce la diffrazione di più del blu. Era meglio non citare Einstein che non ha mai detto che il rosso è più veloceTriste
Qui parla di una modella in BN:
You look at the photo and you sense the skin. If you compare that to, for example, a Zeiss lens, the Zeiss lens might actually be sharper, but then you zoom out a little bit, and you will see that the Leica looks more alive and the Zeiss lens looks colder, less alive, less realistic, less real. Those are the small details that the lens designers have to deal with
Ha tirato in ballo Zeiss in BN, una follia!
Quando ormai pensavo che fosse il solito trombone sprovveduto scientificamente... si è redento:
They are really nerds at Leica. When you and I look at a picture, we look at the picture. When they look at a lens' performance, they look at graphs that show the “Modulation Transfer Function” of a lens.
Nerds agli specialisti Leica... va beh!
They use these strange measurements of the lens' performance: “We look at the MTF and then we imagine how the photo will look”, the chief lens designer Peter Karbe told me

Ma guarda, alla Leica consultano misure MTF, chi lo avrebbe immaginato?MrGreen


avatarsenior
inviato il 24 Aprile 2019 ore 14:22

a memoria non ricordo se il rosso vada più forte o più lento del blu passando attraverso il vetro, ma concettualmente è vero: la velocità della luce è invariante solo nel vuoto, mentre riduce la sua velocità passando in un solido in misura differente in base alla lunghezza d'onda...è la causa alla base della rifrazione.

uno si compra una Leica M-D se si illude di ricrearsi l'impressione di una Leica M a pellicola

non credo nemmeno questo..ossia, questo è uno dei tanti motivi teorici, ma alla base c'è sempre e solo il "privilegio" di possedere uno strumento d'elite.
E, paradossalmente, meno funzioni ha in rapporto al costo, più la cosa funziona.
Perchè qualunque professionista, o anche fotografo amatoriale ma appassionato, può spenderti anche 15000 euro per un corredo...che però viene preso in virtù di una funzione (un'ammiraglia reflex + zoom performante).
Ma non è da tutti spendere 7000 euro per ottenere in cambio solo "la perfezione" di qualsiasi cosa, ma possibilmente non confrontabile con altri. Per cui si parla di design del corpo macchina, di feeling dei comandi, di "corposità" delle sfumature, per arrivare all'assaporare il vero e originale "spirito della fotografia" fuori dai frenetici ritmi delle normali (e per gente normale, implicito) reflex con i loro lcd che riducono la fotografia ad un forsennato punta-scatta-guarda

avatarsenior
inviato il 24 Aprile 2019 ore 16:28

immagine a colori




unica possibile visione BN di un sensore monocromo,ossia la stessa di prima desaturata
ovviamente, fiori ed erba, avendo luminosità simile, non sono in alcun modo distinguibili dal sensore, perchè non è in grado di discernere i colori.




una qualsiasi degli infiniti BN ottenibili dalla foto a colori (banale filtro rosso, che evidenzia i fiori rispetto all'erba)








avatarsenior
inviato il 24 Aprile 2019 ore 17:29

unica possibile visione BN di un sensore monocromo,ossia la stessa di prima desaturata


Ma anche no... ho già spiegato prima che desaturare una immagine non è una operazione banale come si potrebbe pensare. E l'analogia con una immagine RGB desaturata e un sensore monocromatico è improponibile.

Se si tratta di una immagine RGB non si può sottrarre direttamente la saturazione; perché luminanza e crominanza non sono distinte nel modo colore RGB.

Facciamo un esempio:

La coordinata RGB 207.9.121 in sRGB a che grigio corrisponde? Non c'è una traduzione diretta.

Se su Photoshop si porta a zero la saturazione con un livello di regolazione si ottiene un valore grigio di 108.

Ma se prima di desaturare convertiamo in ProPhoto otteniamo una coordinata 144.58.97 e poi un grigio 101.

E si nota come non siano affatto identici; infatti il primo corrisponde a L=46 e il secondo a L=51.

Quindi la stessa operazione, sullo stesso colore, porta a risultati diversi perché la componente di saturazione viene calcolata in modo diverso.

Ed è ancor ovvio che se usiamo algoritmi diversi otteniamo risultati ancora diversi... possiamo tradurre il Lab, o in xyY, o in LCh, o in HSP, ecc....

Desaturare, senza una contestualizzazione precisa, non significa una mazza.

avatarsenior
inviato il 24 Aprile 2019 ore 17:37

ok, non sarà una mera desaturazione, ma il punto è che per un sensore monocromo, se due colori hanno la stessa "luminosità", per lui sono uguali e da quel sensore usciranno semplicemente due livelli di grigio uguali e per qualsiasi elaborazione tu possa fare in futuro, quei pixel saranno uguali.


avatarsenior
inviato il 24 Aprile 2019 ore 18:15

ok, non sarà una mera desaturazione, ma il punto è che per un sensore monocromo, se due colori hanno la stessa "luminosità", per lui sono uguali e da quel sensore usciranno semplicemente due livelli di grigio uguali e per qualsiasi elaborazione tu possa fare in futuro, quei pixel saranno uguali.


Non ha senso questa affermazione.
Non puoi parlare di colori, entità psicologica, riferendoti a un sensore monocromatico.

Due campioni distinti che al tuo occhio possono apparire della stessa luminanza possono produrre due segnali diversi su di un sensore monocromatico o viceversa; dipende dalla sua risposta spettrale.

Il sensore della Leica Monochrom ha, ad esempio, una risposta spettrale radicalmente diversa dall'Achromatic. Di cui per altro ne esistono diverse versioni ed implementazioni.

Ovvio che non hai la flessibilità in post, ma puoi averla in fase di scatto.

avatarsenior
inviato il 24 Aprile 2019 ore 18:46

ma il punto è che per un sensore monocromo, se due colori hanno la stessa "luminosità", per lui sono uguali e da quel sensore usciranno semplicemente due livelli di grigio uguali


Ed è qui che esce la tua non conoscenza della fotografia BN analogica, il campo di papaveri è l'esatto esempio che si portava nelle scuole di fotografia dell'epoca per dimostrare che i filtri colorati sono indispensabili nella fotografia analogica, e nei sensori monocromi aggiungerei, BN. Con una qualsiasi reflex di fronte a quello campo di papaveri scatteresti, giustamente, a colori senza alcun filtro colorato davanti mentre con la Monochrom scatteresti con un filtro rosso (schiarisce il rosso e scurisce il verde e il blu) o verde (schiarisce il verde e scurisce il rosso e l'arancio), a seconda del risultato che vorresti ottenere. Sono due percorsi mentali e tecnici diversi. diciamo che fra l'altro la Monocrom e la Phase One ti costringono a pensare molto di più prima delle scatto, ad avere una maggior conoscenza dei processi della fotografia in BN e a prefigurarti il risultato che vuoi ottenere. È un bene? È un male? Dipende

avatarsenior
inviato il 24 Aprile 2019 ore 20:53

@Angor quello che affermi sull'indice di rifrazione funzione della lunghezza d'onda non si evince dalle parole di Thorsten che mischia rifrazione con diffrazione, entrambe funzioni di Lambda (lunghezza d'onda). L'articolo comincia con un dozzinale ritratto a colori Digilux e ha il coraggio di parlare di "sharp". Ma dove? D'altronde quando uno più tardi butta giù gli Zeiss e parla di MTF come di qualcosa di esoterico, è chiaro che del digitale ha capito poco.Eeeek!!! Naturalmente è in buona compagnia fra i fotografi medi che vuole convincere a comprare i suoi carissimi manuali.Confuso
Sono stato insultato tempo fa quando scrivevo che 20 Mpx FF sono pressappoco equivalenti alla meglio pellicola (lo dice nell'articolo). Qui sul Forum molti giurano su 10 Mpx, per esempio. Adesso va di moda il concetto che 24 Mpx sono il massimo (anche perché Leica non ha sensori migliori). Controllate i sensori Leica Monochrom e tenete presente che risolvono il doppio circa di un Bayer.
E alura?MrGreen

avatarsenior
inviato il 24 Aprile 2019 ore 23:47

ancora con ste fotografia analogica? ho già spiegato più volte che non è quello di cui si sta parlando adesso. punto. quello che si faceva con pellicole ed emulsioni non mi interessa.

Il punto, e lo ripeto per l'ennesima volta, è che puoi mettere tutti i filtri che vuoi davanti ad un sensore monocromo, puoi tararlo con millemila accortezze, sperare in una diversa rispondenza del sensore alle varie lunghezze d'onda (ma, veramente, qualcuno ci crede in questa cosa...) tutto quello che si vuole...ma una volta scattato, stop, finisce tutto: il BN che ne esce non può più in alcun modo essere filtrato, ma solo lavorato in termini di luminosità e contrasti.

E, rispetto al bn ottenibile da una immagine a colori, sarà sempre inferiore, a meno di non aver indovinato esattamente il filtro corretto per quella scena, per quella luce e per quel soggetto.

Oppure, più semplicemente, ti convinci che quello è l'unico e il vero BN naturale e ti fai andar bene il risultato...

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 242000 iscritti, c'è spazio per tutti, dal principiante al professionista.




RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me