JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta Cookie Personalizza Rifiuta Cookie
RCE Foto






Login Logout Iscriviti a JuzaPhoto!

il colore del RAW


  1. Forum
  2. »
  3. Tecnica, Composizione e altri temi
  4. » il colore del RAW





avatarsenior
inviato il 27 Maggio 2020 ore 15:22    

Quella è la sintesi additiva RGB che avviene nei monitor e nella fotografia digitale.
A Educazione Artistica (che ho insegnato alle scuole medie) si usava la sintesi sottrattiva che si ha con i classici colori a olio, tempera, acquerello oppure in tipografia con la quadrocromia...
Giallo+Cyan=Verde / Cyan+Magenta=Blu / Magenta+Giallo=Rosso

www.crearecreativita.it/sintesi-additiva-e-sintesi-sottrattiva/


Era una battuta: son passati trent'anni - anzi, qualche anno di più - dalle mie scuole medie e non mi ricordo minimamente cosa insegnassero :-P ma hai fatto bene a puntualizzare (in realtà la sintesi additiva è una cosa che credo di aver imparato alle superiori, ma a quel tempo i monitor a fosfori verdi andavano ancora alla grande e la CGA era la scheda video di punta MrGreen )

avatarsenior
inviato il 27 Maggio 2020 ore 18:33    


Per il WB nei RAW fotografici non ho capito cosa intendi; a me risulta altro:

E' il problema dei forum: alcuni effettuano affermazioni di carattere generale su questioni tecniche, senza poi fornire alcun argomento scientifico che le supporti, creando dubbi.

La realtà è che ogni produttore di fotocamere ha dei formati raw proprietari, che possono cambiare da un modello all'altro: anzi, a volte la singola fotocamera offre più opzioni di formato raw. Non esiste uno solo standard per i raw, insomma, tanto che ogni costruttore fa scelte diverse.

Comunque, qui hanno testato una Nikon d850, e confermano come l'impostazione del bilanciamento del bianco NON abbia impatto sui dati del file raw, almeno per i raw a piena risoluzione.

www.fastrawviewer.com/white-balance-as-per-channel-exposure-correction

"As you can see, changing the white balance setting in the camera doesn't affect the underlaying RAW data in any way. The histograms are the same, and adjusting the white balance to the same value on all of the shots results in the same look and color. Thus, white balance is only an instruction for a RAW converter, not an actual modification of RAW data. If, however, the file contains modified RAW data, like with "small RAW" or in multiple exposure mode, white balance may change the RAW data. An example of "small RAW" with white balance applied is Nikon pre-D850 small RAW format."

Vale altrettanto per tutte le fotocamere Canon che ho avuto, peraltro.

Sui file raw a risoluzione ridotta le cose potrebbero cambiare, e infatti non sono solito utilizzarli.

avatarsenior
inviato il 28 Maggio 2020 ore 7:31    

@Simone
Qui ci vorrebbe un ingegnere che conosce questi filtri colore perchè la questione non mi pare così semplice.
La luce visibile non è monocromatica...

Ci vuole uno spettroscopista applicato (come me...), non un ing genericoMrGreen.
Anche in questo 3D è attivo un ing che in generale ha capito parzialmente la fotografia digitale e sparge a piene mani inesattezze che provengono da idiosincrasie personali. In questo 3D è stato sul vago è non ha scritto frescacce, per fortuna!MrGreen
Bubu ha già pubblicato curve spettrali, grazie a nome di tutti. Si vede che i filtri CFA non sono monocromatici, basta avere capito questo.
Aggiungerei: i raw corrispondono alla immagine latente della pellicola. Così come si poteva sviluppare una pellicola con diversi rivelatori, anche i raw possono essere "sviluppati" (meglio: demosaicizzati, tenendo presente che non è così per i Foveon) in modo diverso.
Interessante: intorno al 2008 Emil Martinec (un eminente fisico teorico della scuola String Theory, prof a Chicago dove era passato anche Fermi)) fu scioccato dall'arrivo della Nikon D3. Per un certo periodo scrisse di fotografia digitale (sotto DPR era ejmartin). L'articolo ormai "cult" è questo:
www.photonstophotos.net/Emil%20Martinec/noise-p3.html
coi link aggiornati da Bill Claff che in generale è più "scientifico" di DxO.

Per dirla tutta: chi partecipa a 3D "tecnici" come questi e premette "non sono un esperto, ma..." dovrebbe leggersi l'articolo di Martinec. Poi serenamente stabilire che % dell'articolo ha capito. Personalmente non sono lontano dal 99%. Per questo qualche volta perdo la pazienza con chi posta frescacce (un po' anche per l'Alzheimer incombente);-)MrGreen

Ebbene: Martinec propose a RawTherapee un demosaicizzatore raw chiamato AMaZE che, sottoposto a migliorie nel tempo, è ancora il più popolare sotto RT!Cool
Del film: la fotografia digitale non è assolutamente complicata da capire, basta non affidarsi ai cattivi maestri "contromano-in-autostrada"MrGreen


avatarjunior
inviato il 28 Maggio 2020 ore 13:59    

Giuro che NON sono un esperto ma che ho letto TUTTO l'articolo, salvato tanto tempo fa nei preferiti dopo segnalazione di un certo Valgrassi MrGreen
Non e così complesso da capire, se ce l'ho fatta io, ed è molto interessante.
Certo non sono diventato un esperto per questoMrGreen magariMrGreen

avatarsenior
inviato il 28 Maggio 2020 ore 15:13    

@Tom complimenti!;-) Quando è possibile è consigliabile risalire a fonti sicure. Molte volte per semplificare le spiegazioni si finisce per introdurre veri e propri errori. È il caso di "Cambridge in Colour": l'autore è un Ph.D. (ing chimico, Cambridge) che si avvita in spiegazioni molto discutibili proprio perché le vuole rendere troppo semplici.Triste

avatarjunior
inviato il 28 Maggio 2020 ore 15:47    

Non mi sono mai addentrato in profondità in Cambridge in Colour, devo dire che all'inizio l'ho trovato utile per molti concetti base tipo bilanciamento del bianco, profondità di campo ecc

avatarsenior
inviato il 28 Maggio 2020 ore 15:55    

@Tom se ne è appena andato da Google il prof di Hasinoff all'MIT (Levoy). Lui cita "C. i. C" spesso, però è un prof, non deve imparare...

avatarjunior
inviato il 28 Maggio 2020 ore 18:02    

@Val ho buttato un occhio a questo Levoy... Un mostro Eeeek!!! ho visto all'opera il filtro sfocatura per ritratti della gcam e sono rimasto impressionato dalla precisione e velocità con cui scontorna la figura umana (inclusi i vestiti!)

avatarsenior
inviato il 28 Maggio 2020 ore 20:55    

Di Levoy mi ero visto questo...





Un po' troppa matematica però fa capire che razza di macello ci sia dietro ai colori MrGreen

avatarsenior
inviato il 28 Maggio 2020 ore 21:29    

sites.google.com/site/marclevoylectures/

Questo è il suo sito, con tutte le lezioni, i pdf, le applet e i vari "compiti a casa",
Me l'ero scaricato qualche anno fa sull'HD pensando che prima o poi sparisse tutto, ma vedo che è ancora attivo.

avatarjunior
inviato il 28 Maggio 2020 ore 21:31    

Devo studiareSorry

Grazie di avermi fatto conoscere questa fonte

avatarsenior
inviato il 30 Maggio 2020 ore 12:13    

Gli YouTube linkati erano stati postati da Google. Quando il prof è passato da Stanford a Google, sarà sembrato ai capi di Google che era meglio fargli rivedere il corso 178 che teneva all'Università.
Un corso per principianti si sarebbe chiamato 101. 178 è a metà strada fra 100 e 200, ossia genericamente fra primo e secondo anno di College come difficoltà. I prerequisiti:
CS 178 assumes no prior knowledge of photography. We also assume no programming experience. Future versions of the course might include optional programming assignments, but not this year. The only knowledge we assume is enough facility and comfort with mathematics that you're not afraid to see the depth-of-field formula in all its glory, and an integral sign here or there won't send you running for the hills. Some topics will require concepts from elementary probability and statistics (like mean, variance, and the Poisson distribution), but we'll define these concepts in class. We'll also make use of matrix algebra, but only at the level of matrix multiplication and matrix-vector products. Finally, an exposure to digital signal processing or Fourier analysis will give you a better intuition for some of the topics, but it is not required.

Levoy è un architetto per formazione e un Ph.D. in Computer Science.

avatarsenior
inviato il 30 Maggio 2020 ore 14:53    

@Bubu93

Respect; sai chi è Legoshi Sorriso.

Cmq, ne sono state dette di cose sbagliate. Purtroppo il web è pieno di fonti poco attendibili, ma che si fregiano della solita patacca di "Color Science".

Il Raw ha informazioni sul colore, ma sono latenti. Un po come un negativo che va poi sviluppato.

Nel Raw troviamo coordinate device-dipendent rgb (scritto minuscolo per differenziarle). Device-dipendent significa appunto che sono numeri dipendenti dall'hardware, privi di significato se privati dal loro contesto.

La pipeline logica è questa:

Lettura Raw -> Linearizzazione -> Demosaicizzazione -> WB -> Caratterizzazione

Ovviamente questo è solo lo schema logico e nella pratica le cose possono essere un poco diverse e soprattutto più complesse; ma il succo è questo.
Le due fasi decisive per arrivare al "colore" come noi lo intendiamo sono WB e Caratterizzazione.
Il WB deve individuare l'asse dei grigi neutri, ossia identificare l'illuminante e scartarlo. In questo modo un oggetto neutro ci dovrebbe apparire acromatico, esattamente come nella nostra percezione che avevamo della scena.
La Caratterizzazione deve trasformare le coordinate device-dipendent demosaicizzate e bilanciate nei dati scene-referred; o almeno questo è il compito ideale.

In un mondo perfetto, alla fine di tutta la fiera, dovremmo avere una ricostruzione fedele e colorimetrica della scena.

L'hardware odierno è in grado di fornire una base eccellente; un sensore recente di una reflex o mirrorless ha performance di separazione del segnale tali da rasentare la soglia di strumenti di misura.
Poi però c'è la parte software, che della ricostruzione colorimetrica della scena se ne sbatte allegramente; un po per la difficoltà intrinseca della faccenda, un po perché tutti i brand cercano di arruffianarsi i clienti facendo un colore piacevole più che fedele. Poi ovviamente ci sono brand che in questo sono più furbi di altri...

Per chiudere; quando si parla di "colore" si deve stare attenti alla contestualizzazione, perché la materia è ampia e scivolosa.

Il colore è una sensazione, vive nella nostra mente e per trattarlo bisogna necessariamente fare distinzioni.

Il colore che noi sperimentiamo ogni giorno è il colore percepito; che in qualche modo è e rimane una cosa intima e per certi versi misteriosa.

Le macchine ragionano per stimoli di colore, perché i nostri modelli sono atti a connettere stimoli di colore con coordinate di colorimetria.

La differenza sembra astrusa, ma l'esempio della scacchiera di Adelson rende le cose più chiare:



Le caselle A e B emettono lo stesso stimolo di colore, in un modello standard XYZ o Lab sono identiche, ma la nostra percezione è diversa.

avatarsenior
inviato il 30 Maggio 2020 ore 16:35    

La pipeline logica è questa:

Lettura Raw -> Linearizzazione -> Demosaicizzazione -> WB -> Caratterizzazione

Ovviamente questo è solo lo schema logico e nella pratica le cose possono essere un poco diverse e soprattutto più complesse; ma il succo è questo.
Le due fasi decisive per arrivare al "colore" come noi lo intendiamo sono WB e Caratterizzazione.
Il WB deve individuare l'asse dei grigi neutri, ossia identificare l'illuminante e scartarlo. In questo modo un oggetto neutro ci dovrebbe apparire acromatico, esattamente come nella nostra percezione che avevamo della scena.
La Caratterizzazione deve trasformare le coordinate device-dipendent demosaicizzate e bilanciate nei dati scene-referred; o almeno questo è il compito ideale.


Ho letto in più posti, che ora ovviamente non rammento :-P , che si applica prima il white balance della demosaicizzazione perché così si riducono gli artefatti che questa operazione introduce.

avatarsenior
inviato il 30 Maggio 2020 ore 16:50    

Sì è vero, quello che ho descritto è solo lo schema logico. Nella pratica la sequenza può essere diversa, specialmente per il WB.

Nel protocollo DNG, ad esempio, è una interazione con più cicli.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 257000 iscritti, c'è spazio per tutti, dal principiante al professionista.





RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me