RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Delucidazioni su eventuali connessioni di Melissa RGB e profilo dsiplay


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Delucidazioni su eventuali connessioni di Melissa RGB e profilo dsiplay





avatarjunior
inviato il 03 Marzo 2025 ore 18:00

Ciao, sono Massimo e sono nuovo del forum, un saluto a tutti.
Mi sto appassionando alla gestione del colore ed ho letto le varie guide di Raamiel e il blog di Boscarol.
Ci sono alcuni passaggi che non mi sono chiari.
Dopo la caratterizzazione della fotocamera e le due conversioni effettuate, da RGB device dependent a PCS e da PCS a RGB device independent, mi ritrovo in uno spazio RGB scene referred che è il Prophoto gamma 1, quindi lineare, che è poi lo spazio di lavoro dei convertitori raw di Adobe.
Quello che non mi è chiaro è il passaggio successivo e quali siano i ruoli precisi di Melissa RGB( prophoto simil gamma 2.2) e il profilo display del mio monitor profilato.
Da quello che posso intuire il profilo display opera in modo di creare una conformità delle coordinate colorimetriche indipendenti risultanti dalle conversioni effettuate dal profilo di input della fotocamera e le coordinate stesse del monitor compensate a uno degli spazi PCS.
Quindi il profilo del monitor è utilizzato solo per la conformità di colore e non per la visualizzazione, della quale si occupa Melissa RGB?
Di quest'ultimo ho letto che si occupa di costruire l'istogramma e visualizzare i numeri RGB in modo percentuale, quindi opera come una specie di "interfaccia grafica", passatemi il termine, più user friendly e ed anche più vicina alla visione umana per lavorare sui dati lineari nello spazio RIMM?
In sintesi agiscono simultaneamente compiendo due azioni diverse?
E come si relazionano, se lo fanno, i gamma di entrambi i profili?
Esulando dall'argomento sopra, ho guardato dei video di Raamiel ospite da Verolino che fa una lunghissima disamina della gestione del colore, credo che presto acquisterò i suoi profili, e sono rimasto colpito dal fatto che non solo per i profili adobe standard ma anche per i profili cobalt, per via dell'architettura di adobe da rispettare che mette l'esposizione dopo la caratterizzazione, la tecnica ETTR non è consigliata per uno shift di colore quando si ricompensa l'esposizione nei convertitori adobe. C'è un tolleranza di EV in ETTR dove non rileviamo questo shift o è percepito subito?

Scusate le tante domande e ringrazio chi ha avuto la pazienza di leggere tutto MrGreen

avatarsenior
inviato il 03 Marzo 2025 ore 19:25

Ciao Massimo.

Argomento complesso, difficile essere esaustivi in così poco spazio, però ci provo.

In termini più semplificati possibile la catena di conversione dai dati grezzi della fotocamera è questa:

Linearizzazione -> Demosaicizzazione -> WB -> Caratterizzazione

Questo è lo schema logico, poi nella pratica è più complesso, specie nelle interazioni tra WB e caratterizzazione, ma prendiamolo per buono.
Il profilo opera nella fase di caratterizzazione e converte i dati rgb device-dipendent bilanciati e lineari in un PCS.
Quale PCS dipende dalla filosofia del software; CaptureOne fa riferimento a LAB, mentre lo stadio primario dello standard DNG punta a XYZ con una matrice, la ForwardMatrix che è la fusione della matrice di conversione verso XYZ nello stato di adattamento dell'illuminante più una CAT verso il D50; nello standard ufficiale Adobe è una Bradford. Tipicamente D65->D50 e StdA->D50 per le due tabelle presenti in ogni profilo Adobe Standard.

Passata la ForwardMatrix ci troviamo in scene-referred, ma qui iniziano a complicarsi le cose perché una matrice, da sola, è insufficiente a descrivere efficacemente un sensore e comporta molte limitazioni; come l'impossiblità di gestire le coordinate estreme che per i moderni sensori sono sia fuori locus umano, sia fuori dal modello matematico XYZ, ossia con coordinate che per alcuni termini diventano negativi.

Si passa quindi al secondo stadio della pipeline DNG, che però non è più in XYZ D50, ma in RIMM.
In questo passaggio i dati passano una ulteriore matrice XYZ D50 -> RIMM questa volta senza CAT perché siamo sempre in ambito D50.
Atterrati in RIMM i dati passano da una LUT 2.5D in HSL che fa il lavoro sporco che la ForwardMatrix non può fare, cioè tutte le trasformazioni non lineari.
Passata la Lut in HSL i dati ritornano in RIMM e lo stadio di colorimetria si conclude.

Poi arrivano i controlli utente dell'esposizione, alte luci, ombre, ecc..
Dopodichè si passa a MelissaRGB, noto anche come BastardRGB perché è figlio di ProPhoto e sRGB; i primari sono gli stessi di RIMM (o di ProPhoto), ma la TRC è quella di sRGB (più o meno gamma 2.2).
Questa sezione usa MelissaRGB per una migliore distribuzione dei dati che aumenta l'efficienza e consente di passare a una definizione a 20bit in luogo dei 32bit usati nella prima fase di colorimetria.
Tutto il resto che puoi fare in Lightroom o CameraRAW avviene in MelissaRGB; curve RGB, pannello HSL, ecc...

Lightroom calcola l'istogramma su MelissaRGB, mentre CameraRAW lo calcola sullo spazio in uscita impostato.

Ciò che vedi a monitor è la compensazione sul profilo dello stesso dei dati in MelissaRGB.
La conversione quindi sarà:

MelissaRGB -> XYZ D50 -> Monitor device-dipendent

Nel caso il monitor sia calibrato in un punto diverso da D50, tipo D65:

MelissaRGB -> XYZ D50 -> XYZ D65 -> Monitor device-dipendent

In questo modo, nei limiti dell'hardware, possiamo vedere il contenuto dello spazio MelissaRGB e quindi la foto con i colori non distorti.

Per la gamma dei vari spazi: il nome corretto è TRC e durante le conversioni viene tenuta in conto. Prima si fanno le trasformazioni lineari (matrici solitamente) e poi le curve TRC.
In linea generale, ma esistono eccezioni, gli spazi teorici sono definiti a matrice, mentre gli spazi di device reali possono essere a matrice o a tabella.
I monitor sono molto spesso descritti da profili a matrice, che per forza di cose sono connessi al PCS XYZ.
Scanner e fotocamere sono più spesso definiti da profili a tabella, che possono essere connessi al PCS XYZ o al PCS LAB.

Per quanto riguarda l'ETTR; dipende. Soprattutto in che ambito ci troviamo.
Nel campo della riproduzione la tollerenza è zero, devi esporre bene altrimenti cestini. Ma fare riproduzione con Lightroom è come andare a sciare con le ciabatte; quindi è una situazione che di solito non si verifica.
Nella fotografia artistica si fa come ci pare; però rimane il fatto che Adobe, quando ha progettato la pipeline DNG, forse non aveva ancora l'esperienza necessaria a concepire la gestione del colore in quel preciso ambito.


avatarjunior
inviato il 03 Marzo 2025 ore 20:53

Wow, questo si che è un benvenuto! MrGreen Grazie!
Quindi se ho capito bene quando svolgo le correzioni sul pannello base del convertitore, quindi su esposizione etc. lavoro direttamente sui dati lineari del Rimm anche se a monitor visualizzo i dati dello spazio Melissa compensati dal profilo del monitor.
Mentre quando faccio correzioni al di fuori del pannello base, quindi curve, hsl etc., non sto più intervenendo sui dati lineari del Rimm, ma direttamente su dati corretti con le curve del Melissa.
Quindi in teoria ho più margine di lavorazione sul pannello base lavorando su dati lineari piuttosto che sulle altre correzioni che intervengono su dati non lineari.
Se è corretto ciò che ho scritto, questo tipo di architettura rimane uguale sia per fli adobe standard che per i cobalt base compreso il repro lineare?

avatarsenior
inviato il 04 Marzo 2025 ore 7:19

A questo forse posso risponderti io, senza scomodare Raamiel (correggimi se dico caz.zate please).

Si, c'è differenza tra lavorare nel pannello principale e nella zona “maschere”.
Il pannello principale lavora sui dati “originali”, mentre la zona maschere lavora sul risultato del pannello principale, già caratterizzato.

L'architettura è uguale, non dipende dal profilo una volta caratterizzato il file: hanno una pipeline unica.

avatarsenior
inviato il 04 Marzo 2025 ore 20:09

Come ti ha già detto Leopizzo la pipeline rimane invariata, lo standard è quello.

Ci sono state delle variazioni su come l'architettura interna dei profili è stata declinata; ma i profili Cobalt seguono la più recente interpretazione di Adobe. I dettagli li puoi trovare qui : www.cobalt-image.com/tutorials/our_technology/

Per quanto riguarda le operazioni del pannello base e margini di manovra, il discorso diventa complesso.
Il fatto è che tutti i raw converter odierni e commerciali sono una commistione tra editor lineari raw propriamente detti ed editor non lineari in output-referred.

Gestire tutto, tutti i controlli che può avere Lightroom o CaptureOne, in un ambiente lineare scene-referred è teoricamente possibile, ma anche parecchio gravoso.
La critica tecnica (un po da accademia in verità) che viene fatta alla pipeline DNG è quella di abbandonare molto preso lo scene-referred e poi gestire tutto in output-referred, già nella fase di caratterizzazione.

Il gamut di ProPhoto è molto grande, ma non copre tutto il locus umano. questo significa che ci sono colori percepibili che non possono essere codificati nella traduzione da device-dipendent del sensore.
Ha molta importanza?
Se consideriamo che il ProPhoto (RIMM, ROMM) lo ha concepito Kodak per contenere tutta quella che è la fisica del colore in riflessione, quindi qualsiasi cosa che non sia auto luminosa, qualsiasi cosa ottenuta con pigmenti, inchiostri, vernici.... direi che possiamo star tranquilli.
Rimangono fuori alcune parti che sono dominio di fonti emissive e visione del colore per diffusione e trasmissione.
Per un fotografo direi che basta e avanza.

In ambito scientifico no, ma Lightroom non è nato per quello.

Quello che è sicuro è che, attualmente, ogni software che non sia qualcosa di alieno e estremamente settoriale è vecchio come concezione e dovrebbe essere ripensato e riscritto da zero.
E questa è una delle ragioni per cui non ci sono avanzamenti nella tecnologia dei sensori per quello che riguarda la gamma tonale. Semplicemente non esiste il software per sfruttare i sensori attuali, figuriamoci alcuni ipotetici ancor migliori.

Per fare un esempio, PhaseOne ha fatto un dorso chiamato Trichromatic; la sua particolarità è un filtro CFA che ha capacità di separazione elevata e che potenzialmente riesce a fornire più informazioni sui colori.
Peccato che poi questo sensore abbia bisogno di un software adeguato per essere sfruttato e di una profilazione estremamente attenta.
Su CaptureOne stesso le differenze con il classico dorso sono praticamente nulle, e stiamo parlando del suo software nativo.
Se poi lo usi su Lightroom, dove tutto passa da quello schifo di Adobe Standard, allora hai buttato i soldi nel cesso.
E l'ho visto accadere, giuro.

avatarjunior
inviato il 05 Marzo 2025 ore 14:48

Grazie!!! Molti dubbi chiariti, nonostante comunque l'argomento è di una vastità e complessità notevoli.
Approfitto se posso per chiedere un consiglio.
Sto imparando ad usare photoshop, fino ad adesso ho utilizzato esclusivamente lightroom sia che si trattasse di lavori più fedeli a una ricostruzione della scena che di lavori più artistici, ed è per questo secondo aspetto che sto imparando photoshop per le potenzialità che offre.
In tutte le fonti che sto consultando in merito si evince che deve esserci una sorta di equilibrio tra il il convertitore raw e photoshop.
Piu lavoro facciamo in uno e meno dobbiamo fare nell'altro, e dove far pendere la bilancia dipende dal tipo di lavoro, però poi a livello pratico non ho trovato indicazioni precise del percorso da seguire, al di là di quello che sembrerebbe un generale consenso di produrre un file molto uniforme, cosa che farebbe già di per se un profilo lineare, e bilanciato cromaticamente, per poi effettuare qualsiasi tipo di regolazione in photoshop utilizzando i livelli e tutto l'armamentario messo a disposizione dal software.
Io ad esempio eseguo lavori più di stampo artistico e non mi interessa tanto avere una riproduzione fedele dei colori della scena e lavorando anche pesantemente il file raw in lightroom non ho mai avuto problemi, quindi da neofita di photoshop mi domandavo quale poteva essere la strada più proficua, cioè fare quasi il lavoro finito in un convertitore raw come ho fatto fino ad adesso e lasciare a photoshop quelle cose che non posso fare nel convertitore, oppure cambiare sistema e creare un raw essenzialmente uniforme e bilanciato cromaticamente e lasciare tutto il grosso della lavorazione a photoshop.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.







Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me