| inviato il 26 Ottobre 2013 ore 0:04
Complimenti raamiel... E grazie della interessante spiegazione |
| inviato il 26 Ottobre 2013 ore 0:06
Riprendiamo la catena degli eventi che ci interessano.... Durante la lavorazione del nostro RAW i dati vengono tradotti in coordinate colorimetriche dello spazio RIMM e qui subiscono tutte le modifiche di PP possibili con il nostro software di editing RAW; noi le vediamo transposte nello spazio ROMM e visualizzate a video. E' nella visualizzazione a monitor che avviene la traduzione tra il profilo ProPhoto di riferimento e il profilo ICC proprio del monitor. Schematizzando : RAW --> linearizzazione, demosaicizzazione, ecc.. --> RIMM RIMM --> elaborazione PP --> ROMM ROMM --> visualizzazione a monitor Le modifiche in PP sono aggiornate in live, quindi se io faccio una modifica questa agisce sul RIMM ma io vedo gli effetti sul ROMM che viene tradotto nel mio monitor. Il ROMM come detto è sempre il ProPhoto 16bit gamma 1.8 L'immagine che noi vediamo durante l'elaborazione con Lightroom o CaptureOne (fa eccezione Aperture della Apple che lavora internamente con AdobeRGB) quindi è sempre una trasposizione di uno spazio colore ProPhoto 16bit gamma 2.2 Anche quando esportiamo l'immagine, sempre nel medesimo formato, a monitor vedremo la traduzione del ProPhoto nel profilo colore del nostro schermo; con qualunque applicazione in grado di gestire il colore. |
| inviato il 26 Ottobre 2013 ore 0:27
quindi,essendo il monitor tarato su D65, ad esempio scattando, mettendo su lightroom il punto del bianco a 4500 il risultato è un'immagine con una temperatura di colore come se il monitor fosse settato su 5500 ( per via della differenza tra i 6500 della taratura e il valore selezionato su lightroom ). ( ho sempre letto che 5500K è il daylight, non il 6500, o anche questo è per compensare in stampa? ) |
| inviato il 26 Ottobre 2013 ore 0:32
Quindi.... Passata la prima fase da RAW a RIMM lo spazio colore della fotocamera non ci interessa più; non torneremo mai ad essa, il processo è in un solo verso. Adesso il nostro spazio di riferimento è solo il ProPhoto. La nostra immagine è riferita a questo spazio colore e a questo soltanto. Come abbiamo visto il ProPhoto è molto esteso e garantisce una acquisizione dei colori originali lossless, ma devo precisare per completezza che alcuni sensori ccd delle medio formato riescono quasi a saturarlo e in alcuni punti vanno oltre, anche se di poco. Comunque, all'atto pratico, tutti i colori della scena originale trovano posto nello spazio ProPhoto. Nella PP però i colori cambiano, possono aumentare, diminuire, cambiare coordinate... I colori della nostra foto posso essere sparsi in ogni dove di questo spazio, che è molto più esteso di quello del monitor :
 I colori della nostra immagine possono essere sparsi nella nuvola del wireframe, ma per poterli vedere le coordinate colorimetriche devono per forza essere tradotte in qualcosa che entri nella nuvola solida. Una traduzione diretta è impossibile, ed è qui che entrano in scena gli intenti di rendering. Sono 4 : Colorimetrico assoluto Colorimetrico relativo Percettivo Saturazione Il colorimetrico assoluto si usa quando i colori della foto sono tutti, o quasi, in comune nei due gamut. Il colorimetrico relativo si usa quando una piccola percentuale dei colori non sono presenti nel gamut di destinazione. Il percettivo o il saturazione nei casi peggiori, il loro scopo è fornire al meglio una immagine simile ai nostri sensi. |
| inviato il 26 Ottobre 2013 ore 0:40
Per fabio11s... No... il monitor non è tarato, è calibrato. La calibrazione serve a fornire il punto di bianco usato per la caratterizzazione, che fornisce poi la tabella di traduzione per il motore ICC. Tu vedi un bianco a 6500K se metti una schermata bianca che va a monitor con valori RGB totali a 255. Se su Lightroom o su Photoshop o su quello che vuoi visualizzi una immagine che ha temperatura di bianco a 4000k tu la vedi a 4000k, altrimenti sarebbe distorta. Il daylight è il D50 quindi 5000k secondo lo standard ICC. |
user10190 | inviato il 26 Ottobre 2013 ore 0:40
Bravo Raamiel! Una bella e utile esposizione. |
| inviato il 26 Ottobre 2013 ore 1:06
Ora però vado a nanna, domani continuiamo ..... |
| inviato il 26 Ottobre 2013 ore 6:33
Grazie veramente... non è che ci capisca tanto....però leggendolo un centinaio di volte magari qualcosa mi rimarrà...intanto inizio a capire quando su PS leggo relativo/assoluto cosa potrebbe voler dire. |
| inviato il 26 Ottobre 2013 ore 9:22
davvero utile... proprio ora che ho preso un monitor wide gamut e sto notando come in realtà sono le foto ( mie e altre sia sui che su Flickr ). la domanda di prima era data dal fatto che su foto scattate solo con luce dal flash, mettendo il punto del bianco su 5500, risultano un pelo "calde" rispetto a prima |
| inviato il 26 Ottobre 2013 ore 9:25
Da rileggere con maggiore concentrazione, intanto ringrazio :-) |
| inviato il 26 Ottobre 2013 ore 12:18
Mi appecorono ai ringraziamenti. Continua così! |
| inviato il 26 Ottobre 2013 ore 13:20
Bravo raamiel... Riusciresti a fare una piccola guida passo a passo dall'apertura del raw in acr fino alla stampa in PS? Una cosa semplice alla portata di noi novelli... |
| inviato il 26 Ottobre 2013 ore 14:12
Argomento molto interessante da leggere e rileggere. Grazie Raamiel. |
| inviato il 26 Ottobre 2013 ore 16:40
Ok rieccomi qui... Prima di continuare provo a rispondere ad un utente che mi ha contattato in privato per farmi alcuni appunti e critiche; è stato molto gentile (e non scherzo) e ha posto delle giuste domande, oltre che a dirmi che ho saltato parecchie cose. Ha ragione, ho cercato di semplificare, ma inevitabilmente ho lasciato lacune. Ma veniamo alle questioni più oggettive : Punto primo è che secondo lui il colore esiste, come entità fisica; adducendo gli studi di Newton (1642-1727) sulla rifrazione della luce. Risposta : No... il colore non esiste, è una percezione dei nostri sensi; Newton è stato il primo scienziato a studiare la luce, ma lo ha fatto al suo tempo e credeva che i colori fossero 7 come le note musicali. Si sbagliava ovviamente, i colori percepibili sono una varietà infinita di gradazioni. L'osservazione del colore di un corpo non è oggettiva come misura fisica, può solo essere una misura psicofisica e condivisa statisticamente nella nostra razza; ad esempio i daltonici vedono colori diversi, ma non è il corpo osservato a cambiare emissione. Per ulteriore esempio, immaginiamo di osservare un corpo nero come nero può essere un velluto nero da sfondo (non parlo quindi della radiazione del corpo nero). Noi lo vediamo nero questo velluto, sembra evidente che è nero, tutti direbbero che è nero; ed è così perché assorbe ogni radiazione visibile al nostro occhio. Ma se cambiamo percezione che succede? Se quel corpo è caldo, e sicuramente lo è, agli infrarossi sarà tutt'altro che nero; e se dietro di esso ci fosse una sorgente radioattiva che emette beta e gamma? allora sarebbe luminoso per trasparenza. Nel messaggio mi dice anche che il laser è l'unica lunghezza d'onda monocromatica che ci è permesso di vedere. La frase contiene un errore, una lunghezza d'onda non può avere un cromatismo, altrimenti esisterebbero i colori; inoltre il laser non è l'unica luce monocromatica che possiamo vedere, le righe di emissione spettrale sono un esempio. Inoltre, il laser è visibile solo se la sua lunghezza d'onda rientra nel campo visibile e il suo fascio è collimato nella retina; il fascio che noi vediamo di alcuni laser non è il laser stesso, ma la rifrazione e riflessione della luce coerente che impatta pulviscolo e vapore, nello spazio vuoto il laser è sempre invisibile. |
|

Metti la tua pubblicità su JuzaPhoto (info) |