RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Si stava meglio quando si stava peggio, ovvero pellicola vs sensore


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Si stava meglio quando si stava peggio, ovvero pellicola vs sensore





avatarsenior
inviato il 10 Dicembre 2014 ore 0:29

Credo che l'equivoco nasca essenzialmente da questa frase :

" the Full Raw Jpeg is encoded with 14 bits, in 2 colors (prior to the 50D and the Digic IV), then using 4 colors with the 50D up to 1100D. Since 1D X and up to 6D, Canon is back to 2 components."

Il metodo di archiviazione usato, jpg, viene scambiato per una immagine propriamente detta.
I dati nel raw non sono linearizzati, non sono demosaicizzati e non caratterizzati. Nel documento indica che la matrice di dati ha una conformazione jpg, ma non è una immagine con coordinate colorimetriche.

Se estrai una singola matrice tra queste e la visualizzi, di fatto la caratterizzi in modo grezzo per poterla visualizzare.

Come ad esempio posso aprire un raw in CaptureOne e scegliere di non fare la caratterizzazione; ma questo significa semplicemente che assegno le coordinate colorimetriche con una valenza 1 a 1. Questo viene fatto durante la fase di caratterizzazione della fotocamera.

Il raw non contiene coordinate colorimetriche; i dati sul colore sono implicati nella sua struttura, ma non esplicati.
Il modo in cui si accede a tali dati e li si elabora li cambia in modo inevitabile.


raamiel, per punti:

1) nei raw ci sono (solitamente) quattro matrici corrispondenti ai canali R, G, B, G.
2) ogni punto di queste matrici contiene dei valori da 0 a 16.383, a seconda che abbia ricevuto poca o tanta luce.
3) queste matrici, perlomeno nei cr2 canon, sono salvate in formato jpg.

ora:

1) le foto sono delle matrici di punti
2) ogni punto è contraddistinto da un valore ben preciso, da 0 (nero) a qualcosa . Se si tratta di foto a 14 bit per canale, e c'è un solo canale, sarà da 0 a 16.383.

vogliamo davvero negare che quelle contenute nel raw siano delle immagini in bianco e nero, grezze quanto vuoi, corrispondenti ai valori di luminanza dell'RGB?

avatarsenior
inviato il 10 Dicembre 2014 ore 12:02

Sì... nego che quelle siano immagini. Non lo sono, non hanno informazioni sul colore e nemmeno sulla luminanza.

I passaggi di sviluppo di un raw sono :

Lettura, decompressione --> Linearizzazione --> Demosaicizzazione --> Bilanciamento del bianco --> Caratterizzazione

Vediamo più nel dettaglio :

Per quanto riguarda la linearizzazione, i dati del sensore sono proporzionali al numero di fotoni catturati da ogni
photosite e quindi alla sua esposizione. Questo si esprime dicendo che i dati del sensore sono lineari rispetto alla luminanza emessa dalla scena. Tuttavia nella conversione da segnale analogico a segnale digitale può essere introdotta una curva di quantizzazione (che agisce come compressione dei dati) che va rimossa. Tipicamente la quantizzazione comporta una perdita delle informazioni disponibili sul sensore, ma questa perdita è controllata in modo che gli effetti non siano percepibili ad occhio nudo.In generale la relazione tra segnale analogico e segnale digitale è descritta da una funzione di conversione opto-elettronica (OECF, opto-electronic conversion function) che può essere misurata. La norma ISO 14524:1999 specifica le modalità di misurazione, che consistono nel fotografare un target di cui si conoscono i fattori di luminanza, che si possono mettere in relazione con i valori digitali forniti dal sensore. I dati vengono forniti al Raw converter per la linearizzazione.
E anche se i dati non fossero codificati in gamma essi non esprimerebbero dati di luminanza scene refferred, ma solo device dipendent. Senza l'apporto dei dati di interpolazione della demosaicizazzione le coordinate sono incomplete anche sulla luminanza.

Per la Demosaicizzazione vale quanto detto sopra, inoltre estrarre una "immagine" del solo canale blu per esempio ci darebbe una immagine incompleta nella definizione geometrica, oltre che nel colore.

L'ultima fase trasforma i dati device dipendent in scene referred, quindi in coordinate colorimetriche vere e proprie in un determinato modo e spazio colore; per CameraRAW si usa il RIMM.
Solo e soltanto a questo stadio abbiamo una vera immagine.
Quindi, ribadisco, il RAW non è una immagine e non ha gamut.

avatarsenior
inviato il 10 Dicembre 2014 ore 12:15

E anche se i dati non fossero codificati in gamma essi non esprimerebbero dati di luminanza scene refferred, ma solo device dipendent. Senza l'apporto dei dati di interpolazione della demosaicizazzione le coordinate sono incomplete anche sulla luminanza.


Stai dicendo che nei dati non è scritto che tipo di filtri è stato usato per ogni canale (o colore)?

Paolo

avatarsenior
inviato il 10 Dicembre 2014 ore 12:30

Sì... nego che quelle siano immagini. Non lo sono, non hanno informazioni sul colore e nemmeno sulla luminanza.

I passaggi di sviluppo di un raw sono :

Lettura, decompressione --> Linearizzazione --> Demosaicizzazione --> Bilanciamento del bianco --> Caratterizzazione

Vediamo più nel dettaglio :

Per quanto riguarda la linearizzazione, i dati del sensore sono proporzionali al numero di fotoni catturati da ogni
photosite e quindi alla sua esposizione. Questo si esprime dicendo che i dati del sensore sono lineari rispetto alla luminanza emessa dalla scena. Tuttavia nella conversione da segnale analogico a segnale digitale può essere introdotta una curva di quantizzazione (che agisce come compressione dei dati) che va rimossa. Tipicamente la quantizzazione comporta una perdita delle informazioni disponibili sul sensore, ma questa perdita è controllata in modo che gli effetti non siano percepibili ad occhio nudo.In generale la relazione tra segnale analogico e segnale digitale è descritta da una funzione di conversione opto-elettronica (OECF, opto-electronic conversion function) che può essere misurata. La norma ISO 14524:1999 specifica le modalità di misurazione, che consistono nel fotografare un target di cui si conoscono i fattori di luminanza, che si possono mettere in relazione con i valori digitali forniti dal sensore. I dati vengono forniti al Raw converter per la linearizzazione.
E anche se i dati non fossero codificati in gamma essi non esprimerebbero dati di luminanza scene refferred, ma solo device dipendent. Senza l'apporto dei dati di interpolazione della demosaicizazzione le coordinate sono incomplete anche sulla luminanza.

Per la Demosaicizzazione vale quanto detto sopra, inoltre estrarre una "immagine" del solo canale blu per esempio ci darebbe una immagine incompleta nella definizione geometrica, oltre che nel colore.

L'ultima fase trasforma i dati device dipendent in scene referred, quindi in coordinate colorimetriche vere e proprie in un determinato modo e spazio colore; per CameraRAW si usa il RIMM.
Solo e soltanto a questo stadio abbiamo una vera immagine.
Quindi, ribadisco, il RAW non è una immagine e non ha gamut.


non ti riesce molto bene l'arrampicata sugli specchi, raamiel.

avatarsenior
inviato il 10 Dicembre 2014 ore 12:33

" E anche se i dati non fossero codificati in gamma essi non esprimerebbero dati di luminanza scene refferred, ma solo device dipendent. Senza l'apporto dei dati di interpolazione della demosaicizazzione le coordinate sono incomplete anche sulla luminanza. "

Stai dicendo che nei dati non è scritto che tipo di filtri è stato usato per ogni canale (o colore)?


sembra incredibile, ma si genera tutto magicamente.

avatarsenior
inviato il 10 Dicembre 2014 ore 12:33

La luminanza di un singolo pixel della foto è il risultato dell'interpolazione della demosaicizzazione.
Il singolo photosite del sensore cattura la luminanza di un solo canale R G o B, ma manca degli altri due.
Dopo la demosaicizzazione le coordinate sono complete e esprimono la luminanza del pixel.

Quello a cui ti riferisci Pdeninis viene effettuato dalla caratterizzazione; tramite i profili di caratterizzazione il raw converter interpreta e bilancia le componenti cromatiche dei dati RAW.
Se per esempio indico al raw converter di usare i profili di macchine diverse, ottengo risultati marcatamente diversi in molte situazioni.

avatarsenior
inviato il 10 Dicembre 2014 ore 12:35

Perbo.... hai ragione tu. Ho scritto solo un mare di minchiate, tranquillo hai ragione, hai sempre avuto ragione, su tutto.

avatarsenior
inviato il 10 Dicembre 2014 ore 12:44

La luminanza di un singolo pixel della foto è il risultato dell'interpolazione della demosaicizzazione.
Il singolo photosite del sensore cattura la luminanza di un solo canale R G o B, ma manca degli altri due.


che è esattamente quello che ho scritto io, e che tu hai negato.

Perbo.... hai ragione tu. Ho scritto solo un mare di minchiate, tranquillo hai ragione, hai sempre avuto ragione, su tutto.


non è che ho ragione.
ho detto che praticamente in un cr2 ci sono le immagini in toni di grigio dei diversi canali secondo il bayer RGBG, e ti ho linkato l'analisi - fatta molto bene - di un file cr2 con le specifiche di come strutturato.
Tu ti sei messo a parlare di coordinate colorimetriche e altra roba che non è mai stata tirata in ballo, cercando di dimostrare la tua tesi.
Ma di prove non ne ho vista nemmeno una - se nemmeno la struttura di un CR2 ti basta, non so che dirti.
Immagino che chi legge si sarà fatto un'idea, se è arrivato fin qui.

avatarsenior
inviato il 10 Dicembre 2014 ore 12:45

Immagino di sì.... hai ragione tu Perbo, hai sempre ragione su tutto; tranquillo.

avatarjunior
inviato il 10 Dicembre 2014 ore 13:08

Il digitale ha grandi possibilità rispetto all'analogico. Prima di tutto nel colore e in confronto alle diapositive il digitale ha maggior latitudine di posa quindi è più compensativo.
Le diapositive analogiche come la Kodachrome 25 e 64 e la Velvia 50 erano, o sono, molto schizzinose con l'esposizione si rischia di bruciare le luci o chiudere le ombre rendendole illeggibili. Gli attuali sensori e le attuali ottiche specie professionali superano di gran lunga questo "limite" consentendo riprese in luce scarsa pur mantenendo una buona gamma tonale.
D'altro canto ci sono ancora "puristi" dell'analogico specie per il bianco e nero perché in effetti certi supporti o emulsioni (Tri-X, FP4, Neopan400) sembra conferiscano una maggior profondità dei neri e dei bianchi dando poi alla stampa quel senso di realismo e di contrasto che sembra essere minore nel digitale. Sicuramente ci sono le spiegazioni scientifiche o fisico chimiche in merito, non è quindi un fatto "romantico" o solo di gusti personali. C'è da dire a mio parere che con una buona conoscenza di un programma di fotoritocco si possono ottenere anche nel bianco e nero risultati egregi senza, come una volta, dover utilizzare acidi, sviluppi e fissaggi tutti chimici.

avatarsenior
inviato il 10 Dicembre 2014 ore 13:33

C'è da dire a mio parere che con una buona conoscenza di un programma di fotoritocco si possono ottenere anche nel bianco e nero risultati egregi senza, come una volta, dover utilizzare acidi, sviluppi e fissaggi tutti chimici.


si possono ottenere ottime stampe BN anche in digitale,
ma purtroppo è ancora molto costoso... tra stampanti professionali inchiostri e carte Triste

avatarjunior
inviato il 10 Dicembre 2014 ore 13:49

Bene, ritorniamo in tema e tralasciamo le discussioni su chi ce l'ha più lungo.

Perché la stampa da digitale è più costosa rispetto a quella analogica? Io nella mia ignoranza sull'argomento avrei pensato al contrario. Alla fine con il digitale prendo il jpeg e lo stampo (poi chiaro che il costo dipende dalla stampante utilizzata).
Per l'analogico invece, qual'è la parte economica nel processo di sviluppo/stampa che fa risparmiare rispetto al digitale?

avatarsenior
inviato il 10 Dicembre 2014 ore 13:51

Silvan60:io i bianchi bruciati li ho visti e continuo a vederli con la Canon digitale.
Nelle diapositive mai.
In quello la Canon rimane regina inconstrastata!!!

user46920
avatar
inviato il 10 Dicembre 2014 ore 13:53

Raamiel e Perbo, secondo me avete ragione tutti e due !!!

Ad esempio, in un sensore da 24Mp ogni pixel è fotosensibile ad uno dei tre colori primari (RGB), ma siccome l'occhio umano è più sensibile ad una stretta banda di frequenze della luce bianca (il colore Giallo-Verde), per la costruzione dei Sensori vengono utilizzati due fotorecettori Verde, uno Blu e uno Rosso: quattro fotorecettori disposti in formato quadrato, nella figura Bayer. La "somma" dei tre colori RGB, con una proporzione di circa 25% Blu, 50% Verde e 25% Rosso, serve per stabilire il reale "Colore" e l'Intensità della luce, diretta sulla zona dei 4 pixel RGB. I singoli valori elettrici emessi dai fotorecettori, vengono amplificati e convertiti in un segnale digitale, per essere registrati come file RAW (o file grezzo) composti in una o più matrici, rispettando le coordinate della griglia.
In effetti, i valori reali del "colore" e dell'intensità della luce registrati dal Sensore, sono solo 1/4 di quelli disponibili dalla matrice (24Mp), ovvero solo 6Mp di dati veri. Dal file grezzo, tramite i software di "sviluppo" in camera (o sul PC), è possibile trasformare i valori della luce registrata in una fotografia a colori, interpolando per posizione la quantità dei dati mancanti ed ottenere un'immagine di 24Mp, partendo dai 6Mp di dati veri e reali, circa l'intensità ed il colore della luce.

user46920
avatar
inviato il 10 Dicembre 2014 ore 13:56

Perché la stampa da digitale è più costosa rispetto a quella analogica?


Simone, visto che siamo ormai alla fine delle 15 pagine, ti conviene riproporre questa domanda, aprendo una seconda parte del tema o meglio un tema diverso ;-)

RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)



Questa discussione ha raggiunto il limite di 15 pagine: non è possibile inviare nuove risposte.

La discussione NON deve essere riaperta A MENO CHE non ci sia ancora modo di discutere STRETTAMENTE sul tema originale.

Lo scopo della chiusura automatica è rendere il forum più leggibile, soprattutto ai nuovi utenti, evitando i "topic serpentone": un topic oltre le 15 pagine risulta spesso caotico e le informazioni utili vengono "diluite" dal grande numero di messaggi.In ogni caso, i topic non devono diventare un "forum nel forum": se avete un messaggio che non è strettamente legato col tema della discussione, aprite una nuova discussione!





 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me