RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

File raw: come funziona esattamente?


  1. Forum
  2. »
  3. Tecnica, Composizione e altri temi
  4. » File raw: come funziona esattamente?





avatarjunior
inviato il 06 Aprile 2017 ore 17:02

Giusto per "semplificare" le cose, nei convertitori puo' venire aggiunto "artificialmente" del rumore per renderli piu' precisi MrGreen

Ma forse non e' il caso di complicarsi le idee!

avatarsenior
inviato il 06 Aprile 2017 ore 19:32

Questo è interessante, dacci un link ;-)

user46920
avatar
inviato il 06 Aprile 2017 ore 19:41

Maxi:
Attraversato il filtro colore, la luce colpisce il singolo photodetector, che è un trasduttore in rame (rame?) che genera una carica elettrica.

esatto, indipendentemente che sia di rame o di merda, il principio è quello: c'è una carica elettrica che viene più o meno amplificata per raggiungere un determinato livello, più facilmente codificabile in un valore digitale.

Però, qui sotto hai saltato il passaggio fondamentale, che saltano un pò tutti:
...Quando il processo di conversione a/d avrà creato 6000x4000 diversi punti colore, questi assumeranno il nome dì pixel)

no, non c'è ancora il pixel colorato nel raw, ma solo il valore elettrico digitalizzato del singolo fotosito e naturalmente la sua posizione nella griglia di mappatura, che in pratica ripete il sensore stesso.
Se vuoi chiamarlo pixel, puoi anche farlo, ma l'importante è che tieni a mente la differenza tra i pixel in formato raw del sensore, che non hanno ancora un valore di coordinata colorimetrica RGB e i pixel dei JPG, che essendo invece parte di una immagine già rasterizzata o già mappata, hanno ognuno un valore RGB correlato.
Per cui, per non confondersi, secondo me è meglio chiamarlo fotosito R , fotosito G o fotosito B .

Così spero di averti risposto anche a questa domanda:
I dati binari del RAW, se non si riferiscono al valore RGB del pixel, a cosa si riferiscono?

ad un valore elettrico!

Il sensore naturalmente non si inventa un bel nulla. I dati RGB che servono per valutare il colore della zona ripresa, sono già stati registrati tutti e da quelli si arriva tranquillamente ad un valore coerente, standardizzato e con un'ottima precisione sul colore reale.

In pratica Maxi, il nostro sensore ha catturato un bel cioppo di valori RGGB che devono poi essere inquadrettati a gruppi di 4 fotositi (2x2) e che serviranno a corrispondere i valori del colore di quella specifica zona inquadrata nella scena.
Ora, partendo dal colore di questo pixellone 2x2 , che ha poi in pratica le stesse caratteristiche simili ai pixel di un jpg, ossia un valore specifico di colore estrapolato appunto dal tristimolo RGGB, è possibile costruire un'immagine di riferimento, ma con una risoluzione precisamente di 1/4 del totale fotositi del sensore.
Questa immgine a mosaico, serve appunto come riferimento colorimetrico dal quale partire per operare la demosaicizzazione, aiutata appunto dall'algoritmo che andrà a calcolare, interpolando, i valori ipotetici di ogni fotosito.
Naturalmente la maggiorparte del colore è già conosciuta, ed è derivata sia dal dato dell'immagine a mosaico (1/4 dei fotositi, tutti RGB completi), sia dal valore reale di ogni fotosito, per ciò che riguarda il singolo colore primario (R, G, o B).
In base quindi a delle procedure standardizzate per la gestione del colore e ai dati di progetto della fotocamera/sensore/elettronica, il file RAW convertito dal programma originale, ha la possibilità di diventare l'immagine visibile così come è stata ripresa = la fotografia.

avatarjunior
inviato il 06 Aprile 2017 ore 22:03

@Max

Qui trovi la definizione
it.m.wikipedia.org/wiki/Dithering

Sempre su wiki puoi cercare "convertitore analogico digitale". Quelli abbondantemente usati sono i cosidetti "sigma delta", anche di questi trovu la descrizione su wiki.

avatarsenior
inviato il 06 Aprile 2017 ore 22:17

Non è più semplice dire che:

- JPG essendo un file compresso del RAW, consente modifiche limitate sotto tutti i profili (è come una stampa già fatta del vecchio analogico);
- RAW essendo il file grezzo, consente tutte le modifiche possibili sotto tutti i profili, nei limiti del sensore e del processore (è come un negativo del vecchio analogico).

???

In pratica è così.

Come ci si arrivi è molto complicato, ma in pratica è così (non ho letto i precedenti post, in quanto argomento spesso trattato), ma è così.

Molto semplicemente ...

Sorriso

avatarjunior
inviato il 06 Aprile 2017 ore 22:55

@occhiodelcigno...
Sei il n.1 , ribadisco il mio grazie come autore del topic ma credo che sia servito ad una valanga di persone!

L'unica cosa non chiara è la differenza, nel RAW, tra regolare il cursore "esposizione" oppure uno dei cursori "ombre, neri", ecc

Ho capito che cambia qualcosa di sostanziale, ma cosa?

user46920
avatar
inviato il 06 Aprile 2017 ore 23:36

Ho capito che cambia qualcosa di sostanziale, ma cosa?

cambia la proporzione tra le ombre e le luci, quindi cambiano le curve dei livelli dinamici:











un conto è cambiare "l'esposizione" e questo regola indiscriminatamente sia le ombre che le luci, contemporaneamente ... e un altro conto è cambiare il rapporto tra le ombre e le luci, come si vede nelle immagini qui sopra.

Quindi, la cosa sostanzaiale che cambia, è la proprorzione.



avatarjunior
inviato il 06 Aprile 2017 ore 23:43

Si ok, quello era già chiaro...

Intendevo dire, se parliamo di RAW parliamo ancora di intensità luminosa, non di pixel.

e, se non ho capito male, modificando ul cursore "esposizione" lavoriamo ancora linearmente su una amplificazione di quei valori analogici di luminosità, fotoni, ecc.

Ma se lavoriamo sul cursore "ombre", ad esempio, nei post precedenti mi era sembrato di capire che passavamo già ad una regolazione RGB, quindi di pixel, ecc

È corretto?

avatarsenior
inviato il 06 Aprile 2017 ore 23:58

No, quando lavori sul RAW lavori in gamma lineare.

user46920
avatar
inviato il 07 Aprile 2017 ore 0:08

se non ho capito male, modificando ul cursore "esposizione" lavoriamo ancora linearmente su una amplificazione di quei valori analogici di luminosità, fotoni, ecc.

è chiaro che il valore elettrico di amplificazione che possa regolare "l'esposizione", sarà solamente virtuale ... e per ciò che è possibile realmente ottenere tramite i dati ed il software.
Ma se lavoriamo sul cursore "ombre", ad esempio, nei post precedenti mi era sembrato di capire che passavamo già ad una regolazione RGB, quindi di pixel, ecc

anche se i termini che hai usato non sono esattamente corretti, tendenzialmente si, perché non esiste sul sensore e nemmeno nell'elettronica che lo pilota, una funzione del genere in grado di cambiare la proprorzione tra ombre e luci ... creerebbe uno scompenso, una distorsione, una irregolarità nella ripresa.

avatarsenior
inviato il 07 Aprile 2017 ore 2:37

@Danig :
Qui trovi la definizione
it.m.wikipedia.org/wiki/Dithering

Sempre su wiki puoi cercare "convertitore analogico digitale". Quelli abbondantemente usati sono i cosidetti "sigma delta", anche di questi trovu la descrizione su wiki.


Grazie, ora ho capito. Non perché mi sia letto tutto Cool, ma perché il Dithering si utilizzava sui primi Amiga (che avevo) per dare l'impressione di un aumento della DR.
Non sapevo che venisse utilizzato dal firmware dei sensori.

Nota: nel post ho dato qualche indicazione fuorviante, come chiamare i pixel del RAW e quelli dell'immagine finale nello stesso modo ed entrare nel merito della loro dimensione, e vedo che ha creato un po' di confusione, ma ormai è troppo tardi MrGreen Quello che mi premeva era rispondere alla domanda "perché conviene applicare il bilanciamento del bianco sul RAW" e non sull'immagine finita, il resto era contorno. Buona continuazione ;-)

avatarsenior
inviato il 07 Aprile 2017 ore 9:37

Intendevo dire, se parliamo di RAW parliamo ancora di intensità luminosa, non di pixel.

e, se non ho capito male, modificando ul cursore "esposizione" lavoriamo ancora linearmente su una amplificazione di quei valori analogici di luminosità, fotoni, ecc.

Ma se lavoriamo sul cursore "ombre", ad esempio, nei post precedenti mi era sembrato di capire che passavamo già ad una regolazione RGB, quindi di pixel, ecc


Non capisco bene la domanda. Tutte le operazioni eseguite dal Raw converter hanno come input il dato digitale registrato dal sensore e come output i valori RGB che visualizzi sullo schermo e che puoi salvare/sviluppare in Jpeg quando sei soddisfatto del risultato.
I vari slide vanno a modificare i parametri di questi algoritmi.
Esposizione agirà in maniera "uniforme" su tutti i dati collezionati, mentre il cursore ombre agirà in maniera più marcata sulle ombre ovvero sui dati registrati che presentano un valore di luminosità minore mentre lascerà invariate le operazioni effettuate sugli "input" che hanno valori alti di luminosità.
In raw converter diversi probabilmente slide con gli stessi nomi avranno curve di filtraggio un po' differenti.
Per cui, per dire, potresti recuperare meglio le altre luci con uno rispetto che con un altro...

Poi come dicevamo prima "a monte" viene applicata una curva per normalizzare i dati alla visione dell'occhio.
Questo di default e in modo del tutto trasparente.

avatarjunior
inviato il 07 Aprile 2017 ore 9:57

Soprattutto, e qui se ne parla molto, possiamo recuperare dettagli quasi invisibili nelle zone in ombra e schiarirle, oppure attenuare le zone delle alte luci/bianchi e riavere dettaglio perso.
Ma tecnicamente parlando, riguardo questo aspetto dell'esposizione... qualcuno di voi sa come effettivamente sia possibile che ciò avvenga?

Lo posso confermare in pieno con foto come questa:
www.juzaphoto.com/galleria.php?t=2244396&l=it
Quei cartelloni pubblicitari sono abbaglianti e nel jpg corrispondente particolari come il 21 erano praticamente invisibili perché sovraesposti mentre il palazzo nero davanti a quello di H&M è appunto nero e dettagli come quelli delle finestre sono irrecuperabili.
Insomma si può fare un discreto HDR anche con un solo scatto!

avatarsenior
inviato il 07 Aprile 2017 ore 12:39

@TonyRigo constato con piacere che da tanto tempo non lavori più all'UCASMrGreen, sei un saggio;-).

Forse si può aggiungere che un RAW corrisponde alla immagine latente registrata dall'emulsione, una volta sviluppata, la pellicola diventa un negativo.

user117231
avatar
inviato il 07 Aprile 2017 ore 12:43

Ma perche' non usate le robe fotografiche per farci fotografie...invece di usarle per scervellarvi. MrGreenCool;-)

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista.







Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me