| inviato il 06 Aprile 2017 ore 17:02
Giusto per "semplificare" le cose, nei convertitori puo' venire aggiunto "artificialmente" del rumore per renderli piu' precisi Ma forse non e' il caso di complicarsi le idee! |
| inviato il 06 Aprile 2017 ore 19:32
Questo è interessante, dacci un link |
user46920 | inviato il 06 Aprile 2017 ore 19:41
Maxi:“ Attraversato il filtro colore, la luce colpisce il singolo photodetector, che è un trasduttore in rame (rame?) che genera una carica elettrica. „ esatto, indipendentemente che sia di rame o di merda, il principio è quello: c'è una carica elettrica che viene più o meno amplificata per raggiungere un determinato livello, più facilmente codificabile in un valore digitale. Però, qui sotto hai saltato il passaggio fondamentale, che saltano un pò tutti: “ ...Quando il processo di conversione a/d avrà creato 6000x4000 diversi punti colore, questi assumeranno il nome dì pixel) „ no, non c'è ancora il pixel colorato nel raw, ma solo il valore elettrico digitalizzato del singolo fotosito e naturalmente la sua posizione nella griglia di mappatura, che in pratica ripete il sensore stesso. Se vuoi chiamarlo pixel, puoi anche farlo, ma l'importante è che tieni a mente la differenza tra i pixel in formato raw del sensore, che non hanno ancora un valore di coordinata colorimetrica RGB e i pixel dei JPG, che essendo invece parte di una immagine già rasterizzata o già mappata, hanno ognuno un valore RGB correlato. Per cui, per non confondersi, secondo me è meglio chiamarlo fotosito R , fotosito G o fotosito B . Così spero di averti risposto anche a questa domanda: “ I dati binari del RAW, se non si riferiscono al valore RGB del pixel, a cosa si riferiscono? „ ad un valore elettrico! Il sensore naturalmente non si inventa un bel nulla. I dati RGB che servono per valutare il colore della zona ripresa, sono già stati registrati tutti e da quelli si arriva tranquillamente ad un valore coerente, standardizzato e con un'ottima precisione sul colore reale. In pratica Maxi, il nostro sensore ha catturato un bel cioppo di valori RGGB che devono poi essere inquadrettati a gruppi di 4 fotositi (2x2) e che serviranno a corrispondere i valori del colore di quella specifica zona inquadrata nella scena. Ora, partendo dal colore di questo pixellone 2x2 , che ha poi in pratica le stesse caratteristiche simili ai pixel di un jpg, ossia un valore specifico di colore estrapolato appunto dal tristimolo RGGB, è possibile costruire un'immagine di riferimento, ma con una risoluzione precisamente di 1/4 del totale fotositi del sensore. Questa immgine a mosaico, serve appunto come riferimento colorimetrico dal quale partire per operare la demosaicizzazione, aiutata appunto dall'algoritmo che andrà a calcolare, interpolando, i valori ipotetici di ogni fotosito. Naturalmente la maggiorparte del colore è già conosciuta, ed è derivata sia dal dato dell'immagine a mosaico (1/4 dei fotositi, tutti RGB completi), sia dal valore reale di ogni fotosito, per ciò che riguarda il singolo colore primario (R, G, o B). In base quindi a delle procedure standardizzate per la gestione del colore e ai dati di progetto della fotocamera/sensore/elettronica, il file RAW convertito dal programma originale, ha la possibilità di diventare l'immagine visibile così come è stata ripresa = la fotografia. |
| inviato il 06 Aprile 2017 ore 22:03
@Max Qui trovi la definizione it.m.wikipedia.org/wiki/Dithering Sempre su wiki puoi cercare "convertitore analogico digitale". Quelli abbondantemente usati sono i cosidetti "sigma delta", anche di questi trovu la descrizione su wiki. |
| inviato il 06 Aprile 2017 ore 22:17
Non è più semplice dire che: - JPG essendo un file compresso del RAW, consente modifiche limitate sotto tutti i profili (è come una stampa già fatta del vecchio analogico); - RAW essendo il file grezzo, consente tutte le modifiche possibili sotto tutti i profili, nei limiti del sensore e del processore (è come un negativo del vecchio analogico). ??? In pratica è così. Come ci si arrivi è molto complicato, ma in pratica è così (non ho letto i precedenti post, in quanto argomento spesso trattato), ma è così. Molto semplicemente ... |
| inviato il 06 Aprile 2017 ore 22:55
@occhiodelcigno... Sei il n.1 , ribadisco il mio grazie come autore del topic ma credo che sia servito ad una valanga di persone! L'unica cosa non chiara è la differenza, nel RAW, tra regolare il cursore "esposizione" oppure uno dei cursori "ombre, neri", ecc Ho capito che cambia qualcosa di sostanziale, ma cosa? |
user46920 | inviato il 06 Aprile 2017 ore 23:36
“ Ho capito che cambia qualcosa di sostanziale, ma cosa? „ cambia la proporzione tra le ombre e le luci, quindi cambiano le curve dei livelli dinamici:


 un conto è cambiare "l'esposizione" e questo regola indiscriminatamente sia le ombre che le luci, contemporaneamente ... e un altro conto è cambiare il rapporto tra le ombre e le luci, come si vede nelle immagini qui sopra. Quindi, la cosa sostanzaiale che cambia, è la proprorzione. |
| inviato il 06 Aprile 2017 ore 23:43
Si ok, quello era già chiaro... Intendevo dire, se parliamo di RAW parliamo ancora di intensità luminosa, non di pixel. e, se non ho capito male, modificando ul cursore "esposizione" lavoriamo ancora linearmente su una amplificazione di quei valori analogici di luminosità, fotoni, ecc. Ma se lavoriamo sul cursore "ombre", ad esempio, nei post precedenti mi era sembrato di capire che passavamo già ad una regolazione RGB, quindi di pixel, ecc È corretto? |
| inviato il 06 Aprile 2017 ore 23:58
No, quando lavori sul RAW lavori in gamma lineare. |
user46920 | inviato il 07 Aprile 2017 ore 0:08
“ se non ho capito male, modificando ul cursore "esposizione" lavoriamo ancora linearmente su una amplificazione di quei valori analogici di luminosità, fotoni, ecc. „ è chiaro che il valore elettrico di amplificazione che possa regolare "l'esposizione", sarà solamente virtuale ... e per ciò che è possibile realmente ottenere tramite i dati ed il software. “ Ma se lavoriamo sul cursore "ombre", ad esempio, nei post precedenti mi era sembrato di capire che passavamo già ad una regolazione RGB, quindi di pixel, ecc „ anche se i termini che hai usato non sono esattamente corretti, tendenzialmente si, perché non esiste sul sensore e nemmeno nell'elettronica che lo pilota, una funzione del genere in grado di cambiare la proprorzione tra ombre e luci ... creerebbe uno scompenso, una distorsione, una irregolarità nella ripresa. |
| inviato il 07 Aprile 2017 ore 2:37
@Danig : “ Qui trovi la definizione it.m.wikipedia.org/wiki/Dithering Sempre su wiki puoi cercare "convertitore analogico digitale". Quelli abbondantemente usati sono i cosidetti "sigma delta", anche di questi trovu la descrizione su wiki. „ Grazie, ora ho capito. Non perché mi sia letto tutto , ma perché il Dithering si utilizzava sui primi Amiga (che avevo) per dare l'impressione di un aumento della DR. Non sapevo che venisse utilizzato dal firmware dei sensori. Nota: nel post ho dato qualche indicazione fuorviante, come chiamare i pixel del RAW e quelli dell'immagine finale nello stesso modo ed entrare nel merito della loro dimensione, e vedo che ha creato un po' di confusione, ma ormai è troppo tardi Quello che mi premeva era rispondere alla domanda "perché conviene applicare il bilanciamento del bianco sul RAW" e non sull'immagine finita, il resto era contorno. Buona continuazione |
| inviato il 07 Aprile 2017 ore 9:37
“ Intendevo dire, se parliamo di RAW parliamo ancora di intensità luminosa, non di pixel. e, se non ho capito male, modificando ul cursore "esposizione" lavoriamo ancora linearmente su una amplificazione di quei valori analogici di luminosità, fotoni, ecc. Ma se lavoriamo sul cursore "ombre", ad esempio, nei post precedenti mi era sembrato di capire che passavamo già ad una regolazione RGB, quindi di pixel, ecc „ Non capisco bene la domanda. Tutte le operazioni eseguite dal Raw converter hanno come input il dato digitale registrato dal sensore e come output i valori RGB che visualizzi sullo schermo e che puoi salvare/sviluppare in Jpeg quando sei soddisfatto del risultato. I vari slide vanno a modificare i parametri di questi algoritmi. Esposizione agirà in maniera "uniforme" su tutti i dati collezionati, mentre il cursore ombre agirà in maniera più marcata sulle ombre ovvero sui dati registrati che presentano un valore di luminosità minore mentre lascerà invariate le operazioni effettuate sugli "input" che hanno valori alti di luminosità. In raw converter diversi probabilmente slide con gli stessi nomi avranno curve di filtraggio un po' differenti. Per cui, per dire, potresti recuperare meglio le altre luci con uno rispetto che con un altro... Poi come dicevamo prima "a monte" viene applicata una curva per normalizzare i dati alla visione dell'occhio. Questo di default e in modo del tutto trasparente. |
| inviato il 07 Aprile 2017 ore 9:57
“ Soprattutto, e qui se ne parla molto, possiamo recuperare dettagli quasi invisibili nelle zone in ombra e schiarirle, oppure attenuare le zone delle alte luci/bianchi e riavere dettaglio perso. Ma tecnicamente parlando, riguardo questo aspetto dell'esposizione... qualcuno di voi sa come effettivamente sia possibile che ciò avvenga? „ Lo posso confermare in pieno con foto come questa: www.juzaphoto.com/galleria.php?t=2244396&l=it Quei cartelloni pubblicitari sono abbaglianti e nel jpg corrispondente particolari come il 21 erano praticamente invisibili perché sovraesposti mentre il palazzo nero davanti a quello di H&M è appunto nero e dettagli come quelli delle finestre sono irrecuperabili. Insomma si può fare un discreto HDR anche con un solo scatto! |
| inviato il 07 Aprile 2017 ore 12:39
@TonyRigo constato con piacere che da tanto tempo non lavori più all'UCAS , sei un saggio . Forse si può aggiungere che un RAW corrisponde alla immagine latente registrata dall'emulsione, una volta sviluppata, la pellicola diventa un negativo. |
user117231 | inviato il 07 Aprile 2017 ore 12:43
Ma perche' non usate le robe fotografiche per farci fotografie...invece di usarle per scervellarvi.   |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |