| inviato il 06 Aprile 2017 ore 12:17
Ad essere ancora più precisi - spero aiuti a chiudere la questione aperta sopra - un JPEG contiene informazioni rinconducibili ad un'unica immagine, mentre il RAW contiene informazioni che, a seconda dell'interpolazione applicata, possono essere utilizzati così come sono per creare diverse variazioni della stessa immagine. Se tieni fisso l'algoritmo, un RAW è concettualmente identico ad un JPEG. In entrambi i casi non sono immagini, ma le loro rapppresentazioni matematiche. Volendo seguire questa strada, neanche un dipinto è un'immagine, ma un supporto di composti chimici che, colpiti dalla luce, proiettano un'immagine sulla retina. |
| inviato il 06 Aprile 2017 ore 13:58
“ Ad essere ancora più precisi - spero aiuti a chiudere la questione aperta sopra - un JPEG contiene informazioni rinconducibili ad un'unica immagine, mentre il RAW contiene informazioni che, a seconda dell'interpolazione applicata, possono essere utilizzati così come sono per creare diverse variazioni della stessa immagine. Se tieni fisso l'algoritmo, un RAW è concettualmente identico ad un JPEG. „ Su questo più o meno concordo. Il busillis è sul fatto di riuscire a stabilire "oggettivamente" quale algoritmo sia migliore (e poi cosa vuol dire migliore)? Il Raw è un po' come uno antico sparito musicale dove ogni direttore d'orchestra lo interpreta a suo modo... Poi chissà magari fra qualche anno tireranno fuori l'algoritmo definitivo che restituirà il nel modo più oggettivo(?) possibile la scena ripresa e sarò smentito... “ In realtà anche nella visione a monitor c'è un ultimo passaggio da digitale ad analogico, da valore codificato a tensione elettrica e quindi a onda luminosa di una data frequenza. „ Si sono confrontabili. Anche se parlando di "ricostruzione" nella parte audio la vedo più nella conversione digitale/analogica che ricostruisce la forma d'onda originale, mentre nelle foto nella parte completamente digitale degli algoritmi di demosaicizzazione. Le problematiche di jitter e di amplificazione, per quanto critiche, le vedo più come problemi "fisici". Le casse ovviamente potrebbero benissimo essere accomunate allo schermo o alla stampante. Ma sto divagando... |
| inviato il 06 Aprile 2017 ore 14:13
“ Poi chissà magari fra qualche anno tireranno fuori l'algoritmo definitivo che restituirà il nel modo più oggettivo(?) possibile la scena ripresa e sarò smentito... „ Beh, la domanda a questo punto e', ma a "noi" interessa che sia il piu' "oggettivo" possibile? Infondo credo di no (a meno che non si parli di reportage di carattere giornalistico) credo che una foto sia bella perche' non e' una visione fredda e oggettiva della realta' ma perche' e' una visione "filtrata" da chi la foto la scatta. La tecnologia e la matematica sono solo un ulteriore mezzo per esprimere cio' che vuole il fotografo. Del resto VanGogh non e' un grande pittore perche' disegna la realta' in modo oggettivo |
| inviato il 06 Aprile 2017 ore 14:53
Comunque gli algoritmi di demosaicizzazione in sé non variano molto il risultato, sono le elaborazioni accessorie che restituiscono i risultati che vedete profondamente differenti tra loro. Se volete un RAW trattato in maniera pura, provate ufraw. Scegliete il tipo di interpolazione, il resto non viene toccato, la resa dipende dalle curve applicate dall'utente e, prima ancora, dalla curva logaritmica (che nei software più diffusi non è sempre evidente, in ufraw la vedi subito in alto a sinistra. |
| inviato il 06 Aprile 2017 ore 15:12
Comunque... provo a riassumere, per quello che ho capito (e scusatemi se qualcosa non è chiara), tutto quanto detto finora. Io sono di fronte ad un soggetto da fotografare, vedo forme, vedo i suoi colori, i suoi riflessi, le sue ombre, i neri, i bianchi, ecc. Decido di immortalare ciò che ho di fronte, attraverso una fotografia. Ho una fotocamera digitale a disposizione, che casualmente mi registra sia nel formato RAW sia in quello JPEG. Inquadro e scatto... i raggi della luce riflessa dal soggetto entrano nell'obiettivo (siamo ancora nel mondo analogico). Attraversato l'obiettivo, passano attraverso il filtro colore posto davanti al sensore (sia esso a matrice bayer, xtrans, foveon, ecc). Siamo ancora in ambito analogico... è corretto fino a qui? Attraversato il filtro colore, la luce colpisce il singolo photodetector, che è un trasduttore in rame (rame?) che genera una carica elettrica. (NOTA: Il singolo photodetector dovrebbe essere l'unità del sensore. Se parliamo di un sensore da 24 mega pixel, 6000x4000, avremmo 6000 photodetector sul lato lungo del sensore e 4000 sul lato corto. Quando il processo di conversione a/d avrà creato 6000x4000 diversi punti colore, questi assumeranno il nome dì pixel) Questa carica elettrica dovrebbe essere variabile in funzione dei fotoni ricevuti (più luce, più fotoni, più carica elettrica) Sperando sia giusto fino a qui..... dovremmo ancora essere in ambito analogico. Ora... Questa carica elettrica deve essere trasformata in qualcosa di digitale, quindi in un numero binario. Quindi la realtà analogica del singolo photodetector è codificata in una stringa numerica (che prima o poi dovrà essere decodificata da qualcuno per essere vista come immagine su uno schermo, sennò vediamo solo lunghe file di 0 e di 1) Fatto questo passaggio... dovremmo essere transitati nel fantastico mondo del digitale. Questi dati, in formato binario, sono processati e raccolti all'interno del file RAW, che viene salvato sulla scheda di memoria. Giusto? Nel frattempo, visto che la mia macchina è super, si è avviato parallelamente anche un processo di decodifica immediato di questi dati binari, attraverso un software in macchina e gli algoritmi progettati dagli ingegneri, che porteranno ad avere subito un file JPEG, anch'esso memorizzato sulla scheda di memoria. Ora.... |
| inviato il 06 Aprile 2017 ore 15:17
Ora... se non ho detto caxxate fino a questo punto abbiamo: - un file RAW che contiene dati in formato binario, che devono essere processati, demosaicizzati ecc - un file JPEG che contiene sempre dei dati binari (visto che siamo sempre in ambito informatico), ma questi dati si riferiranno a qualcosa di diverso rispetto al RAW. Credo di aver capito che i dati binari dentro un JPEG, riportino il singolo valor RGB del singolo pixel. |
| inviato il 06 Aprile 2017 ore 15:26
Quindi... I dati binari del RAW, se non si riferiscono al valore RGB del pixel, a cosa si riferiscono? Se modificare un RAW in post-produzione significa comunque alterare, amplificare, ecc dei valori unici registrati al momento dello scatto attraverso degli altri algoritmi.... perché dovrebbe esser meglio lavorare il file RAW rispetto al JPEG? E torniamo ad inizio topic... cosa contiene in più il RAW che ci consente miglior qualità? Perchè se prendo la stessa foto scattata sia in RAW sia in JPEG, prendo i due file dalla scheda di memoria, li carico entrambi nel software di post-produzione... perché col RAW sposto i cursori dell'esposizione, delle ombre, delle luci, ecc e riesco a recuperare la foto MOLTO di più di quanto non riesca a fare con la stessa foto JPEG? |
| inviato il 06 Aprile 2017 ore 15:26
“ la luce colpisce il singolo photodetector, che è un trasduttore in rame (rame?) che genera una carica elettrica. „ Non sono un esperto di sensori, ma direi più silicio opportunamente drogato. |
| inviato il 06 Aprile 2017 ore 15:34
Mi lancio: “ I dati binari del RAW, se non si riferiscono al valore RGB del pixel, a cosa si riferiscono? „ si riferiscono al valore grezzo (raw) registrato dal singolo fotodiodo. Nel caso dello schema Bayer, al valore grezzo (raw) registrato dal fotodiodo blu, rosso, verde, verde. tali valori devono essere interpretati per arrivare al pixel dell'immagine. “ E torniamo ad inizio topic... cosa contiene in più il RAW che ci consente miglior qualità? „ O meglio, cosa contiene in meno il jpg? Nel processo di demosaicizzazione si ha una perdita di informazioni legate essenzialmente a: 1. differente (minore) quantizzazione. In pratica, ogni bit e` rappresentato attraverso un numero inferiore di bit, quindi anche intuitivamente ha meno informazioni. 2. Il jpg e` un file compresso con perdita di informazioni. |
| inviato il 06 Aprile 2017 ore 15:36
@Maximetto78 Mi piace La "base" del trasduttore e' silicio, il rame o altri metalli, si usano solo per le interconnessioni. I dati contenuti nel file jpeg originano dal file raw ma hanno subito gia' una prima elaborazione da parte del processore contenuto nella macchina che utilizza valori di contrasto/saturazione/bilanciamento preimpostati. |
| inviato il 06 Aprile 2017 ore 15:52
“ I dati binari del RAW, se non si riferiscono al valore RGB del pixel, a cosa si riferiscono? „ Ti abbiamo già risposto. Si riferiscono a valori dell'intensità luminosa della luce che passa il filtro Bayer. Per cui quando il dato si riferisce al "fotosito" coperto dal rosso dovrai "inventarti" i dati del verde e del blu: andreaguarise.blogspot.it/2011/08/ma-le-fotocamere-vedono-colori.html& Del perché il raw sia più lavorabile... matematicamente avrei difficoltà a spiegarlo. Ma considera che il Raw è il master, il negativo, contiene i dati "originali". Il jpeg "un'immagine" sviluppata e compressa. Sviluppata secondo i perfettibili algoritmi della fotocamera e dove nel processo algoritmico, probabilmente, sia per approssimazioni di calcolo che per compressioni intrinseche del formato lossy fa perdere le informazioni originali. Quando rimasterizzano/remixano un disco prendono il master originale non l'mp3 a 64kbps dell'album... |
| inviato il 06 Aprile 2017 ore 15:58
"Ti abbiamo già risposto. Si riferiscono a valori dell'intensità luminosa della luce che passa il filtro Bayer. " Ok, e quali sono i valori, come si misurano, con che scala? Il pixel va da zero a 255, il valore dell'intensità luminosa invece? |
| inviato il 06 Aprile 2017 ore 16:02
@Maximetto78 il valore di intensita' luminosa va nel caso di 14bit (attuale std canon) da 00000000000000 a 11111111111111 ovvero da 0 a 16383 Ovvero il valore di tensione letto e' diviso in 2 elevato alla 14 livelli ovvero 16384 livelli |
| inviato il 06 Aprile 2017 ore 16:20
Esatto. 0 corrisponde al "buio" e 16383 alla saturazione del fotosito ("luci bruciate"/"clipping") I livelli sono così "fini" che vengono influenzati dal "rumore" elettronico interno alla macchina. Motivo tra l'altro per cui molti consigliano di esporre verso destra visto che i valori più bassi oscillano maggiormente. Ovvero se il rumore è "11" un conto è leggere "12" in "luogo di "1". Un altro leggere "10012" in luogo di "10001". Nel primo caso hai un rapporto segnale rumore peggiore. Rumore che gli algoritmi cercano in qualche modo di gestire in fase di elaborazione... Inoltre i valori sono lineari (proporzionali all'intensità della luce) mentre l'occhio ha una sensibilità logaritmica per cui, colori a parte, va applicata una "curva" (altro algoritmo) per normalizzare l'esposizione. |
| inviato il 06 Aprile 2017 ore 16:30
Ohhh finalmente.... Comincia ad essere più chiaro perché col RAW si riesce a recuperare, come se avessimo voluto altre esposizioni. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 254000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |