user81826 | inviato il 20 Settembre 2017 ore 12:07
 La differenza si vede eccome, basti guardare (2 secondi ci ho messo a vedere) la zona in ombra del naso che va a perdere ogni sfumatura rosata nell'8 bit o anche le labbra che grazie alle maggiori sfumature fanno risaltare i solchi della pelle e i passaggi luce ombra (se non li vedi te li mostro volentieri). Oh, parliamo di un'inconcina del cavolo e le differenze le vedo da 40-50cm dallo schermo, figuriamoci stampata; inutile che spendi millemila euro di attrezzatura per avere migliori passaggi tonali se poi usi gli 8 bit per fare l'hipster, soprattutto se chi fa foto lo fa per passione ricercando il dettaglio come un artigiano (non è il mio caso, non ne ho le capacità, intendiamoci). Più che altro come è stato chiesto in precedenza sarebbe bello avere qualche dato un po' più specifico sul tempo e sui soldi che fa risparmiare il post-produrre ad 8-bit anziché 16 (ovviamente parliamo di fotografia per passione o professionale di alto livello perchè è ovvio che un professionista che deve sviluppare foto in serie in maniera dozzinale perchè vanno a finire su uno smartphone o su una locandina 13x18 stampata malissimo l'ultima cosa a cui pensa è il numero di bit usati durante lo sviluppo. Insomma, per me la differenza è tangibile e se ho speso 30 euro per sviluppare meglio qualche dettaglio al 100% nei "problematici" raf Fuji di certo non mi metto a sviluppare in 8 bit se posso evitarlo. |
| inviato il 20 Settembre 2017 ore 14:00
Raamiel, quello che scrivi è tutto corretto e, per chi volesse fare un lavoro come il tuo nella vita, anche istruttivo ed interessante. Ma se uno cercasse tutti questi dettagli come risposta acquisterebbe qualche libro sulla materia, non porrebbe una domanda così nel forum. O no? I punti che tu con tanta esattezza elenchi, almeno quelli da 3 a 8 sono tutti riassumibili in una parola molto semplice: "conversione" (dati in una colonna di input -> tipo di dati diverso e quindi li copia in una nuova colonna di output). E lo scrivi stesso tu nei vari passaggi: 6-dati passano da RGB sensore a XYZ D50; 7-dati vengono convertiti da XYZ D50 a RIMM; 8-Conversione da RIMM a HSV.... Sono tutte conversioni, che ci piaccia o meno questa parola! Anche la stessa demosaicizzazione alla fine della fiera è una sorta di "conversione" (passaggio dal "mosaico" del CFA -> RGB device): ricostruzione, interpretazione, come cavolo la vogliamo chiamare...è sempre un passaggio dei dati da un "tipo" a uno tipo diverso, al fine di essere riproducibili . Il sensore non produce un file RAW in sRGB; Adobe RGB; ProPhoto...questi sono degli standard di spazio colore, generati dopo dal software (conversione e compagnia cantante). Era questo il succo di quello che ho scritto. Tu mi dici che questo è sbagliato e lo motivi con argomenti diversi. Così non se ne esce. E meno male che ho scritto "in poche parole; in sostanza; ecc." (nonostante io tenti di riassumere, tante volte mi sembra di essere stato pure prolisso nella risposta!) La differenza sta nel fatto che io ho provato (non è detto che ci sia riuscito) a "convertire" un discorso tecnico molto complesso in risposta fruibile da chi non è uno sviluppatore, tu stai spaccando il capello in 4...anzi in 1000 (dicendomi "sbagli", "non è così", ecc.)... |
| inviato il 20 Settembre 2017 ore 14:27
Hai fatto una affermazione precisa; non riassuntiva. Le parole sono lì e tutti le possono leggere. Erano sbagliate; prendine atto. “ Gli standard RGB (sRGB, Adobe RGB, ProPhoto, e-sRGB…) nascono apposta per convertire i dati lineari di luminanza prodotti dal sensore (riferiti alla scena) in dati codificati secondo una curva di “gamma” (riferiti all'output), ovvero in una descrizione colorimetrica più adatta alla periferica virtuale. In poche parole trasformano i dati del sensore in una immagine riproducibile da un monitor o una stampante. „ Hai affermato che gli spazi teorici come sRGB o AdobeRGB nascono appositamente per convertire i dati lineari prodotti dal sensore; sono parole precise e non generiche. Ho dimostrato come questa affermazione sia falsa. Quegli spazi non nascono per quel fine e non sono mai usati per quello scopo. Non è spaccare il capello in 4 e nemmeno in mille; è solo la differenza tra una cosa sbagliata e una corretta. A beneficio di tutti. |
| inviato il 20 Settembre 2017 ore 14:46
Prendo sempre atto di ciò che dico, non ti preoccupare. Tant'è che ho anche documentato con i famosi link per chi volesse approfondire. Tu invece ti stai attaccando alle mie parole, ma eviti di chiarire il concetto. Ho aggiunto poi (per riassumere all'osso in una frase): “ In poche parole trasformano i dati del sensore in una immagine riproducibile da un monitor o una stampante. „ Dici che ho sbagliato, benissimo...allora, a beneficio di tutti, puoi spiegare tu cosa sono i vari sRGB, Adobe RGB, ProPhoto, da dove nascono e a cosa servono? Così la cosa corretta la diciamo, finalmente... |
| inviato il 20 Settembre 2017 ore 14:58
“ 2-Linearizzazione dei dati (perché se il sensore è lineare non è detto che lo siano i dati nel RAW) „ Giusto per curiosità, a cosa è dovuto questo? Io sapevo che il file RAW dovrebbe semplicemente essere il conteggio delle ADU registrate da ogni pixel, con eventualmente riduzione del rumore applicata e un po' di "non linearità" nelle alte luci a causa del cambiamento della risposta del pixel quando si avvicina al punto di saturazione. A parte quello, a cosa è dovuto il fatto che i dati nel RAW possano non essere lineari? Vengono già applicate delle trasformazioni in fase di conversione? “ Magari ci faremmo quattro risate pensando a quanti ignoranti ci sono.... „
 |
| inviato il 20 Settembre 2017 ore 14:59
sono pippe mentali... all'atto pratico sorge il problema dei 16 bit SOLO per recuperi ASSURDI su jpg striminziti.... ho visto Olivotto sistemare l'incarnato di una jpg ARANCIONE di una 400D con 2 click... l'istogramma aveva dei buchi assurdi... riaperta la stessa foto in raw era sostanzialmente identica |
| inviato il 20 Settembre 2017 ore 15:02
Quando si affronta un argomento tecnico è necessario essere dei tecnici e non "semplificare". Raamiel ha dimostrato qui di essere un personaggio molto competente (e pure molto paziente...), una persona che mette a disposizione il suo sapere a tutti. Qualcuno ha tirato in ballo Umberto Eco e la sua avversione ai social, devo dire che in questa discussione mi sembra proprio di leggere Raamiel Vs.. Napalm51. Però non fà ridere come l'originale di Crozza... |
| inviato il 20 Settembre 2017 ore 15:03
I vari sRGB, AdobeRGB, ProPhoto, ecc sono tutti spazi teorici e sono codificati nei profili classe display. La genesi dei vari spazi risponde a diverse esigenze. Ma assolvono tutti lo stesso compito, tradurre da RGB e PCS e viceversa. sRGB nasce nel 1995 per emulare il comportamento dei monitor CRT e serviva (e serve) per poter distribuire contenuto multimediale su computer e periferiche senza una gestione del colore. AdobeRGB è la diretta evoluzione di sRGB. ProPhoto (ROMM) deriva dal RIMM, creato dalla Kodak per essere uno spazio scene-referred e contenere i dati risultanti dalla caratterizzazione dei dati RAW. Il ProPhoto, differendo dal RIMM solo per la gamma a 1,8, è lo spazio output-referred naturale quando si lavora con i convertitori RAW che adottano tale spazio. |
| inviato il 20 Settembre 2017 ore 15:13
@Bubu93 Molto spesso i dati registrati nel RAW non sono lineari; la cosa non è sempre chiara perché i produttori non specificano dove e come avvenga la curvatura; se prima o dopo la conversione in digitale. Fatto sta che i dati, prima di essere elaborati per la demosaicizzazione, debbano essere linearizzati. Ovviamente nel RAW sono presenti i campi necessari a informare il convertitore sulle operazioni necessarie. @Melodycafe Sono pippe mentali, certo. Le perfide software house vogliono solo farti spendere soldi è un gomblotto. I 16bit sono solo una pippa.... e pensa che CameraRAW opera a 32bit, super pippa stratosferica. Anche RIMM e ProPhoto.... una pippa mentale della kodak, che non aveva meglio da fare che concepire una cosa inutile come lo spazio scene-referred alla base di quasi tutti i convertitori raw e software di caratterizzazione al mondo. E i profili di caratterizzazione? Pippe ovvio.... tanto si apre in Photoshop a 8bit e si sistema tutto; dopo ci si stampa anche il fine-art, che tanto la differenza non la vede mica nessuno. |
| inviato il 20 Settembre 2017 ore 15:24
dimmi cosa contesti al video di Apertura di questo thread... |
| inviato il 20 Settembre 2017 ore 15:28
Melody.... è tutto il topic che ne parliamo. Fai te... Un video che si intitola testualmente : "Le bugie del 16bit. Tutte le frottole che vi hanno raccontato" e che argomenta in quella maniera, ma sembra regolare? |
| inviato il 20 Settembre 2017 ore 15:36
@Melody come va? da video “ ...Marco (Olivotto) è uno dei migliori al mondo, se non il migliore nel colore... „ sono cose che si dicono di un Ronaldo, di un Messi (e via alle discussioni). L'articolo che hai riportato www.marcoolivotto.com/photoshop-16-bit-vs-8-bit/ spiega perché il video del Brilli sia così ondivago. Olivotto ha una laurea in fisica, i fisici generalmente sono molto chiari su argomenti così elementari, lui no (almeno IMO). |
| inviato il 20 Settembre 2017 ore 15:41
no beh.. è tutto il topic che si divaga su cosa sia un raw e tecnicismi veri ma slegati al senso di questa discussione....vorrei vedere un video dove si veda il contrario di quanto argomenta questo allievo di Olivotto.... SHOULD I ALWAYS EDIT IN 16 BITS? With all the topics of this article you could easily think that editing in 16-bit is always best, and it is definitely not. www.diyphotography.net/8-bit-vs-16-bit-color-depth-use-matters/ |
| inviato il 20 Settembre 2017 ore 15:56
@Melody lavori su canali colore a 16 bit e riduci al minimo i problemi legati a operazioni successive su livelli che vanno da 0 a 32,768 sotto PS, lavori a 8 bit e QUALCHE volta hai cattive sorprese. Perché rischiare? |
| inviato il 20 Settembre 2017 ore 15:57
Com'è quella storiella di quello che giocava a scacchi con un piccione...? |
|

Metti la tua pubblicità su JuzaPhoto (info) |