| inviato il 19 Settembre 2017 ore 14:55
“ @Makexaos: Il "ragazzo che ha girato il video" è lo stesso che ha aperto il thread. „ Grazie Darkphoenyx per avermelo fatto notare. Mi era sfuggito questo "piccolo" dettaglio. Ero concentrato sul contenuto e non ho dato peso al "retroscena", ai soggetti implicati. Il senso di quello che ho detto comunque non cambia, basta sostituire "ragazzo" con "Brillishow". A questo punto invece cambia l'utilità di quello che ho detto e della discussione in generale...credevo si discutesse per condividere informazioni utili a tutti, non per far monetizzare il singolo (!). Ora mi sento un fesso che è cascato in un tranello...la prossima volta starò più attento! @Brillishow Ho una domanda, a questo punto. Se, come dici: “ nella vita faccio tutt'altro e non sono un informatico/fotografo professionista/flippato del colore „ allora come mai su youtube dai lezione proprio su questi argomenti? Addirittura fai i tutorial su Photoshop, senza aver mai manco letto il manuale (!), parli di bit senza essere "informatico" ( informato , per meglio dire)...non sei "flippato del colore" e ne parli, dando addirittura del bugiardo a chi "racconta frottole" sui 16 bit...! Abbi paziena...io nella vita faccio tutt'altro e non sono un fesso professionista, ma ti faccio un rapido tutorial da fesso: Sarebbe più corretto e coerente fare i tutorial su quel "tutt'altro" che fai nella vita. Vedrai che monetizzerai di più... | 
| inviato il 19 Settembre 2017 ore 15:25
“ Scusate una domanda, ma oltre a un monitor a 8-10-16 bit, non influisce anche la scheda video tipo Quadro per Nvidia o Fire Pro per Amd?! „ i monitor possono essere a 8 o 10 bit per canale. Normalmente sono da 8 bit, se prendi modelli particolari e hai una scheda professionale (nvidia o ati) allora puoi abilitare i 10 bit per canale. Ma questo ha poco a che vedere con i bit del raw: come giustamente dice Raamiel, addirittura alcuni programmi (come Lr) non ti consentono di capparli e lavorano direttamente ai massimi bit possibili. Che poi uno li veda o meno su schermo, è irrilevante: l'importante è che ci siano, dietro, e che consentano di fare più operazioni possibili senza grosse perdite di qualità. | 
| inviato il 19 Settembre 2017 ore 15:34
È ovvio che mi riferisco al risultato finale, lo ho anche scritto | 
| inviato il 19 Settembre 2017 ore 15:39
A allora più di un monitor con tanti bit é consigliabile la tarature dei colori con apposto sw tipo spyder di datacolor o altri prodotti simili. | 
| inviato il 19 Settembre 2017 ore 15:40
“ Che poi uno li veda o meno su schermo, è irrilevante: l'importante è che ci siano, dietro, e che consentano di fare più operazioni possibili senza grosse perdite di qualità. „ ......sono d'accordo, non potevi essere più chiaro. | 
| inviato il 19 Settembre 2017 ore 15:43
“ A allora più di un monitor con tanti bit é consigliabile la tarature dei colori con apposto sw tipo spyder di datacolor o altri prodotti simili. „ Non c'è nessuna taratura. Il monitor, per essere inserito nella catena del colore, deve passare tre fasi : calibrazione, caratterizzazione, profilazione. Se il monitor offre una profondità di 10bit, allora ti da un vantaggio se la destinazione di uso prevede una profondità in bit pari o superiore. Un sistema prestampa per plotter a 16bit si avvantaggia sensibilmente con un monitor 10bit; viceversa il monitor a 10bit potrebbe essere un handicap per la produzione da web. | 
| inviato il 19 Settembre 2017 ore 17:41
@Conlafotografia “ Diciamo che lavorare a 16 bit non fa male ? piuttosto io non ho mai capito bene la differenza dei profili sRGB e Adobe e pro ... Se non possono essere riprodotti perché usarli? Per lo stesso motivo dei 16bit? Grazie „ Lo spazio colore e la profondità colore (o di bit) sono cose diverse. Non è esatto dire che non possono essere riprodotti. Gli standard RGB (sRGB, Adobe RGB, ProPhoto, e-sRGB…) nascono apposta per convertire i dati lineari di luminanza prodotti dal sensore (riferiti alla scena) in dati codificati secondo una curva di “gamma” (riferiti all'output), ovvero in una descrizione colorimetrica più adatta alla periferica virtuale. In poche parole trasformano i dati del sensore in una immagine riproducibile da un monitor o una stampante. Se hai letto quello che ho scritto nel mio primo post, il flusso di elaborazione dell'immagine digitale attraversa vari passaggi. Quella che ho appena citato è la resa del colore (color rendering). Si tratta di standard, quindi sta poi alla capacità del monitor la riproduzione più o meno accurata dello spazio colore che adoperi nel tuo flusso di lavoro. Altra strada è profilare il monitor con uno spazio colore specifico -> convertire lo spazio colore dell'immagine, per avere una corrispondenza maggiormente accurata. Ho usato il termine "corrispondenza" non a caso...che il profilo dell'immagine e quello del monitor corrispondano non vuol dire necessariamente che hai tutti i colori che ti servono ! Ma questo è un altro discorso, lungo e palloso... Qual è la differenza tra sRGB, Adobe RGB e ProPhoto? La risposta più semplice: essendo degli standard c'è la "guerra" tra le aziende per imporre ognuno il suo sul mercato. Questa lotta per imporre il proprio standard puoi vederla proprio ovunque! Se vuoi approfondire prova a partire da qui: www.boscarol.com/blog/?p=7478 www.boscarol.com/blog/?p=1630 | 
| inviato il 19 Settembre 2017 ore 18:33
“ Non è esatto dire che non possono essere riprodotti. Gli standard RGB (sRGB, Adobe RGB, ProPhoto, e-sRGB…) nascono apposta per convertire i dati lineari di luminanza prodotti dal sensore (riferiti alla scena) in dati codificati secondo una curva di “gamma” (riferiti all'output), ovvero in una descrizione colorimetrica più adatta alla periferica virtuale. In poche parole trasformano i dati del sensore in una immagine riproducibile da un monitor o una stampante. „ Eh no... questo è errato. La caratterizzazione dei dati RAW è fatta dai profili di caratterizzazione appunto. I profili come sRGB, AdobeRGB, ecc... sono di classe display, i profili (nello standard ICC) usati per caratterizzare i sensori sono di classe input. | 
| inviato il 19 Settembre 2017 ore 19:10
Non ho parlato infatti di caratterizzazione . Ho parlato di conversione : dati lineari del sensore (RGB riferiti alla scena, scene referred , non ancora riferiti all'output) -> spazio colore riferito all'output. | 
| inviato il 19 Settembre 2017 ore 19:17
Ma i profili come sRGB, AdobeRGB e tutti gli altri che codificano spazi teorici non fanno nessuna conversione dai dati lineari del sensore verso una qualsivoglia destinazione. | 
| inviato il 19 Settembre 2017 ore 20:52
Comunque, senza troppi tecnicismi, le foto devono essere elaborate con quante più informazioni possibili. Per vederle al meglio, un monitor 10 bit per canale con relativa scheda adeguata, ci permette di vedere la foto nel migliore dei modi, ma per esperienza personale si lavora benissimo anche con monitor a 8 bit per canale, purché siano monitor discreti. I monitor meglio calibrarli, profilarli e caratterizzarli in funzione della destinazione. È una noia e con l'esperienza si sopperisce agli switch. E comunque è bene ricordare che se si lavorasse con un ipotetico monitor in bianco e nero, le informazioni contenute nel file non si perdono, così come è bene ricordare che anche il miglior monitor del mondo non ci permetterà di vedere l'immagine in modo identico alla stampa, ma ci permetterà di avere una rappresentazione quanto mai simile. | 
| inviato il 19 Settembre 2017 ore 20:55
“ Ma i profili come sRGB, AdobeRGB e tutti gli altri che codificano spazi teorici non fanno nessuna conversione dai dati lineari del sensore verso una qualsivoglia destinazione. „ Ma perché continui ad attribuirmi parole che non ho detto? Così si crea solo confusione. Ii non ho detto che il profilo colore fa (ne senso di "produce") una conversione. La conversione la fa il software, come è ovvio....almeno spero! Ho già scritto nel mio primo post (e ribadito poi) che l'elaborazione dell'immagine digitale attraversa svariati passaggi, gran parte dei quali li ho citati nel medesimo post. Mi spiego l'ultima volta, sperando di riuscire ad essere chiaro. Se hai scattato una foto in RAW hai in mano un file dati lineari (ripeto, con informazioni riferite alla scena). Ora...un file RAW di suo non ha un profilo colore . Viene convertito dal software in un file raster RGB attraverso il processo di demosaicizzazione e solo a quel punto l'immagine è caratterizzata da un certo profilo colore (sRGB, AdobeRGB, ecc.) che viene scelto al momento dello sviluppo . Lo spazio colore è prodotto da tale processo di conversione , che prevede anche la caratterizzazione del profilo colore. Come dicevo all'utente Conlafotografia, questo processo nasce apposta per poter visualizzare l'immagine fotografica sul monitor partendo da un file RAW (tralascio volutamente il discorso della stampa). | 
| inviato il 19 Settembre 2017 ore 21:02
“ Se hai scattato una foto in RAW hai in mano un file dati lineari (ripeto, con informazioni riferite alla scena). Ora...un file RAW di suo non ha un profilo colore . Viene convertito dal software in un file raster RGB attraverso il processo di demosaicizzazione e solo a quel punto l'immagine è caratterizzata da un certo profilo colore (sRGB, AdobeRGB, ecc.) che viene scelto al momento dello sviluppo . „ E' sbagliato... la caratterizzazione la fa un profilo apposito, costruito sensore per sensore. I profili classe display che codificano spazio colore teorici non caratterizzano i dati del sensore. La catena corretta è : Lettura RAW -> Decodifica -> Linearizzazione -> Demosaicizzazione -> WB -> Caratterizzazione La fase di Caratterizzazione porta da dati device dipendent a PCS. Questa operazione non può essere fatta dai profili classe display. | 
| inviato il 19 Settembre 2017 ore 22:25
“ Ma i profili come sRGB, AdobeRGB e tutti gli altri che codificano spazi teorici non fanno nessuna conversione dai dati lineari del sensore verso una qualsivoglia destinazione. „ Raamiel, ne sei proprio sicuro? io non troppo, anzi... sRGB per esempio era stato pensato per i monitor CRT ed applica una sua ben precisa correzione gamma. Idem l'Adobe RGB 1998: dalla specifica dell'Adobe RGB - "4.1 General The Adobe RGB (1998) color image encoding is defined as an encoding of the color appearance of an image that is being displayed on a reference color monitor in a reference viewing environment. NOTE The intended color appearance can be reproduced exactly on a physical device in an actual viewing environment, only when the actual viewing environment exactly matches the reference viewing environment." www.adobe.com/digitalimag/pdfs/AdobeRGB1998.pdf La destinazione è il monitor di riferimento definito dal profilo stesso! sRGB e AdobeRGB 1998 sono "Rendered Image Spaces" o "device dependent spaces". Esistono spazi colore "Unrendered Image Space" o "device independent spaces" dove manca completamente il concetto di device di uscita ma questi per definizione devono essere trasformati per poter essere fruiti. Esempi di spazi colore di questa classe sono: ISO RGB, CIE XYZ, Photo YCC, and CIELAB. Uno dei paper più chiari su questo tema, probabilmente il più citato in letteratura, è il "Standard RGB Color Spaces" di Süsstrunk, Buckley e Swen. infoscience.epfl.ch/record/34089/files/SusstrunkBS99.pdf Anche loro dividono chiaramente gli spazi colore in: "Unrendered Image Space" e "Rendered Image Space" e tra questi citano appunto sRGB: "For example, sRGB is a rendered image space that describes a real output and as such, is equivalent to an output space.¨ | 
| inviato il 19 Settembre 2017 ore 22:33
Sì, sono sicuro. La differenza tra Render e Unrender riguarda un aspetto diverso. Per essere lapalissiano, la caratterizzazione o conversione o traduzione o in qualunque modo si voglia chiamare, dei dati device dipendent del sensore (cioè i dati che si trovano nel RAW) è effettuata dai profili tipo gli Adobe Standard o i Cobalt Standard, nello standard Adobe, che sono ovviamente singoli e univoci sensore per sensore. Il profilo di caratterizzazione porta da RGB sensore a PCS, è un profilo unidirezionale. I profili degli spazi teorici sono classe display e sono per definizione bidirezionali. |
|
Metti la tua pubblicità su JuzaPhoto (info) |