| inviato il 20 Settembre 2017 ore 2:53
Per me, la tecnologia è così matura che le differenze si spingono sul non udibile e non visibile, forniscono sicuramente un margine di sicurezza elevatissimo, ma se si scatta bene basta un semplice jpg. |
| inviato il 20 Settembre 2017 ore 3:01
Per favore, non infiliamo nel discorso i sospetti di mercimonio e basso cabotaggio.... Proviamo a fare tabula rasa e a ripartire; quindi ti chiedo, nel modo più comprensibile possibile, come avviene la caratterizzazione di un dato device dipendent? O in parole povere, come si arriva a una immagine partendo da un raw? P.S. Io l'acqua al mio mulino la porto in modo onesto, senza alterare o edulcorare il succo della questione. |
| inviato il 20 Settembre 2017 ore 3:40
cos'è, un esame? per carità...ne ho già fatti troppi nella vita! Dei processi da raw a immagine ne ho già parlato fin dal mio primo post in questo topic (forse te li sei persi?). Non solo, ho anche ampiamente documentato ciò che ho asserito con ben 6 link (in tutto) di persone ritenute autorevoli (e ho già detto anche questo). Chi volesse documentarsi ha tutto quello che gli occorre, senza che si ripentano fino allo sfinimento sempre le stesse cose. Sono anche sicuro che di questo battibecco tra noi non gliene può fregare di meno a nessuno. Dunque non vedo motivi per insistere. Piuttosto tu, che mi sembri esperto, se lo ritieni opportuno potresti dare qualche informazione in più (anzi diversa , dalla mia) a questa domanda rimasta appesa, visto che la mia risposta non la ritieni valida: “ Diciamo che lavorare a 16 bit non fa male???piuttosto io non ho mai capito bene la differenza dei profili sRGB e Adobe e pro ... Se non possono essere riprodotti perché usarli? Per lo stesso motivo dei 16bit? Grazie „ Scommetto che molti apprezzerebbero parole "accessibili" e una risposta ducumentabile. Non per me eh, non me ne frega niente e la domanda non l'ho fatta io...per gli altri che leggono questa discussione. P.s.: i sospetti di mercimonio in un topic aperto in codesto modo, se permetti, sono più che leciti. Ma lasciamo cadere la cosa, che è meglio... |
| inviato il 20 Settembre 2017 ore 9:14
pagherei per vederti Raamiel mezz'oretta assieme a Olivotto.... |
| inviato il 20 Settembre 2017 ore 9:35
 |
| inviato il 20 Settembre 2017 ore 9:35
“ pagherei per vederti Raamiel mezz'oretta assieme a Olivotto.... „ Qual è il problema, Luca? Cosa avrebbe detto di sbagliato Raamiel? |
user3834 | inviato il 20 Settembre 2017 ore 10:33
Melody, posso farti vedere 1000 fotografie dove non serve che la macchina fotografica abbia più di 5 stop di gamma dinamica, questo però non significa che una macchina che ne ha 14 non serva. |
| inviato il 20 Settembre 2017 ore 10:41
Non vedo perchè un fotografo, a meno che non abbia particolari necessità, debba privarsi di un ampio gamut, oppure di una palette di colori più estesa del necessario. Domani, con tecnologie diverse, potrebbe rimpiangere la scelta fatta, a mio parere. |
| inviato il 20 Settembre 2017 ore 10:44
Ma i 30 millisecondi che risparmiate nello sviluppare ciascuna foto a 8 bit invece che a 16, esattamente come lo impiegate? Ogni 1000 foto potete scaccolarvi senza influire sul workflow? Bah... |
user3834 | inviato il 20 Settembre 2017 ore 10:46
Stessa fotografia aperta su Camera Raw, la prima con sRGB a 8 bit, la seconda con Profoto a 16 bit...

 Se guardate in alto a destra noterete una "leggera" differenza nei colori, ora ancora a chiedersi perchè lavorare con un sistema con più informazioni? |
| inviato il 20 Settembre 2017 ore 10:53
che cavolo centra il tempo? ovvio che porto a casa i raw e inizio a svilupparli in Lightroom o Camera raw e uso il massimo disponibile ...mica stiamo andando in cerca del metodo per sviluppare i raw a 8 bit di proposito!! qua si discute sul fatto che SERVONO se si stampa dimensioni assurde e SE si andranno a fare MANOVRE estreme su recuperi brutali o sulla color correction magari in Lab,a patto che il nostro hardware sia in grado di mostrarli.... qua si dimostra solo che i "buchi" nell'istogramma che fanno gridare al disastro 8 bit in condizioni anche di strapazzamento jpg 8bit NON SI VEDONO NELLA FOTO |
| inviato il 20 Settembre 2017 ore 10:55
Come sempre capisci quello che vuoi capire. Visto che sviluppare a 16 bit non costa nulla in termini né di tempo né di risorse, non ha senso discuterne, anche solo se servisse in un caso su milione. |
user3834 | inviato il 20 Settembre 2017 ore 10:57
Nella foto non si vedono differenze perchè non l'ho toccata, non mi interessa dimostrare l'ovvio, se vi piace lavorare in 8 bit e vi soddisfa fatelo tranquillamente, ma non spariamo cavolate sul fatto che non ci sia differenza, tutto qui. |
| inviato il 20 Settembre 2017 ore 11:46
@Makexaos “ i sospetti di mercimonio in un topic aperto in codesto modo, se permetti, sono più che leciti. Ma lasciamo cadere la cosa, che è meglio... „ Non è il mio...quindi gradirei essere escluso dalla lista dei sospetti. La tua affermazione originale è questa : “ Gli standard RGB (sRGB, Adobe RGB, ProPhoto, e-sRGB…) nascono apposta per convertire i dati lineari di luminanza prodotti dal sensore (riferiti alla scena) in dati codificati secondo una curva di “gamma” (riferiti all'output), ovvero in una descrizione colorimetrica più adatta alla periferica virtuale. In poche parole trasformano i dati del sensore in una immagine riproducibile da un monitor o una stampante. „ Che è errata; tu specifichi in modo palese che i profili classe display di spazi teorici operano la traduzione dai dati lineari del sensore. Ma è falso. Questo non avviene mai e non può avvenire. Siccome progetto e costruisco sia i profili di sviluppo che profili teorici, ne conosco le diversità e le caratteristiche. La pipeline di sviluppo DNG (semplificata) prevede : 1-Lettura RAW 2-Linearizzazione dei dati (perché se il sensore è lineare non è detto che lo siano i dati nel RAW) 3-Demosaicizzazione 4-Prima iterazione del WB 5-Calcolo di interpolazione per stabilire la ForwardMatrix 6-I dati passano da RGB sensore a XYZ D50 tramite la ForwardMatrix 7-I dati vengono convertiti da XYZ D50 a RIMM 8-Conversione da RIMM a HSV 9-Applicazione della HueSatMap 10-Applicazione della LookTable 11-Applicazione della ToneCurve Ed è proprio la ToneCurve ad operare una codifica della TRC, non gamma, il gamma è un esponente. La ToneCurve può essere presente o meno; ad esempio nei miei profili Repro non c'è, lasciando i dati lineari. Le operazioni tramite gli strumenti di Lightroom o CameraRAW sono fatte in RIMM; solo in fase di esportazione si decide uno spazio diverso. A quel punto la conversione è questa: RIMM -> XYZ D50 -> spazio scelto (con gli intenti e le CAT necessarie ovviamente) Quindi i profili di spazi teorici non convertono i dati grezzi del RAW, non possono. @Melodycafe “ pagherei per vederti Raamiel mezz'oretta assieme a Olivotto.... „ E cosa pensi che succederebbe?... Ci prenderemmo un caffè e parleremmo tra di noi dei vari aspetti tecnici del colore, da buoni amici, da persone civili. Magari ci faremmo quattro risate pensando a quanti ignoranti ci sono.... |
|

Metti la tua pubblicità su JuzaPhoto (info) |