| inviato il 06 Dicembre 2013 ore 18:51
eheh Formha non mi credere un pazzo semplicemente sto imparando a programmare in IDL e allora mi è venuto in mente questo simpatico test, poi una volta iniziato ho un po' perso la mano a confrontare immagini. Alex sicuramente il tuo è un aspetto da approfondire, comunque fra un po' posto i risultati con i tiff... |
| inviato il 06 Dicembre 2013 ore 18:54
Tutti i passaggi però li devi fare mantenendo come spazio colore il ProPhoto altrimenti è tutto abbastanza vano. |
| inviato il 06 Dicembre 2013 ore 19:04
Alex non sono d'accordo in quanto il più delle volte le immagini le guardi in sRGB in quanto è lo standard per immagini a 8bit per canale. |
| inviato il 06 Dicembre 2013 ore 19:07
o sbaglio approccio? |
| inviato il 06 Dicembre 2013 ore 19:11
ok, ma tu stai valutando i colori che una data macchina riuscirebbe ad acquisire quindi devi fare in modo di alterare e perdere meno informazioni possibili (anche se a monitor non noterai la differenza il programma che usi per estrapolare i dati la noterà) altrimenti è come dire che una Ferrari equivale a una Panda dato che i limiti sulle strade sono quelli definiti dalla legge ma sappiamo che le auto hanno velocità ben diverse è per quello che i test vanno fatti in campo neutro dove spremerle e portarle al limite registrare i dati e trarre le dovute conclusioni che una Panda non è equiparabile a una Ferrari. |
| inviato il 06 Dicembre 2013 ore 19:13
“ eheh Formha non mi credere un pazzo semplicemente sto imparando a programmare in IDL e allora mi è venuto in mente questo simpatico test, poi una volta iniziato ho un po' perso la mano a confrontare immagini. „ Era solo l'assurdità di certi risultati che mi ricordava alcuni, altri altettanto assurdi, di DxO “ Tutti i passaggi però li devi fare mantenendo come spazio colore il ProPhoto altrimenti è tutto abbastanza vano. „ Questo spazio colore è quello che offre più margini di manovra di tutti. Il problema con il ProPhoto però, è che circa il 12% dei colori rappresentabili sono colori immaginari o perlomeno, fuori dalla gamma visibile. Per cui il rischio in questo caso, è quello di produrre risultati relativamente teorici, ...viste le finalità. Forse AdobeRGB, pur essendo meno ampio (ma più ampio di sRGB), in questo caso potrebbe esser più adatto allo scopo ...IMHO |
| inviato il 06 Dicembre 2013 ore 19:16
Formha non credo perche il gamut di una macchina fotografica e sicuramente racchiuso nel ProPhoto e a meno di non fare manovre particolari non dovrebbero andarsi a creare colori immaginari. Se poi uno elabora le immagini allora si che deve fare attenzione a non incorrere in quieti possibili problemi. |
| inviato il 06 Dicembre 2013 ore 19:17
colori immaginari nel senso di complessi o nel senso che non esistono? comunque i risultati sui jpeg mi sembrano piuttosto verosimile! Alex in effetti hai ragione, però a questo punto il discorso diventa che dovrei passare ai 16 bit visto che prophoto a 8bit rischia di essere controproducente. |
| inviato il 06 Dicembre 2013 ore 19:21
@ Alex833: ...il problema a mio avviso è che non conosciamo gli algoritmi utilizzati dal Sw per la campionatura. Essendo un "Sw che fa la conta" e se non son state prese le giuste contromisure in fase di programmazione, il rischio è quello di andar a contare fuori della spazio visibile, anche se in origine il file conteneva originariamente solo dati compresi nello spazio visibile. Non so se son riuscito a spiegarmi.... |
| inviato il 06 Dicembre 2013 ore 19:34
ragazzi per quello non c'è problema in quanto il programma che conta l'ho scritto io per cui lo tengo sotto controllo. ho aggiunto un pps dove lo spiego in breve |
| inviato il 06 Dicembre 2013 ore 19:44
“ colori immaginari nel senso di complessi o nel senso che non esistono? „ Lo spazio colore ProPhoto è uno spazio colore ampissimo, si estende persino oltre lo spazio LAB che è quello della parte visibile dall'occhio umano. I colori presenti in quello spazio eccedente non sono colori visibili. Se devo passare un'immagine da un Sw ad un'altro, il Prophoto va benissimo per non perdere informazioni e va anche bene se ho bisogno di spazio di manovra in PP per non scendere a compromessi (facendo però attenzione a non "debordare" con esagerazioni). Nel tuo caso però, la mia paura è che quel c.ca 12% di spazio oltre il LAB potesse essere considerato dal Sw che "non sa" o potrebbe "non sapere" che non deve leggere anche in quello "spazio in più". Dico questo perchè se è vero come dice Alex che " il gamut di una macchina fotografica e sicuramente racchiuso nel ProPhoto ", è altrettanto vero che il ProPhoto eccede il gamut delle DSLR. ***Edit: hai risposto mentre scrivevo, ...scusa ma avevo capito che il Sw era quello usato anche dalla Nasa, invece ti riferivi solo al linguaggio IDL... Scusami ma avevo frainteso. |
| inviato il 06 Dicembre 2013 ore 20:00
Non credo che una misurazione effettuata su jpeg a 8bit lossy possa considerarsi utile. Non tanto per lo spazio colore, posso concordare Sul tagliare il gamut a srgb o adobe rgb, ma se non usi un formato lossless come il tiff e non usi una profondità colore superiore a quella dei sensori, stai falsario i dati di input in maniera Impressionante. Sensori da 10/12/14bit e tu li compriamo tutti quanti a 8bit? Il risultato del test é per me inutile. Ti va di passarci il programma? Anche soltanto il binario, non il sorgente. |
| inviato il 06 Dicembre 2013 ore 20:06
Il gamut ti indica l'estensione ma altrettanto importante è la profondità delle sfumature. Un esempio estremo è avere una immagine a 256 colori (Windows 3.1 styles) spalmati su un gamut tipo prophoto. Molto più utile per valutare la bontà del sensore a mio parere è una immagine con profondità colore registrata su 16bit/canale in uno spazio colore comune agli scatti, tipo adobe rgb. Ovviamente senza modificare i dati raccolti comprimendoli in un jpeg |
| inviato il 06 Dicembre 2013 ore 20:08
Inoltre la demosaicizzazione ha già compromesso i risultati. Pertanto credo che il massimo sarebbe poter contare le differenze di colori dai layer del raw |
| inviato il 06 Dicembre 2013 ore 20:11
Formha ho capito cosa intendi ma penso da come ho capito il Sw analizza i pixel dell'immagine (bisogna anche vedere che dati/valori restituisce in che spazio colore). Lo spazio L ab non rappresenta la parte visibile dello spettro umano se non mi sbaglio perché avendo i valori della luminaria staccati da quelli della colore per cui riesce ad esprimere colori impossibili tipo un rosso ipersaturo ma buio praticamente impossibile da trovare in natura o da immaginare L 0 a 127 b 127. RGB è come "vede l'occhio" e L ab è come il cervello interpreta i dati che gli arrivano. Tutto questo semplificando, semplificando, semplificando molto. Se mi sbaglio correggimi. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |