RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

analisi numero di colori presenti in una immagine/ scientific full frame vs aps-c match. =)


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » analisi numero di colori presenti in una immagine/ scientific full frame vs aps-c match. =)





avatarjunior
inviato il 07 Dicembre 2013 ore 1:15

esatto ma solo per gli 8bit...
en.wikipedia.org/wiki/ProPhoto_RGB_color_space
qui parla di effetti di posterizzazione, che sia dovuto a questi?

tutti i file sono stati ottenuti convertendo i raw originali con rawtherapy settato con tutti i parametri di default.

avatarsenior
inviato il 07 Dicembre 2013 ore 1:31

Alex833:
Formha io intendevo che non rappresenta SOLO la parte visibile dall'occhio umano ma per come è concepito riesce a rappresentare anche colori impossibili che non esistono in natura. Quello che noi vediamo è racchiuso nello spazio L ab ma come anche tutti gli spazi colore da CMYK a RGB ProPhoto ect. L ab è moooolto più esteso così esteso che concettualmente può esprimere colori inesistenti L 0 a 127 b 127 e un colore rosso così saturo e acceso ma allo stesso tempo buio per L con valore 0.


Bhè no, ...solo il Lab e ancor di più il ProPhoto (che tu stesso consigliavi all'inizio), permettono di coprire il range delle frequenze visibili. Altri come il CMYK e l'RGB, sono abbondatemente al di sotto del gamut minimo necessario.

L'unico spazio colore che va oltre il Lab è il ProPhoto, (per la famosa percentuale di cui copra, c.ca il 12%), è proprio per questo che permette d'andare "oltre il visibile" e quindi potrebbe fornire valori non rappresentabili. Per contro, tutti i valori del Lab sono rappresentabili, nell'esempio che fai tu il colore, (come qualsiasi altro), è pari al nero proprio in virtù dell'assenza di luminosità (L 0), ...ma non è inesistente. I valori inesistenti sono quelli fuori dal range di frequenze percepibili dall'occhio umano, sono quelli che potrebbero venir fuori se si esagera con l'elaborazione in ProPhoto.

avatarjunior
inviato il 07 Dicembre 2013 ore 3:27

Salve,
Ho la seguente obiezione: una fotocamera ideale riprodurrebbe un cartoncino grigio ideale con un solo colore.
La presenza del rumore aumenta il numero di colori. Paradossalmente un numero maggiore di colori può essere peggiore in questo caso.
E` vero: se invece di un cartoncino grigio abbiamo un arcobaleno, sull'immagine digitale (ammesso che il rumore non esista) sarebbe bene trovare un numero alto di colori.
Tuttavia il rumore esiste, e le scene fotografate non sono progettate per mettere alla prova il numero di colori riproducibili. Questi due motivi messi insieme invalidano il test, secondo me.

avatarjunior
inviato il 07 Dicembre 2013 ore 9:21

@Marcoventurini
Ciao!
il tuo post mi ha fatto riflettere e allora ho deciso di fare una rapida prova con la mia d80 per valutare quanto l'informazione sia sfalsata dal rumore digitale a iso base.
In pratica ho fatto una foto con il tappo dell'obiettivo e poi ne ho contato i colori.
Il risultato è stato:
jpeg 8bit: 20
tiff srgb 8bit:701
tiff srgb 16bit (fittizio in quanto la foto originale era a 8bit):157984

Su un totale di 10milioni di pixel stiamo comunque sotto il 2%, il che mi porta a concludere che tutto sommato il test non sia poi tanto sfalsato da questo problema.
Tuttavia ammetto la mia ignoranza sugli algoritmi di demosaicizzazione ecc per cui in realtà questo confronto potrebbe non essere completamente leggittimo!
saluti!

avatarjunior
inviato il 07 Dicembre 2013 ore 9:31

Una volta tanto qualcuno si prende la briga di mettere dei numeri a supporto di una sua tesi. Il bello è che quasi sempre, tutte le considerazioni fatte prima, e supportate solo da "occhio-metria" e psicologia vanno a farsi benedire.

@Django
Perchè la formula è così ? r*256*g*256^2*b
Secondo me dovrebbe essere: 0.4*r*256*0.4*g*256*0.2*b*256 per ottenere un valore che tenga conto delle diverse sensibilità dell'occhio. Non credo cambi nulla pero'.
Ciao
Stefano

avatarsenior
inviato il 07 Dicembre 2013 ore 10:03

bravo Django era la prova che ti avrei suggerito di fare, la tesi di Marcoventuriniauti non mi convinceva per il fatto che se il rumore fosse preponderante, tale da falsare i test, allora le foto sarebbero solo una accozzaglia di pixel colorati a caso...


avatarjunior
inviato il 07 Dicembre 2013 ore 11:08

@Bass3d cosa intendi con valore che tenga conto delle diverse sensibilità dell'occhio?
comunque la formula è r+256*g+256^2*b non r*256*g*256^2*b.

lo scopo della formula non è rappresentare un colore in maniera sensata per noi o per il computer, bensì quello di restituirmi con un singolo numero tutte le possibili combinazioni rgb.

Per capirci con la tua formula 0.4*r*256*0.4*g*256*0.2*b*256 otterei il valore 0 nei casi:
r=0
g=0
b=0
il che non è quello che voglio.

avatarjunior
inviato il 07 Dicembre 2013 ore 11:17

@Pierfranco Fornasieri gli altri parametri in effetti sono più difficili da misurare ma sicuramente le potenzialità di IDL lo permettono!
Il problema è che per scrivere un programma che dia delle risposte sensate bisogna prima capire molto bene cosa chiedere alle immagini, nel caso dei colori era semplice, nel caso di un parametro come lo stacco dei piani è più difficile ma non impossibile... Si accettano consigli in tal senso!

E la maggiore capacità di catturare la luce a parità di Mpx perché i fotodiodi sono più grandi su un sensore di formato maggiore?


Ecco ad esempio su questo aspetto è già più facile fare qualche test, bisogna solo capire cosa andare a guardare, io avevo in mente una cosa del tipo:

1)maggiore capacità di catturare la luce= a parità di iso ho meno rumore
2) meno rumore= meno pixel con colori alterati rispetto al valore vero
3) foto completamente nera con meno colori contati= meno rumore= miglior sensore.

dite che potrebbe funzionare o è una cosa poco sensata?



avatarsenior
inviato il 07 Dicembre 2013 ore 11:56

Ragazzi, discorso interessante ma quando si passa alle formule il mio cervello va in pappa, potreste essere così gentili di far capire i vostri assunti anche a chi non ha una laurea in ingegneria? Sorry

In cambio io posso mandarvi tre RAW fatti alla stessa scena a luce controllata:

-uno della Mamiya ZD (Medio Formato 48x36)

-uno della 6D (FF)

-uno della x-e1 (apsc)

Che ne dite?
;-)

avatarjunior
inviato il 07 Dicembre 2013 ore 12:01

entro in punta di piedi chiedendo quanto possa poi tradursi un'analisi del genere in dati inequivocabili.
il dubbio che mi sorge è che se noi analizziamo la matrice valutando unicamente la distinzione del colore tra tutti i punti potremmo avere differenze che non rispecchiano ciò che è di nostro interesse.
per esempio se avessi ipoteticamente una matrice 3x3, da quindi 9 punti ed una da 3x4 quindi 12 punti e le confrontassi con questo software avendo ad esempio un incidenza del rumore tale da compromettere il 33% dei pixels avrei nel primo caso 3 punti falsati dal rumore otterrei 6 punti che mi danno un dato utile al ragionamento e 4 falsati su 8 utili nel secondo caso.
a fronte di uno stesso errore in proporzione avrei ipoteticamente fino a 9 valori distinti nella prima matrice (supponendo che i punti soggetti a rumore vadano in overflow saturando i 3 canali r,g,b che sarebbero interpretati comunque come 3 colori distinti fra loro) e fino a 11 (8+3 r,g,b in overflow ed almeno 1 ripetuto dal quarto pixel rumoroso) nel secondo caso, dati che porterebbero a conclusioni unicamente per numero di pixels e non per la dimensione degli stessi o la superficie sulla quale essi siano distribuiti.

non so se l'esempio calzi per bene, ma sostanzialmente quanto mi sto chiedendo e mi ha fatto nascere il dubbio è che in pratica più che alla dimensione del sensore questo tipo di analisi porti a trarre conclusioni per lo più riguardanti alla risoluzione stessa che non ad altro.
date le condizioni controllate e buone lenti probabilmente l'incidenza del rumore si limiterebbe al punto che i fotositi più ampi non causino una resa sensibilmente diversa da quelli minori dei formati infeirori e di conseguenza risulti che semplicemente ad una maggior risoluzione corrisponda una maggior varietà dei colori registrati, mentre all'atto pratico un sensore ampio potrebbe essere meno soggetto a rumore permettendo di avere meno pixels falsati la cui lettura potrebbe offrire una sfumatura diversa rispetto ad una controparte ugualmente risoluta su minor superficie.

spero di aver espresso chiaramente il mio dubbio, non vorrei esser risultato troppo controrto.

avatarjunior
inviato il 07 Dicembre 2013 ore 12:05

@Paco68 era proprio in una collaborazione di questo tipo che speravo tanto!
sarebbe perfetto!
se non ti è di troppo disturbo nel momento in cui fai le foto ne puoi fare una anche col tappo montato con gli stessi tempi e impostazioni così sottraggo anche i valori del rumore per avere un dato il più possibile preciso.

in ogni caso l'idea di fondo è questa:
è vero o no che a parità di scena inquadrata un sensore più grande ha passaggi tonali più delicati ovvero riesce a "sfumare meglio"? se è vero allora considerando che le sfumature sono dati dai diversi valori di colore dei singoli pixel più sfumature= più colori.
a partire da ciò ho contato i colori delle scene confrontando i vari risultati.
ne è uscito questo grafico(per i jpeg) dal quale si capisce che la relazione numero di colori-dimensione sensore non è così scontata come ho spesso sentito affermare.
grafico:



danke

p.s. riesci a caricare le foto su dropbox e a postare il link così da renderlo accessibile a tutti?

avatarjunior
inviato il 07 Dicembre 2013 ore 12:10

@Ainkurn ho postato nuovi risultati per quanto riguarda l'analisi dei file tiff aggingengo d7100 e d600 (uguale numero di pixel), ho anche aggiunto una colonna nel quale normalizzo i risultati ottenuti dividendo il numero di colori massimo (prophoto 16bit) per il numero di pixel totale, questo parametro in pratica mi dice la percentuale di pixel di colore diverso che riesce a discernere il sensore, e visti i risultati penso che le differenze siano fondamentalmente dovute a piccoli cambiamenti della scena inquadrata.

Per ovviare al tuo problema il top sarebbe avere foto fatte con il tappo sull'obiettivo nelle stesse condizioni delle foto di test per poter poi sottrarre il valore trovato del rumore digitale, anche se dalla prova fatta con la d80 questo contributo è sotto il 2% del totale quindi tutto sommato trascurabile.

avatarjunior
inviato il 07 Dicembre 2013 ore 12:19

@Django
La mia elucubrazione sulle sensibilità era nata dal fatto che il nostro occhio non è ugualmente sensibile a r,g, e b, ma abbiamo 40% di sensibilità per r e g e 20% per b, quindi mi sembrava interessante tenerne conto in termini numerici.
Vedi qui
La formula che hai scritto al punto 3 del tuo primo post allora è sbagliata, hai casi a 0 con uno tra r, g e b =0, e non ci sono termini additivi.
Ho capito quale dovrebbe essere il senso della formula, ma perchè è così?
Grazie
Stefano

avatarjunior
inviato il 07 Dicembre 2013 ore 12:20

hai ragone Bass scusa, ho corretto.
proverò ad essere il più chiaro possibile:
immagina di avere un pixel con valori r=123 g=7 b=79.
questa tripletta identifica univocamente un certo colore.
Ma a me non interessa quale colore sia in quanto io voglio solo contare i diversi colori
devo quindi trovare un modo per trasformare questi tre numeri in un unico numero.
So che i valori di r,g, e b sono compresi tra 0 e 255. (256 valori=2^8).
allora l'idea in pratica è di iniziare a contare il valore di r (che so non potrà mai superare 255).
arrivato a 255 gli aggiungo il valore di g moltiplicato per 256.
in questo modo avrò un numero diverso per ogni possibile coppia di valori r,g.
faccio la stessa cosa con b solo che questa volta gli aggiungo un numero che arriva al massimo a 65535, ed è per questo che lo mortiplico per 65536, in maniera tale da non rischiare di ottenere lo stesso numero per qualche strana combinazione iniziale di r,g ,b.

nel nostro esempio avremo 123+7*256+79*65536=5179259.
Questo numero è una specie di post-it che attacco ai miei 3 valori di r,g,b che non ha assulutamente alcun significato se non quello di identificare la tripletta originaria.

Da notare che questo non è l'unico modo per effettuare questa operazione, però è quello che mi è sembrato più facile da implementare.


avatarjunior
inviato il 07 Dicembre 2013 ore 12:29

@Ainkurn
Ottima osservazione, in effetti riuscire a distinguere informazione utile da campioni statistici diversi non è proprio una banalità. Alla fine un sensore con molti mpx e con molto disturbo cromatico, farebbe misurare molti piu' colori, anche se non ce ne sono, su un numero di pixel piu' alto, quindi ci sarebbe un vantaggio apparente.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.







Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me