| inviato il 23 Febbraio 2017 ore 0:58
Qualcuno sa darmi un chiarimento tecnico sui sensori? Dunque, il sensore CMOS Bayer è strutturato con quattro ricettori di luce per ogni pixel (2x2). Due per il verde, uno per il blu e uno per il rosso. Quindi possiamo dire, in termini semplici e senza usare parole troppo difficili, che ogni pixel ha al suo interno quattro "buchetti" che ricevono la luce. Leggo per il sensore di tipo X-TRANS, in pratica quello che usa Fuji, che i ricettori di luce non sono 4 ma 36, strutturati in 6x6, ossia in un quadrato con 6 ricettori per lato. Mio dubbio che vorrei chiarire: ma i 36 ricettori di luce, i "buchetti", sono tutti all'interno di ogni pixel? Ossia, posso dire che ogni pixel ha al suo interno 36 "buchetti" che ricevolo la luce? La domanda sorge perche' mi sembrano davvero tanti per stare tutti dentro un solo pixel. E se non è cosi, come è realmente? Quanti buchetti ci sono dentro ogni pixel. |
| inviato il 23 Febbraio 2017 ore 3:48
Ti ringrazio per la domanda perchè ho avuto modo di approfondire ed imparare un altro aspetto dei sensori. Premesso che la tecnologia dei CMOS è sostanzialmente la stessa, per l'X-Trans c'è una pseudo casualità nella disposizione dei vari subpixel, che garantisce che presa in considerazione una qualsiasi cella 6x6 subpixel, in ogni riga ed in ogni colonna ci sia almeno un ricettore per l'intera tripletta di colori RGB. Nella classica matrice bayer la ripetitività dello schema fisso (2 green + 1 red + 1 blu) produce l'artefatto del moirè e non garantisce una sufficiente resa cromatica perchè nello stesso raggruppamento di subpixel 6x6, preso ad esempio nel caso dell'X-Trans, ci sono una colonna ed una riga a cui manca completamente l'informazione di un colore. Questo articolo lo spiega abbastanza bene nella parte iniziale: www.giancarloparisi.net/2016/08/dietro-sensore-x-trans-fujifilm/ |
| inviato il 24 Febbraio 2017 ore 0:47
Grazie Dinuccio, sto cercando di imparare sempre più. Ho letto l'articolo ed è molto interessante. Però ancora non ho capito se sui sensori X-Trans ogni singolo pixel contiene 36 "buchetti" oppure no. 36 "buchetti" dentro ogni singolo pixel mi sembrano un po' tanti, soprattutto se paragonati ai 4 "buchetti" (2 verdi, uno blu, uno rosso) presenti sui sensori Bayer. |
| inviato il 24 Febbraio 2017 ore 2:04
Quello che chiami "buchetto" è il singolo pixel. Un sensore da 24Mpx ha 24 milioni di pixel, sui quali è sovrapposto il reticolo Bayer che è formato da una scacchiera 2x2 con quattro filtri, uno rosso, 2 verdi ed uno blu. Ci sono 2 verdi perchè la retina del nostro occhio è paricolarmente sensibile al verde. Questa scacchiera di 4 elementi ricopre tutti i 24 Mpx ripetendosi continuamente, quindi ad ogni pixel (fotodiodo) sarà sovrapposto un filtro rosso o verde o blu. In questa maniera, poichè il colore è dato dalla somma delle singole componenti primarie (1 rosso +2 verdi +1 blu) la risoluzione dovrebbe essere limitata a 6 Mpx (24:4) è l'immagine apparirebbe come un mosaico rosso, blu e verde. Per per generare un pixel di un colore con una certa tonalità, la scheda della fotocamera (che è un computer) compie una interpolazione con i quattro fotodiodi che si trovano sotto la griglia ("pattern") Bayer. Ad esempio se ho un Verde con tonalità 116 (ricordo che la profondità per ogni colore colore è di 8 bit e quindi la tonalità va da 0 a 255), un Blu con tonalità 125, un Rosso con tonalità 200 ed un altro Verde con tonalità 120, verrà ottenuto un pixel con un valore tonale di rosso pari a 200, di verde pari a 118, di blu pari a 125. Siccome ogni pixel può ricevere informazioni dai pixel circostanti, avremo una demosaicizzazione ed avremo uno scatto con tutte le tonalità di colore. Qundi l'X-trans non è in realtà un nuovo sensore ma incorpora un pattern diverso dal quello Bayer per ottenere le tonalità di colore, per cui cambia in sostanza il metodo di interpolazione delle tonalità dei singoli pixel. |
| inviato il 24 Febbraio 2017 ore 3:06
La risposta di Pablo46 ti risolve la questione. Nella sua ottima spiegazione ti ha detto ma non sottolineato una cosa importante su cui fai confusione: per ogni pixel nel sensore cmos bayer non hai assolutamente quattro "ricettori" di luce. Hai solo un filtro, rosso, blu o verde. In ogni pixel i valori delle tonalità degli altri colori vengono "ricavati" dai pixel circostanti, come ha già spiegato appunto Pablo. L'x-trans usa uno schema diverso, ovvero una disposizione dei "buchetti" differente e basata su una matrice 6x6 (come spiega Dinuccio). L'unico sensore che usa tre filtri contemporaneamente per ogni pixel (se non di più ma a tal proposito ti rimando alle discussioni dedicate, molto interessanti) è il Foveon di Sigma. In poche parole: dietro ogni "buchetto" c'è un pixel. Ogni pixel ha solo un "buchetto". Il 2x2 cmos prende 4 pixel e il 6x6 ne prende 36. Al di là dei "buchetti" buona luce e buone foto ;-) |
| inviato il 24 Febbraio 2017 ore 6:03
Direi che ci siamo quasi. Relativamente all'intervento di Pablo pongo allo stesso momento un'affermazione ed una domanda, la profondità della rappresentazione di ogni colore primario è di 12/14 14bit nei sensori più recenti. L'esempio della palette a 8bit è comunque un buon esempio per capire come funzionano le cose. Da quanto detto si comprende il motivo per cui si riscontra anche molta differenza durante lo sviluppo di un RAW, tra le varie macchine ed i vari software proprietari e non. Il risultato finale è sempre un'interpretazione delle informazioni ottenute dal sensore, e può variare notevolmente dal 'peso' che viene dato ad ogni singola componente cromatica e dagli algoritmi applicati per ricostruire l'immagine finale. Alcuni tenderanno a premiare la nitidezza, altri alcune sfumature di colore e così via.. Resta il fatto che sulla carta X-TRANS è il metodo migliore, ma anche il più complicato da elaborare. Peccato che sia un'esclusiva FUJI e comunque tanto di cappello a chi lo ha inventato, è un ottimo esempio dei risultati che si ottengono ragionando 'al di fuori degli schemi'. Piccolo OT mi è venuto in mente un particolare modo di renderizzare le immagini dei computer AMIGA con il metodo HAM: si renderizzavano 4096 colori pur avendo disponibili solo 6 bit per pixel invece dei 12 teoricamente richiesti. Fonte it.wikipedia.org/wiki/Hold_And_Modify |
| inviato il 24 Febbraio 2017 ore 8:58
“ Resta il fatto che sulla carta X-TRANS è il metodo migliore, ma anche il più complicato da elaborare. „ L'X-Trans è solo diverso, non è migliore, nè sulla carta nè nella realtà. E' stato introdotto per ridurre aliasing e moire e poter eliminare il filtro Anti-Aliasing (che riduce "meccanicamente" la risoluzione del sensore). Il problema è che, con la matrice X-Trans, si riducono le informazioni sui canali blu e rosso (ci sono meno pixel blu e rossi rispetto a un bayer classico) e questo causa una riduzione del dettaglio: a parità di sensore utilizzato il dettaglio dell'X-trans è maggiore se confrontato con un altro con filtro AA ma minore rispetto a un bayer senza filtro. Per un sensore aps-c di 16mpxl ha senso, per quelli attuali da 24 ne ha meno visto che si può fare a meno del filtro anche per i bayer. Qui sono spiegati bene pro e contro: www.dpreview.com/reviews/fujifilm-x-t2/6 Di fatto hanno si ragionato fuori dagli schemi ma poco. Usando sensori normali/commerciali con un filtro colori leggermente diverso alla fine si ottengono piccoli vantaggi e piccoli svantaggi... niente di rivoluzionario. Se l'X-trans fosse veramente il metodo migliore lo avrebbero adottato tutti... non è una questione di brevetti... |
| inviato il 24 Febbraio 2017 ore 14:23
Ho letto l'articolo di dpreview ma non sono arrivato alle stesse tue conclusioni sulla perdita del dettaglio colore blu e rosso. Dici che ce ne sono meno ma a me non risulta.. Anche il ragionamento scaturito in seguito a questa affermazione dovrebbe essere quindi rivisto. Approfondirò ulteriormente in questi giorni perché l'argomento almeno per me è molto interessante. |
| inviato il 24 Febbraio 2017 ore 14:48
“ Ho letto l'articolo di dpreview ma non sono arrivato alle stesse tue conclusioni sulla perdita del dettaglio colore blu e rosso. Dici che ce ne sono meno ma a me non risulta.. „ Non è un dubbio. Prendendo una porzione 6x6 con il bayer avremo 18 verdi, 9 rossi e 9 blu; con l'x-trans avremo 20 verdi 8 rossi e 8 blu. Cosa questo implichi lo scoprirai... |
| inviato il 24 Febbraio 2017 ore 19:20
Grazie per l'intervento Maori. E' vero ora che sono davanti al pc, rivedendo i grafici mi sono reso conto che la matrice X-TRANS al centro ha volutamente 4 ricettori verdi. Si tratta di una scelta ben precisa ma.. perchè? Avrebbero potuto riequilibrare le proporzioni tra i colori come sul BAYER (2:1:1), tenendosi il vantaggio della pseudo casualità, ma evidentemente non è così. Di fatto lo davo per scontato fino al tuo intervento Qualcuno ha una spiegazione? |
| inviato il 24 Febbraio 2017 ore 19:34
Mi autorispondo subito perchè mi sono reso conto che posizionando i due ricettori R e B al centro, dove sono presenti i 4 GREEN, risulterebbero esserci delle sequenze dello stesso colore sulla stessa riga/colonna. Immagino che così facendo si peggiorerebbe ulteriormente il risultato finale e, per questo, la soluzione in teoria banale, sia stata esclusa. |
| inviato il 25 Febbraio 2017 ore 0:47
Grazie davvero a tutti, interventi molto interessanti. Una cosa però ancora non ho capito. Dunque, in un sensore Bayer da 24 megapixel ho, appunto, 24 milioni di pixel sopra i quali è disposto un reticolo di filtri blu, verdi, rossi. In tutto avrò 12 milioni di filtri verdi, 6 milioni di filtri blu e 6 milioni di filtri rossi. Corretto? Se sì allora scaturisce la domanda: ogni pixel prende la luce o verde o rossa o blu, e in pratica è come se avessi 6 milioni di pixel. Come fa la macchina a ricavare immagini da 24 milioni di pixel dove ogni singolo pixel ha al suo interno la componente verde, quella rossa e quella blu? Grazie ancora!!!! |
| inviato il 25 Febbraio 2017 ore 5:51
Dico la mia.. e stando su un forum di fotografia faccio un esempio centrato in questo ambito. Hai presente il metering delle fotocamere per la lettura della corretta esposizione? Molte fotocamere hanno la possibilità di eseguire una valutazione matrix che fa una media della luminosità di tutta la scena, per poi scegliere il valore intermedio, al fine di utilizzare l'intera gamma dinamica disponibile e cercare di non bruciare luci e non saturare ombre. Il sensore 'dovrebbe' comportarsi in modo non molto diverso, in pratica il colore risultante di ciascun fotodiodo sarà sempre una combinazione della tripletta RGB, fino a 14 bit di profondità, di un 'intorno' più o meno grande. Immagino che si possa partire da una matrice 2x2 per poi arrivare a un qualcosa di più ampio. Immagino che ci siano algoritmi che prevedano più passate, su matrici di differente grandezza, qualora il colore del pixel non sia ben determinabile in prima battuta. Credo che i singoli algoritmi applicati varino tra i vari brand e le varie tecnologie utilizzate e che portino di conseguenza a risultati anche molto diversi. NB: Quanto detto è basato solo su miei ragionamenti e pertanto potrebbe essere diverso dalla realtà dei fatti. Provo a cercare riscontri oggettivi a mia volta e faccio sapere.. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |