| inviato il 28 Dicembre 2016 ore 18:22
In pratica prima usavano 3 strati sensibili tutti con lo stesso numero di pixel, ora usano tre strati di cui il blu ha un numero di pixel fisso mentre gli strati sensibili al verde e al rosso sono praticamente alla metà della risoluzione, i dati di luminanza vengono catturati dallo strato blu che viene integrato dalle altre informazioni tramite interpolazione. In pratica lo strato sensibile al blu ha 24 megapixel, gli strati sotto 6 megapixel cioè la metà della risoluzione. |
| inviato il 28 Dicembre 2016 ore 18:37
Sinceramente non mi é chiaro , se il foveon quattro, interpola o meno le informazioni rgb, il primo strato é 20mpx blu, gli altri due da 5mpx, quindi le informazioni rgb ci sono tutte, blu 20mpx, 5mpx Red/Green Questo é un secondo me, quindi opinabilissimo, il quattro non interpola inquanto essendo a strati il sensore e sfruttando la luce su tutti e tre gli strati che succede? Succede che ogni pixel dello strato superiore Blu, riceve la parte mancante dei dati rgb dagli strati inferiori, cosa cambia? Cambia a mio parere il rumore o disturbo, che con pixel/diodi più grandi dovrebbe essere inferiore. |
| inviato il 28 Dicembre 2016 ore 18:52
Bhè, lo vedo difficilmente migliorabile in alcuni ambiti. In paesaggistica con luce abbondante, è veramente una formula uno. Anche quando la luce scarseggia, a dire il vero, non è affatto male, imbattibile nel B/N ma anche nel colore non se la cava malaccio.
 |
| inviato il 28 Dicembre 2016 ore 19:13
Mah....io l'ho provata.Nel ritratto bocciata completamente, consuma dannatamente batterie, tra uno scatto e l'altro prendi un caffè,ed oltre i 400 iso non va bene. Certo il colore è veramente come piace a me ma così com'è vale quello che vale. Inoltre sei pure obbligato a montare solo ottiche Sigma..... |
| inviato il 28 Dicembre 2016 ore 19:14
Fatemi capire... I costruttori fanno dei sensori bellissimi,Fuji ,Sigma ,e poi non si capisce bene perché smettono Mah... |
| inviato il 28 Dicembre 2016 ore 19:16
Beh.....la Sigma continua..... ed anche la Fuji .Vedo messa meglio la Fuji .... |
| inviato il 28 Dicembre 2016 ore 19:19
Giuliano, il Foveon nel ritratto secondo me non va bene. Non è decisamente la macchina per te. |
| inviato il 28 Dicembre 2016 ore 19:20
Le ho provate un pò tutte le marche, sigma,pentax,fuji,sony,panasonic,nikon,canon, l'unica macchina veramente diversa é la Merrill, le altre sono tutte sovrapponibili. |
| inviato il 28 Dicembre 2016 ore 19:21
Ok, ora siamo ufficialmente OT. Mi sa che converrà aprire il quarantesimo topic sulla resa del foveon |
| inviato il 28 Dicembre 2016 ore 19:23
“ Le ho provate un pò tutte le marche, sigma,pentax,fuji,sony,panasonic,nikon,canon, l'unica macchina veramente diversa é la Merrill, le altre sono tutte sovrapponibili. „ Te ne manca una.... la Quattro. |
| inviato il 28 Dicembre 2016 ore 19:24
Eh no! QUI SI PARLA DI FUJI S5 PRO !!!!!! |
| inviato il 28 Dicembre 2016 ore 19:24
“ Sinceramente non mi é chiaro , se il foveon quattro, interpola o meno le informazioni rgb, il primo strato é 20mpx blu, gli altri due da 5mpx, quindi le informazioni rgb ci sono tutte, blu 20mpx, 5mpx Red/Green Questo é un secondo me, quindi opinabilissimo, il quattro non interpola inquanto essendo a strati il sensore e sfruttando la luce su tutti e tre gli strati che succede? Succede che ogni pixel dello strato superiore Blu, riceve la parte mancante dei dati rgb dagli strati inferiori, cosa cambia? Cambia a mio parere il rumore o disturbo, che con pixel/diodi più grandi dovrebbe essere inferiore. „ L'immagine RGB è sempre formata da tre canali, indipentemente da come questi sono catturati, se prendi un canale di un sensore CMOS con filtro Bayer prima che questo venga demosaicizzato vedi praticamente dei punti neri tra un pixel e l'altro, in corrispondenza di dove sono spazialmente posizionati gli altri pixel sensibili ad un canale diverso. C'è uno shift praticamente, tra un canale e l'altro. Nel foveon di seconda generazione continua a non esserci lo shift di colore tra un pixel e l'altro perchè è tutto coperto, ma spazialmente non collimano i pixel che registrano la luminanza da quelli che registrano il colore rosso e verde, se prendi i singoli canali hai appunto un'immagine a risoluzione dimezzata per in R e G, si capisce che per poter portare questi due canali alla risoluzione del canale B va fatta un'interpolazione, semplicemente non coinciderebbero altrimenti, e i valori colore vengono assegnati quindi con un'approssimazione maggiore nello spazio di quanto non si farebbe con un sensore formato da tre strati uguali. Metti questo caso specifico, hai tre linee parallele verticali che misurano quanto un pixel dello strato blu, queste tre linee sono adiacenti e ognuna di un colore diverso, blu verde e rosso. Mentre il blu può essere descritto dai pixel del primo strato le linee verde e rossa si sovrastano di posizione perchè le linee di colore sono ora più piccole dei pixel che le devono descrivere. C'è quindi un tirare ad indovinare da parte dell'algoritmo di rimappatura del colore. |
| inviato il 28 Dicembre 2016 ore 19:25
@ Ilgattonenero, ottime spiegazioni. Semplice e chiara |
| inviato il 28 Dicembre 2016 ore 19:26
La quattro, se farò la pazzia, vorrei prendere la H, il problema e che di tutta quella risoluzione non so se ne ho bisogno |
| inviato il 28 Dicembre 2016 ore 19:27
Ma toglietemi una curiosità (Susate l'OT, poi finiamo). Ho scaricato un RAW della h e mi risulta di 24MP, è giusto? Non si parlava di oltre 50MP? |
|

Metti la tua pubblicità su JuzaPhoto (info) |