| inviato il 19 Gennaio 2019 ore 14:43
Non escludo che l' interpolazione del Bayer possa essere migliore di quella del software e magari è possibile mantenere discretamente separate le informazioni sulla luminosità dei quattro pixel dal loro colore che invece dovrà per forza essere interpolato (credo). Qualcuno sa rispondere? |
| inviato il 19 Gennaio 2019 ore 14:47
Interessante |
| inviato il 19 Gennaio 2019 ore 14:59
" i fondamenti tecnici della Fotografia non cambiano col digitale." È una visione semplicistica del digitale. Non sono gli spazi, nè la frequenza di campionamento in senso assoluto a determinare le differenze tra formati. Ma è la gd a restituire con precisione il valore del singolo pixel e "qualche" legame con la dimensione c' è. Non si può negare, ma non è così scontato. |
| inviato il 19 Gennaio 2019 ore 15:24
Detta in due parole, la Schneider (come la Zeiss, come la Leitz e come tutta l'ottica) ci dice che l e pixellate e le ottiche che fanno gli occhi alle pulci, ovvero, la grande risoluzione di fotocamera ed ottica, serve solo se stampi dei lenzuoli , altrimenti, se stampi piccolo, te la sbatti sui co-glioni perché quella grande risoluzione NON la puoi vedere, l'occhio che abbiamo noi è quello che è e non è un microscopio. Quotone. |
| inviato il 19 Gennaio 2019 ore 15:24
@Alessandro per i veterani del Forum (non io, eh!) direi che abbiamo trovato in te l'erede de "L'occhiodelcigno" che tanto vivacizzava i post. È sparito improvvisamente, non si sa se per decisione propria o bannato da Juza. A me manca e a voi? |
| inviato il 19 Gennaio 2019 ore 15:54
Fin quando si confrontavano 12 mpx FF ai 12 mpx aps-c tutto aveva un senso e tutti d' accordo. Si spiegava che un singola fotodiodo FF era più grande e che quindi aveva maggior GD e miglior SNR. No, non contano solo i megapixel nel digitale. Tutto vero. Ieri come oggi. Il problema nasce alle varie densità. Basta sostituire la gamma dinamica e l' snr del singolo fotodiodo ed assegnare le considerazioni al pixel del file in uscita. Il singolo pixel di un' immagine di 12 mpx di un sensore FF ha un valore più preciso del singolo pixel di un' immagine di 12 mpx ricavata da un sensore aps-c. Questo dando per scontato che l' esposizione sia identica e che il sensore FF abbia il TEORICO stop in più di luce. Ma alla domanda sul Bayer niente? Nessuno? Qualcuno ha la possibilità di ricampionare in basso (4 volte meno) la definizione del raw per fare delle comparazioni? |
| inviato il 19 Gennaio 2019 ore 15:55
Si fa ancora il confronto fra analogico é digitale! Non é uguale! Un MF analogico per stampare un 30x40 subirà meno ingrandimenti di un 24x36! Ma la risoluzione del negativo sará similare...Quindi il MF a parità di lenti vince a mani basse! Nel digitale si ingrandiscono i pixel che se sono stati risoluti, ovvero hanno tutto le informazioni soffrono meno nell ingrandimento! Un apsc Foveon si puó equiparare tranquillamente ad un FF...come un m4/3 con ottica TOP regge un apsc... Detto in maniera grossolana! |
user86191 | inviato il 19 Gennaio 2019 ore 16:26
“ "L'occhiodelcigno" che tanto vivacizzava i post. È sparito improvvisamente, non si sa se per decisione propria o bannato da Juza. A me manca e a voi? „ mi sono chiesto che fine avesse fatto e sí mi piacerebbe risentirlo |
| inviato il 19 Gennaio 2019 ore 16:56
@Alessandro “ Ma alla domanda sul Bayer niente? Nessuno? Qualcuno ha la possibilità di ricampionare in basso (4 volte meno) la definizione del raw per fare delle comparazioni? „ Era il cavallo di battaglia del Cigno, per questo l'ho citato, sosteneva che i Bayer risolvono quattro volte meno del nominale per cui bisognava dividere per quattro (non ho mai capito cosa e come ). A complicare le cose ci sono i Foveon e l'affermazione del CEO Sigma secondo cui una Merril ha una risoluzione pari a quella di un Bayer col doppio dei Mpx. In effetti è QUASI così. Senza ricorrere alla catena di fattori MTF è disagevole discutere delle combinazioni obiettivo-sensore. Se si accetta il formalismo MTF, diventa tutto più semplice, se si è familiari con la proprietà delle FT che trasformano una serie di complicate convoluzioni in semplici prodotti. Non c'entrano niente, ma fanno qualcosa di analogo i logaritmi che "trasformano" un prodotto in una somma secondo log(a*b)=log(a)+log (b). Rileggere il 3D datato 2014 mi ha fatto tenerezza |
| inviato il 19 Gennaio 2019 ore 17:36
"non ho mai capito cosa e come" Ricampionare in basso il raw? Dxo ricampiona il raw a 8mpx per i test. Perchè noi non potremmo ricampionare a 1/4 della definizione? Potrebbe già essere così a nostra insaputa. I raw non sono esenti da manipolazioni. Il file puro e grezzo è una favola. Ma questa è una domanda per informatici. L' ottica può restarne fuori. Ottiche che non risolvono neanche 1/4 dei mpx del sensore credo che non esistano, a patto di non fare abbinamenti strampalati. Finchè non si ha una certezza a livello informatico aspetterei a trarre conclusioni. Se il Bayer risolve la metà del Foveon, ci sarebbe da pretendere la metá della risoluzione delle lenti rispetto ai mpx del sensore Bayer. Forse. Ammesso che Sigma abbia ragione. |
| inviato il 19 Gennaio 2019 ore 17:40
Ce la facciamo ad avere risposte dagli informatici? Senza incasinarci. Cerchiamo di partire da lì. |
| inviato il 19 Gennaio 2019 ore 17:59
Le risposte le trovo sulle stampe! |
| inviato il 19 Gennaio 2019 ore 18:07
Cioè? Come riconosci se hai 20 mpx effettivi o interpolati da sensore Bayer? Non è facilissimo. |
| inviato il 19 Gennaio 2019 ore 18:15
Facendo prove col tiff, posso ridimensionare e interpolare da 18,12 e nuovamente 18 senza differenze. Sono circa alla risolvenza dell' ottica. Se ridimensiono di piú, differenze ci sono. Ma non potendo campionare il raw non saprei. 4 volte meno, 2 volte meno, ecc... non saprei proprio. Non lo so. |
| inviato il 19 Gennaio 2019 ore 18:20
“ Detta in due parole, la Schneider (come la Zeiss, come la Leitz e come tutta l'ottica) ci dice che l e pixellate e le ottiche che fanno gli occhi alle pulci, ovvero, la grande risoluzione di fotocamera ed ottica, serve solo se stampi dei lenzuoli , altrimenti, se stampi piccolo, te la sbatti sui co-glioni perché quella grande risoluzione NON la puoi vedere, l'occhio che abbiamo noi è quello che è e non è un microscopio. „ e perchè con l'analogico pensi che fosse stato diverso? Sai quante volte vedevo una stampa standard e dicevo "oh che bella, la ingrandisco", poi visto l'ingrandimento mi cascavano le braccia! Secondo me, senza star lì a masturbarmi troppo con i pixel e le l/mm e MTF dell'ottica, io ho sempre notato che: - con 12mp si vedono abbastanza le differenze tra ottiche buone e meno buone - con 36mp si apprezzano ancora di più le differenze, ma anche le ottiche ciofeche a me sembrano un po' meglio in assoluto Insomma sensore e ottica contribuiscono entrambi e comunque alla qualità finale di una immagine, uno aiuta l'altro..... Lo stesso succedeva un tempo, solo che anzichè un sensore usavamo delle pellicole. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |