RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

La lente più nitida mai testata @lensrentals


  1. Forum
  2. »
  3. Obiettivi
  4. » La lente più nitida mai testata @lensrentals





avatarsenior
inviato il 22 Marzo 2019 ore 8:48

In parole povere se prendessi il 135 f.1.8 della sony che a detta di cicala e la lente piu nitida mai testata da lui su che macchina si dovrebbe montare per sfruttarla pieno



Sulla macchina che vuoi, basta che dentro ci metti una Rollei ATP 32 ...

user7851
avatar
inviato il 22 Marzo 2019 ore 9:05

Karmal, lascia perdere, vivi sulle certezze non sulle teorie, macchine e ottiche si giudicano sul campo, test in ambienti con luce controllata, pur avendo una certa validità, (per me) lasciano il tempo che trovano, per cui me ne infischio e uso il mio metro di giudizio.

avatarsenior
inviato il 22 Marzo 2019 ore 9:12

@Karmal sulla tua A7RIII andrebbe bene, su una futura A7RIV con Mpx esagerati ancora meglio, ma si sta a parlare di ingrandimenti importanti o dal 100% in su da schermo;-)

user14103
avatar
inviato il 22 Marzo 2019 ore 9:31

Sai ...mi piacciono gli estintori...

avatarsenior
inviato il 22 Marzo 2019 ore 10:30

MrGreen

avatarsenior
inviato il 22 Marzo 2019 ore 12:55

@Stefano gira e rigira, quando vuoi capire se risolvi devi fotografare caratteri piccoli possibilmente lontani...MrGreen

user14103
avatar
inviato il 22 Marzo 2019 ore 12:57


@Stefano gira e rigira, quando vuoi capire se risolvi devi fotografare caratteri piccoli possibilmente lontani...MrGreen

e quindi attualmente quale è l'accoppiata perfetta per questo ? sai che potrebbe venire bene anche in avifaunaMrGreen

avatarsenior
inviato il 22 Marzo 2019 ore 20:03

@Stefano non mi risulta che i GM vengano montati su Canon e Nikon, per forza di cose saranno A7RIII e A9. Puoi montarlo anche su una A7III, ma l'obiettivo non sarà un po' sproporzionato in termini di costo?

Per chiarezza: le 100 lp/mm sono del film "volevamo stupirvi con gli effetti speciali". Le 24 Mpx Sony semplicemente hanno i sensel troppo grossi per questo obiettivo e usano filtri AA.
Tuttavia ultimamente Brandon Dube sostiene che "probabilmente MTF99 a 10 lp/mm segnalano una capacità di microcontrasto maggiore di alte MTF a 40 lp/mm"
Se lo dice lui che progetta obiettivi Marziani...;-)

user14103
avatar
inviato il 22 Marzo 2019 ore 23:50

Ma si ma io parlo di risoluzione sensore vs ottica a prescindere che non si possano montare secondo i tuoi calcoli ... fra un po mi arrivera una fotocamera da 51 mpx e valuterò fra 42 cosa si rosica con ottiche che risolvono 100 mpx quindi farò un confronto con un 135 gm su a7r3 ed un 120 mm su 51 mpx ottiche che risolvono tranquillamente i 100...
E dove dovrebbero risolverli se sono misurate tali...su una 7d?

Lascia perdere il costo parliamo di resa poi ci sono i proprietari hassy che costano una fortuna ..... quindi ho un ottica x che risolve 100 mpx su che sensore risolve meglio ??
Apsc? FF ? Mf ? Facciamo che tutti i sensori abbiano 100 mpx.. chi vince?

avatarjunior
inviato il 23 Marzo 2019 ore 5:41

Se a pari tecnologia diminuisci troppo il pixel pitch lSNR da photon shot noise diminuisce per ciascun pixel e c'e' poco da fare ;). E questo banalmente perche' ciascun pixel produce meno segnale a parita' di stimolo luminoso


Cosa intendi nel dire che ciascun pixel produce meno segnale a parità di stimolo luminoso? Ti riferisci allo stimolo luminoso su ogni pixel o sull'intero sensore?
Il segnale é legato alle cariche libere, queste sono mediamente proporzionali al flusso luminoso, il rapporto segnale/"luce" sull'unità di superficie dipende solo dalla tecnologia del sensore, ed é globalmente indipendente dalla risoluzione fintanto che la superficie fotosensibile utile é invariata (é chiaro che aumentando la risoluzione qualcosina si perde in superficie utile, ma ad oggi e soprattutto su sensori grandi é diventata una perdita marginale).
Se dividi la superficie A di un pixel in 4 subpixel (risoluzione quadrupla), ogni subpixel riceve circa un quarto del flusso luminoso incidente su A, e produce quindi un quarto del segnale. Ma i subpixel sulla superficie A sono 4, per cui il segnale complessivo che deriva da tale superficie rimane invariato, ovvero é invariata la quantità totale di segnale dell'intero sensore, derivante dallo stesso flusso luminoso incidente. Poco importa se localmente il rumore é distribuito più ruvidamente (con maggiore contrasto), lo é su punti più fini. Osservando l'immagine da una distanza X tale da non poter distinguere punti più piccoli di quelli "equivalenti" alla superficie A, su tale superficie A l'occhio vede una media dei valori dei quattro subpixel, che é ció che vedrebbe se tale superficie fosse un pixel unico (questo per quanto riguarderebbe la luminanza senza filtro colore). Pertanto da tale distanza non si avvertirebbe maggior rumore, per vederlo bisogna poter distinguere i 4 subpixel ottenendo così anche maggior dettaglio ove altrimenti l'informazione sarebbe semplicemente più "spalmata".

Poi riguardo all'accuratezza del colore non direi proprio, perche' l'effetto diffrattivo di una matrice bayer su pixel piu' piccoli fa pesare maggiormente l'effetto diffrattivo del filtro


Non mi é chiaro il punto. É chiaro che fotositi più piccoli sono maggiormente sensibili alla diffrazione (principalmente per quanto riguarda la luminanza), ma a pari dimensione del circolo di confusione dovuto alla diffrazione una più fine distribuzione del filtro colore genera comunque una più accurata informazione sul colore, questo mi sembra abbastanza intuitivo. Non ho capito il ruolo dell'effetto diffrattivo sull'accuratezza del colore.
Sempre osservando l'immagine dalla distanza X, stessa scena ripresa, a risoluzione normale la superficie A avrebbe raccolto l'informazione di un solo colore primario, e il suo colore risulterebbe quindi da un qualche tipo di interpolazione con le informazioni derivanti dalle superfici adiacenti (informazione colore su A inquinata). In caso di risoluzione superiore (4 subpixel), la stessa superficie A gode già dell'informazione su tutti e tre i colori primari, pertanto si presenta con un colore più accurato.
Ho preso in esempio una risoluzione quadrupla per pura semplicità, il discorso é facilmente generalizzabile per generiche risoluzioni superiori.
Volendo espandere questo discorso si potrebbe argomentare di come una più fine distribuzione del filtro colore generi in realtà anche un minor rumore di luminanza osservato dalla distanza X, ma evito di complicare.


Comunque questo 135 sembra davvero una bomba... Ora che Sony ha bene o male coperto la gamma delle ottiche principali puó permettersi di affinarsi su alcuni gioielli. Sono curioso di vedere cosa sarà capace portare sul mercato.


avatarsenior
inviato il 23 Marzo 2019 ore 10:37

@Stefano avevo un presentimento che passassi ANCHE a Fuji, complimenti!MrGreen
Appena torno da ESSELUNGA arrovento la Sharp programmabileMrGreen

user14103
avatar
inviato il 23 Marzo 2019 ore 10:42

Stefano avevo un presentimento che passassi ANCHE a Fuji, 
Non passo ...implemento sony non si tocca:):)

user170878
avatar
inviato il 23 Marzo 2019 ore 10:58

“Il segnale é legato alle cariche libere, queste sono mediamente proporzionali al flusso luminoso, il rapporto segnale/"luce" sull'unità di superficie dipende solo dalla tecnologia del sensore, ed é globalmente indipendente dalla risoluzione fintanto che la superficie fotosensibile utile é invariata”

No non e' cosi' ma proprio per niente. Ti ricordo che stiamo parlando di architettura del sensore CMOS non CCD. Ogni pixel ha una circuiteria per la conversione da carica elettrica in tensione e poi da valore di tensione analogico in digitale. Ora cerchiamo di ragionare in modo razionale e semplice.
Perche' si vuole aumentare la densita'? per aumentare la frequenza spaziale di campionamento. Cosa significa? che ogni pixel sara' deputato a raccogliere l'informazione spaziale sul segnale che lo raggiunge. Fin qui spero sia pacifico. E' tutto qui, ciascun pixel fornisce un valore in bit (8 bit ad esempio da 0 a 255) che e' relativo alla porzione di segnale spazialmente campionata! Solo cosi' avro' un incremento reale della nitidezza!!! Se io accorpassi le cariche prodotte da pixel adiacenti chiaro che avrei un aumento del segnale complessivo, ma questo a discapito della capacita' di campionare con un passo piu' stretto!! Insomma, come ho gia' detto, il cane che si morde la coda :).
Ecco perche' ad esempio dxo quando rileva la gd all'aumentare dell'ISO riscala il segnale sullo stesso numero di pixel, altrimenti col piffero che la a7rii avrebbe la stessa tenuta di GD agli stessi iso della a9, ad esempio.


“Non mi é chiaro il punto. É chiaro che fotositi più piccoli sono maggiormente sensibili alla diffrazione (principalmente per quanto riguarda la luminanza), ma a pari dimensione del circolo di confusione dovuto alla diffrazione una più fine distribuzione del filtro colore genera comunque una più accurata informazione sul colore, questo mi sembra abbastanza intuitivo. Non ho capito il ruolo dell'effetto diffrattivo sull'accuratezza del colore.”

Ecco a cosa mi riferisco:
m.imgur.com/a/xTz6Y5o

Il filtro bayer su un pixel deputato alla individuazione del rosso, teoricamente, dovrebbe assorbire il verde ed il blu e far passare il rosso. In realta' dffrange la frequenza del rosso (sperando che si capisca che ci riferiamo a range di frequenze e non a frequenze singole!) ed assorbe “ anche se non perfettamente” le altre. Il filtro a matrice provoca diffrazione della luce che non e' di tipo Fraunhofer ma da campo vicino (di tipo Fresnel) quindi non lineare e non rappresentabile attraverso la comoda FT e relativi MTF.
Poi se si vuole una caratterizzazione del colore che segua l'aumento delle densita,signica aumentarei pixel soggettia filtraggio e poiche' il bayer funge ad assorbimento, questo degrada ancora l'efficienza quantica del sensore!

Insomma di problemi a far pixel piccoli “a piacere” ce ne sono e di vario genere. Ciao e buon weekend a tutti! :)).



avatarjunior
inviato il 23 Marzo 2019 ore 16:53

No non e' cosi' ma proprio per niente. Ti ricordo che stiamo parlando di architettura del sensore CMOS non CCD


Due modi diversi di rilevare lo stesso dato, uno mediante la misura della carica uno mediante la misura della tensione (con amplificazioni varie...). Il segnale ottenuto non é legato alle cariche libere e mediamente proporzionale al flusso luminoso? (che poi il segnale possa non derivare da una trasformazione lineare é un'altra cosa).
Uso il termine segnale impropriamente? Il discorso nasceva dal rumore, quindi da una distribuzione stocastica del segnale luminoso che si traduce in contributi indesiderati di variazione di luminanza tra pixel e pixel. La distribuzione del flusso luminoso é mediata su ogni pixel. Se effettuo 4 medie su quattro porzioni uguali di tale pixel, la media complessiva sul pixel rimane la stessa (a meno di quelle piccole perdite di accuratezza dovute all'approssimazione introdotta nella conversione A/D, ma qui si vorrebbe cercare il pelo nell'uovo).
Se ho usato in modo non chiaro il termine segnale, spero di aver chiarito cosa intendevo con la frase "il rapporto segnale/"luce" ... é globalmente indipendente dalla risoluzione ...", é un discorso fatto tenendo come trama il rumore.

Se io accorpassi le cariche prodotte da pixel adiacenti chiaro che avrei un aumento del segnale complessivo, ma questo a discapito della capacita' di campionare con un passo piu' stretto!!


Un attimo, secondo me non ci siamo capiti.
Il discorso per cui (a pari tecnologia eccetera...) una risoluzione superiore (alle attuali disponibili...) non sarebbe conveniente poiché genererebbe un SNR superiore, mi sembrava volesse intendere che la qualità generale delle foto sotto l'aspetto del rumore verrebbe degradata (e questo problema é stato in passato una realtà rilevante). Ovvero che, se per avere la potenzialità di ottenere un maggior dettaglio, viene poi degradata la generale qualità (parlando di rumore) di tutte le foto, allora aumentare ulteriormente la risoluzione non vale la pena. Ho capito male?
Se ho capito male, mi scuso e mi sfugge la logica del discorso.

Se ho capito male, e siamo d'accordo sul fatto che "da quella famosa distanza X l'incremento di rumore localmente più fine non viene percepito", allora avendo a disposizione una risoluzione superiore ci troviamo davanti alla possibilità di:
- ottenere foto con la stessa pulizia e definizione di quelle ottenibili a risoluzione inferiore (in realtà come ho detto ci sarebbero da fare dei discorsi sul colore...);
- ottenere foto che da una distanza X valgono quanto detto al punto sopra, e che volendole osservare da più vicino per cercare il dettaglio consentono tale capacità unitamente ad un maggiore rumore locale (é un'opportunità);
E questi due punti quando le condizioni di luce sono un problema per il rumore, perché altrimenti il terzo punto:
- ottenere foto che presentano maggiore dettaglio e per le quali il maggior rumore locale non é apprezzabile.

Se si desidera una BigMp, si desidera il dettaglio, se questa opportunità viene offerta insieme ad un rumore diversamente distribuito, più fine e maggiormente rilevante solo nell'osservare quell'incremento di dettaglio, e tutto questo non diminuisce la complessiva qualità di immagine (parlando di rumore), non vedo il problema. Il dettaglio in più ce l'hai se lo vuoi vedere, e se la luce é buona non é nemmeno detto che il rumore locale sia apprezzabilmente superiore.

Riguardo il colore, mi sembra tu voglia prendere in considerazione fattori diffrattivi di tipo fresnel dovuti ai filtri, ma oltre a concludere che l'efficienza di essi (come efficacia nel separare le frequenze pixel per pixel) cali in presenza di filtri più piccoli, come concludi che la generale distribuzione del colore (come informazione) sia peggiorata campionandolo più finemente?
L'imagine che arriva al sensore é la stessa, sempre per pura semplicità mi attengo all'esempio di una risoluzione quadrupla (il discorso come ho detto é facilmente generalizzabile), immaginando di voler ottenere il valore colore sulla superficie A:
con un solo filtro colore sulla superficie A, ho una sola informazione colore, su un solo colore primario, con una determinata precisione;
con quattro filtri separati su A, ho quattro informazioni colore, su tutti e tre i colori, con una precisione inferiore per ogni segnale (precisione inferiore dovuta anche all'interferenza dei pixel adiacenti).
Per ricostruire il colore sulla superficie A servono informazioni su tutti e 3 i colori primari. Semplificando l'algoritmo di interpolazione, per ottenere il valore colore nel primo caso devo andare a prendere in considerazione le (seppur precise) informazioni colore da superfici adiacenti, che quindi non hanno campionato la stessa luce incidente su A.
Nel secondo caso il colore viene ricostruito da 4 informazioni, meno precise, tutte ricavate dal segnale luminoso incidente su A con qualche interferenza dei pixel vicini (di superfici inferiori ad A).
Con quale logica mi spiego che nel secondo caso, per effetti diffrattivi dei filtri, la ricostruzione del colore su A sia meno precisa?



avatarsenior
inviato il 23 Marzo 2019 ore 20:26

@Karmal ti preavviso che con le Fuji hai finito di divertirti in PP perché i JPEG escono alla grande subito e sono difficili da battere partendo da RAF (mi succede da dieci anni con la s5 ProConfuso), sull'incarnato poi non c'è storia!

Se tieni fissa la superficie di un sensore, è sempre vero che più Mpx risolvono di più. Il problema nasce quando cambi classe di sensori, mi sembra che ti interessino 100 Mpx su aps-C (che prenderemo a crop 1.5 contro FF come Nikon/Sony), su FF e su MF.

Hai citato la Canon 7DII che ha lo stesso pixel pitch della Canon 5DSR. Il suo sensel è diverso perché implementa la tecnologia brevettata Dual Pixel, la 5DSR no. Essendo il pixel pitch lo stesso, la 5DSR ha 1.6^2=2.56 volte più pixel della 7DII. È un caso in cui la risoluzione, che dipende dal pixel pitch, dovrebbe essere uguale. A livello di pixel singolo la 7DII dovrebbe mostrare lo stesso SNR della 5DS(R). Da quello che riportano gli utenti delle due Canon non sembra essere così, ma è sintomatico che Canon limiti la 5DSR a 12800 ISO (S sta per StudioMrGreen). Il confronto sarebbe stato più indicativo se la 7DII non fosse Dual Pixel.

Torniamo ai 100 Mpx. Prendiamo cifre tonde per le misure dei sensori, quindi 33x44, 24x36 e 16x24 mm. Le superfici supposte utili sono 1452, 864, 384 mm2. I tre pixel pitch sono 3.81, 2.94, 1.96 µm. Le tre Nyquist sono: 131, 170, 255 lp/mm. FF e aps-C dovrebbero stare al di fuori del rischio aliasing, ma per essere realisti anche la MF perché non si costruiscono obiettivi paragonabili al Sony in questione per MF. Poi anche se uno adatta un APO iper-risolvente alla Fuji, ricordiamoci che l'obiettivo che batte il sensore ha bisogno della collaborazione di dettagli ad alte frequenze spaziali nella scena per mostrare aliasing.

La prima conclusione è che con 100 Mpx si può fare a meno del filtro AA.

Prendiamo da Lensrentals MTF89 a 30 lp/mm al centro (più che altro perché SIGMA pubblica a 30 lp/mm). Questo è un valore follemente alto. Sappiamo già che qualsiasi sensore usassimo porterà MTF89 a qualcosa di meno, vediamo quanto: MTF87.09, MTF87.86, MTF88.47 nella scaletta MF, FF, aps-C. A 30 lp/mm la differenza nelle MTF è minima, l'occhio percepisce differenze tipo 10 unità in MTF.

Naturalmente le cose cambiano se prendiamo 100 lp/mm: è MTF70 al centro (altro valore pazzesco).

Diventano MTF54.39, MTF60.45, MTF65.65.

A questo punto perché non usiamo una aps-C se mostra sempre MTF migliori?Eeeek!!!

Consideriamo il lato minore del sensore e vediamo quanta informazione ci portano i tre formati a 100 lp/mm: 3300, 2400, 1600 lp/ph, numeri che vanno raddoppiati se si cita LW/PH. Quindi con 100 Mpx e a 100 lp/mm la MF ti fa perdere in MTF (=resa del contrasto) ~ il 20% rispetto all'aps-C, in compenso ti fa guadagnare più del 100% in quanto a dettagli. Teniamo presente che 100 lp/mm è una risoluzione lunare, abbiamo visto che a 30 lp/mm le MTF cambiano di pochissimo, ma il vantaggio del 100% in più di dettagli rimane. Detto in modo alternativo: la aps-C dovrebbe essere accoppiata a un obiettivo capace di oltre 200 lp/mm per portarsi vicino alla MF. GAME OVER.MrGreen

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 242000 iscritti, c'è spazio per tutti, dal principiante al professionista.




RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me