| inviato il 25 Aprile 2025 ore 12:23
“ Qualche decennio fa si diceva " il miglior zoom sono le gambe. Il miglior obiettivo è il treppiede" oggi la risoluzione sta prendendo il posto delle gambe e lo stabilizzatore del treppiede „ Si faceva (e si fa ancora) di necessità virtù! Nel mio caso zoom/gambe a seconda delle possibilità concesse dalla situazione di ripresa. Per il treppiede in certi contesti ancora è imprescindibile. Sempre riferito alle mie esigenze . |
| inviato il 25 Aprile 2025 ore 13:03
Nella prima Olympus E-M1, che aveva, oltre all'af a contrasto, anche 9 punti af a rilevazione di fase, questi 9 punti erano ben visibili nella loro disposizione a rombo guardando il sensore. |
| inviato il 25 Aprile 2025 ore 13:25
“ Certo, in realtà la curiosità nasce per capire se effettivamente siano lo stesso sensore, anche perché stando alle misurazioni di dxo si comportano in maniera diversa. „ La Q2 ha l'ottica fissa, questo fatto può falsare le misurazioni che fa DxO, sarebbe stato interessante vedere la Leica SL2 che purtroppo non è mai stata testata da DxO. |
| inviato il 25 Aprile 2025 ore 13:45
@vincenzo Per l'autofocus nelle reflex serve un "modulo" dedicato che è un componente hardware (e relativo software) dedicato alla funzione di autofocus che usa la tecnologia a fase genericamente indicata come PDAF (Phase Detection AutoFocus) *attenzione PDAF, non DPAF, che è un'altra cosa*. I punti che dichiarano possono essere definiti tali, sono quelli che si vedono nel mirino ottico in sovraimpressione e possono avere caratteristiche e prestazioni diverse. Nelle reflex che fanno anche video, in modalità live view il loro modulo AF dedicato non viene usato. Per poter avere la funzione di autofocus in questa modalità usano la tecnica del rilevamento di contrasto, genericamente indicata come CDAF (Contrast Detection AutoFocus). Questo è solo software, non c'è nessun modulo AF esterno coinvolto. Il processore della fotocamera analizza continuamente quello che vede il sensore che sta in presa. Non ci sono punti fisici. Possono esserci dei punti virtuali (i quadratini a display), cioè delle zone più o meno ampie, ma sono solo confini definiti dal software. Quindi nelle reflex con live view di prima generazione uno esclude l'altro. Quando è in modalità normale l'otturatore è normalmente chiuso e può funzionare solo il modulo dedicato (PDAF), quando si mette in live view l'otturatore passa in modalità normalmente aperto, il sensore va in presa continua e si ingaggia il CDAF. Poi c'è una ulteriore evoluzione ma prima vediamo le mirrorless. Nelle mirrorless l'otturatore (se c'è...) è sempre in modalità normalmente aperto e si chiude brevemente solo in fase di scatto, e il sensore è sempre in presa. Sicuramente c'è l'autofocus a contrasto, ma essendo inferiore come prestazioni a quello a fase delle reflex i produttori hanno cominciato ad usare nuovi sensori con PDAF direttamente nel sensore, in cui alcuni pixel sono dedicati a questo tipo di rilevamento. Non essendoci un modulo esterno dedicato ma solo il processore della fotocamera a gestire tutto, è diventato più facile integrare e far lavorare assieme le due tecnologie, infatti la maggior parte delle mirrorless combinano l'uso di PDAF e CDAF in determinate circostanze. Un sensore mirrorless ha fisicamente 277 oppure 425 (per sparare numeri a caso) punti dedicati all'AF in tutto il sensore? Direi proprio di no dato che i punti non esistono fisicamente, chi rileva la fase sono dei pixel del sensore preposti a farlo, e sono molti di più rispetto ai punti che dichiarano. Quello che chiamano punto è un gruppo di tot pixel dedicati al PDAF e definisce una zona su cui concentrare o distribuire il calcolo. E' presentato a display con dei quadratini verdi o rossi e dalla dimensione variabile, si può impostare da molto piccolo (pinpoint) a più grande per poi passare alle aree. E' tutto software insomma. Che ce nel siano 273 o 425 o 1156 non è quello che fa la differenza prestazionale, o lo fa in minima parte, il grosso che conta è altro. Il numero dei pixel (non punti dichiarati) dedicati alla PDAF e la specifica tecnologia usata (perché ce ne sono diverse) fa parte dell'hardware e non può cambiare, mentre il numero di punti è deciso via software e volendo potrebbe cambiare con un aggiornamento firmware della macchina (ma è improbabile che un modello di macchina cambi successivamente perché significherebbe riscrivere un pezzo importante del firmware, di solito si fa per nuovi modelli, non come aggiornamento di un firmware di un modello esistente) Alcune reflex di ultima generazione chiamate ibride tipo Nikon D780 oppure Canon 5D IV per fare due esempi, hanno il loro modulo AF tradizionale ovviamente per funzionare da mirino ottico, ma hanno anche un sensore da mirrorless con PDAF e quindi in live view possono focheggiare usando sia CDAF che PDAF. Non la stessa PDAF del modulo dedicato che si usa in modalità normale da mirino ottico, ma quella integrata nel sensore. Ci sono vari tipi di implementazione della PDAF, alcuni produttori non ci danno un nome particolare, mentre Canon si, visto che lo fa diversamente da molti altri. L'implementazione di Canon si chiama Dual Pixel AutoFocus (DPAF) ma è sempre di tipo a fase. Quindi DPAF è una particolare declinazione della tipologia a fase (PDAF). In questo caso tutti i pixel del sensore sono dedicati alla funzione di AF a fase. Ma non solo Canon usa la tecnologia DualPixel, anche alcuni smartphone. In futuro nasceranno, stanno già nascendo, altre tecnologie ancora più evolute. Poi c'è quello che Panasonic chiama DFD (Depth From Defocus), che è la sua implementazione software della tecnica a contrasto (CDAF). Siccome aveva deciso di non usare la tecnologia a rilevazione di fase sul sensore, ha dovuto però alzare il livello di prestazioni del software CDAF per poter competere con gli altri produttori e ha creato questa sua specifica implementazione chiamata DFD che va ad aggiungere ai tradizionali algoritmi per la CDAF anche questa nuova tecnica. Poi comunque si è accorta che nonostante tutti gli sforzi concentrati in questa direzione i risultati non erano migliorati come si attendevano e faticavano a stare al passo con la concorrenza, soprattutto sul tracking dei soggetti, e con gli ultimi modelli ha cominciato ad usare anche lei sensori con PDAF. Non so se continuano a sviluppare e migliorare DFD attivamente come prima, suppongo abbiano per lo meno rallentato per concentrare risorse a far funzionare bene la PDAF dei nuovi sensori che usano ma continuano comunque a inserire DFD nella parte CDAF dei nuovi prodotti dato che ce l'hanno e dei buoni risultati comunque li ha dati. Nel caso di Leica Q2 dovrebbe avere il sensore della Panasonic S1R o se non lo stesso identico sicuramente molto simile, stessa base di partenza, e non ha PDAF quindi può usare solo CDAF. Tutto solo software quindi, ed è possibile che, nonostante dichiarino anche loro tecnologia DFD per l'autofocus, l'implementazione di Leica sia diversa quindi i anche i punti dichiarati e la disposizione siano diversi (probabilmente gliela fornirà Panasonic o ci lavoreranno insieme ma ognuno se la affina diversamente non ne ho idea saranno accordi tra di loro che nessuno sa). Il sensore della Q3 invece ha anche la PDAF, ma sempre per il discorso fatto in precedenza anche in questo caso ognuno può fare quello che vuole col software per cui non è detto che se qualcun'altro usa quel sensore dichiari gli stessi punti. Come già detto da altri con le mirroless non ha più senso valutare un AF in base al numero di punti dichiarati (neanche con le reflex a dire la verità oltre un certo numero perché conta anche il tipo di punto però non voglio entrare in troppi dettagli) ma a maggior ragione nelle mirrorless. E' altro quello che bisogna valutare ma molto di quello che conta non è misurabile con valutazione strumentale empirica, per cui si rischia di farsi un'idea sbagliata di quello che è il prodotto leggendo solo la scheda sintetica del produttore. |
| inviato il 25 Aprile 2025 ore 13:59
Grazie Fuzy molto esaustivo. |
| inviato il 26 Aprile 2025 ore 14:05
Non vorrei dire una stupidata ma ogni pixel di un sensore è in grado di gestire l' AF solo a contrasto dunque la scelta del numero di punti dipende solo dall'implementazione software. Per AF di fase ci vogliono invece fotodiodi specializzati ma anche qui, pur avendo lo stesdo sensore, non è detto che il sw implementato in una fotocamera li utilizzi tutti dunque potrebbero esserci drlle differenze. |
| inviato il 26 Aprile 2025 ore 19:55
Il dpaf è tutto a fase, in Canon. La seconda parte è corretta, non è detto che tu stia facendo un modello che abbia un processore che è in grado di gestire algoritmi che decidono 30/60/120 volte al secondo il ricalcolo della maf su 4/5/6/700 fotodiodi pdaf. E nemmeno è detto che sia quello lo scopo della fotocamera... Però quel sensore aveva la risoluzione giusta e l'hai usato... |
| inviato il 26 Aprile 2025 ore 20:05
Nelle Sony vengono sommati i punti a contrasto che non sono fisici e quelli a fase. Per questo ci può essere discrepanza nell'enunciazione del numero totale dei punti af. In ogni caso quello che conta è come sono utilizzati dagli algoritmi e dai processori in camera. Vedasi le prime Nikon Z che a parità di sensore andavano peggio in AF. |
| inviato il 26 Aprile 2025 ore 21:38
In pratica i punti a contrasto sono software/algoritmi, fase sul sensore, ho capito bene? |
| inviato il 26 Aprile 2025 ore 21:43
Da quello che so è così. |
| inviato il 26 Aprile 2025 ore 21:50
“ Non vorrei dire una stupidata ma ogni pixel di un sensore è in grado di gestire l' AF solo a contrasto „ I pixel del sensore non gestiscono niente, fanno i pixel e basta. Catturano la luce e passano il segnale al processore della macchina che lo elabora, non hanno intelligenza. L'autofocus a contrasto è un software che quando viene ingaggiato analizza continuamente l'immagine e prende delle decisioni riguardo al fuoco. |
| inviato il 26 Aprile 2025 ore 22:07
Proprio così, o su tutto il sensore o su porzioni più o meno grandi. Di qui la sua lentezza rispetto a quello di fase anche se estremamente preciso. Totalmente meno performante in AF continuo rispetto a quello di fase. Possono lavorare insieme in alcune modalità con il fase che sgrossa la maf ed il contrasto che aumenta la precisione. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |