JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Dici che potrebbe avere una eye-af "latente", magari pronto ad essere implementato con un nuovo fw? Credo che le possibilità la fotocamera le abbia, il sensore af è ad altissima risoluzione (mai vista prima su una reflex), ma temo anche che come l'af-c in LV sulla 1DX2 (mai arrivato) sull'ammiraglia certe funzioni, se non raggiungono uno standard di affidabilità elevato, possano non implementarle mai...
Otto....fa già qualcosa...implementare nuovi algoritmi è solo questione di tempo, ripeto...non può competere con ML perché parliamo di analisi di migliaia di punti contro milioni, e numero di punti af nettamente inferiore...ma ha buone possibilità perché hanno trovato una soluzione piuttosto intelligente e duttile.
Otto certamente ma per molti utilizzi è certamente utilizzabile perché non prende naso o capelli, tra l'altro è un immagine di un monitor, piatta, fatta di pixel, non è detto che su viso reale non si comporti meglio, è possibile che si illuminino i punti che rilevano il contrasto (quindi tanti).
Non era minimamente elencato nelle funzioni, poi dato che il funzionamento è abbastanza ovvio, si tratta di modelli di elaborazione che identificano certi parametri di un immagine. Tale elaborazione varia sulla base del numero di pixel da analizzare, se molti richiedono potenza, quindi + frame + pixel più potenza ma più precisione, se pochi l'elaborazione sarà più rapida ma meno precisa. Ma se si hanno tanti pixel si possono fare matrici riducendo i calcoli e aumentando la velocità. Il sensore dualpixel sulla nuova canon è adatto a modelli di analisi immagine, anche più avanzati dell'eye focus...meno di una ML perché ha molti meno punti, ma ha molte possibilità di ampliamento. Lo sfrutteranno? boh... la base ci sta.
Certo che vedendo sto video mi ha fatto ricordare una situazione successa la settimana scorsa in studio con un amico, che ha voluto una mano ad impostare i flash per uno shooting... È stato bello mettere l'occhio nel ovf, e scoprire che se Sony non si vede il punto af, sulla relfex quasi manco c'è, almeno fino a quando non schiacci Unica cosa, e che appunto con le reflex usi sempre il punto centrale...
A mio avviso va chiarita la questione dell'autofocus.
Tanto per fornire dei valori, l'autofocus ttl-sir a 45 punti af della eos 3 era una unità cmos di 11,3mmx6mm con circa 14000 pixel totali. L'unità era composta da sensori lineari (formati da pixel, ovviamente) verticali e orizzontali.
Nel corso degli anni tali unità cmos sono state costantemente migliorate, incrementando la superficie del sensore, numero di pixel, varietà nella disposizione dei sensori (croce, doppia croce ecc.), nonché il snr.
Sulla 1dx mark III sono passati ad una unità cmos con pixel quadrati di piccola dimensione, simili alla disposizione che si ha in un sensore d'immagine (suddivisi in tre aree).
A quanto scrivono nel white paper, il numero di pixel totali è superiore di 100 volte, rispetto alla 1dx mark II (il cui sensore af ttl-sir aveva ben più di 14000 pixel), tanto che il pixel pitch dell'unità af ttl-sir è di 6,4 micrometri: tanto per avere un termine di paragone, il sensore d'immagine ha un pixel pitch di 6,58 micrometri circa...
Insomma, sull'unità af ttl-sir della 1dx mark III siamo sull'ordine di grandezza dei milioni di pixel, per cui si sono avvicinati molto al dual pixel cmos (ovviamente non si arriva ai 20 milioni di pixel del sensore d'immagine, che è molto più grande): poi, il principio fisico su cui lavora l'autofocus ttl-sir è diverso dal dual pixel cmos, ed è necessaria una parte ottica per dividere in due i raggi di luce che provengono dall'ottica: pertanto la posizione dei punti af è fissa e non modificabile (mentre sul dual pixel vi sono migliaia di posizioni dell'area af selezionabili).
L'altra differenza significativa, rispetto alle reflex eos precedenti, è che sulla 1dx mark III hanno implementato degli algoritmi di riconoscimento pattern (volti e teste) basato su deep learning, sfruttando l'apprendimento supervisionato. Hanno creato un database contenente diverse migliaia di immagini e sulla base di queste hanno implementato e sviluppato degli algoritmi per riconoscere volti e teste.
Tali algoritmi vengono sfruttati sia dall'af ttl-sir, sfruttando il sensore dedicato all'esposizione da 400000 pixel, per il riconoscimento di pattern, che dal dual pixel cmos, che sfrutta invece il sensore d'immagine. Chiaramente, è necessaria anche una parte hardware adeguata a garantire sufficienti prestazioni, altrimenti è inutile avere algoritmi complessi per il riconoscimento di pattern, se poi il sistema è troppo lento nel rilevarli per tempo utile. Non a caso hanno introdotto un nuovo processore digic x, che lavora in accoppiata a un digic 8.
Per l'af ttl-sir non vi è una modalità di riconoscimento degli occhi, comunque: poi, può capitare che la macchina metta a fuoco gli occhi a seconda di come è orientato il volto e della profondità di campo, ma diciamo che è un caso fortuito, così come accade sulle versioni di dual pixel cmos che riconoscono i volti, ma non gli occhi.
Il dual pixel cmos implementato sulla 1dx mark III è del tutto analogo a quello implementato sulle mirrorless: anzi, è di una generazione più recente, e lavora meglio. Poi, è vero che il sensore della eos r ha 30 milioni di pixel, ma all'atto pratico le prestazioni del dual pixel cmos della 1dx mark III sono nettamente superiori, pur con 10 milioni di pixel in meno.
Hbd se osservi il video noterai che i punti af si concentrano nella zona occhi, non va sull'occhio come una ML ma come ho detto ci sono possibilità che arrivino ad implementarlo, alla fine sono modelli, oramai diffusi anche come open source in vari linguaggi e sistemi. Serve potenza ma non penso che la 1dxiii ne sia carente.
Ovviamente sono solo ipotesi ma concorderai che sull'attuale sistema sono certamente più facilitati..
E' possibile che in futuro implementino nuove funzioni autofocus, anche se personalmente sono scettico sull'efficacia della messa a fuoco sugli occhi con l'af ttl-sir e il sistema di esposizione da 400000 pixel, rispetto a quanto riesce a fare il dual pixel cmos: nel caso decidessero di agire in tal senso, comunque, si vedrà.
Purtroppo la questione non è solo tecnica, ma anche commerciale: non è la prima volta che omettono di aggiungere delle funzioni, sulle eos 1, che vengono invece implementate sulle macchine di fascia inferiore, con aggiornamenti di firmware. Le 1d mark IV, 1dx e 1dx mark II ne sono un esempio.
Dillo a me ci sono cose che ho chiesto a Canon da 20 anni e che potrebbero mettere con due byte di codice.....e fidati lo apprezzerebbero in tanti, nada. Speriamo che la concorrenza metta pepe al...
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.