| inviato il 14 Aprile 2021 ore 18:00
Salve a tutti. Quando si parla di mirrorless si legge di Eye-AF e tracking per persone, animali, volatili, etc. Ma, se ad esempio si devono fotografare auto o moto, occorre un aggiornamento del software per mettere a fuoco e seguire tali oggetti? Idem se si devono fotografare aerei? Cioè, ogni categoria diversa di oggetti richiede un "addestramento" della rete neurale (o altro sistema di AI) che la mirrorless utilizza? Ma coloro che usano reflex top (tipo D5/D6 o l'equivalente Canon) nello sport o wildlife, hanno questi sistemi AI di supporto, oppure semplicemente usano il punto centrale del mirino ottico, e seguono con questo l'azione nel mirino, cercando di tenere il punto centrale sul soggetto che vogliono sia a fuoco durante l'azione? Grazie! |
| inviato il 14 Aprile 2021 ore 18:07
No, non ci sta nessun aggiornamento (a meno che non abbia alcune macchine mai aggiornate) e tantomeno al momento esiste un sistema di identificazione del soggetto in alcuni ambiti come auto e moto (purtroppo). Alcune macchine dispongono dell'eyeaf umano (oramai quasi tutte), per animali (molte), per volatili (poche). In alcune va impostato quale di tali soggetti vuoi inquadrare in altre sceglie la macchina sulla base di ciò che identifica. Con le reflex non ci sta nessun sistema di supporto "reale", giusto le ultime due ammiraglie hanno implementato alcuni ausili come identificazione del volto o occhi, ma causa limiti imposti dal sistema stesso non è paragonabile a quanto presente su ML. Per foto di azione normalmente non si usano tali supporti, alcune (pochissime) macchine sono capaci di fornire ottimi risultati anche con automatismi. |
| inviato il 14 Aprile 2021 ore 18:59
“ Salve a tutti. Quando si parla di mirrorless si legge di Eye-AF e tracking per persone, animali, volatili, etc. Ma, se ad esempio si devono fotografare auto o moto, occorre un aggiornamento del software per mettere a fuoco e seguire tali oggetti? Idem se si devono fotografare aerei? Cioè, ogni categoria diversa di oggetti richiede un "addestramento" della rete neurale (o altro sistema di AI) che la mirrorless utilizza? Ma coloro che usano reflex top (tipo D5/D6 o l'equivalente Canon) nello sport o wildlife, hanno questi sistemi AI di supporto, oppure semplicemente usano il punto centrale del mirino ottico, e seguono con questo l'azione nel mirino, cercando di tenere il punto centrale sul soggetto che vogliono sia a fuoco durante l'azione? Grazie! „ Nel caso di Canon il deep learning è stato utilizzato solo sulle 1dx mark III, r5/r6. L'utilizzatore finale non deve eseguire alcun addestramento delle reti neurali, dato che ha già provveduto il costruttore a sviluppare gli appositi algoritmi, utilizzando numerose immagini fornite da fotografi. Al contempo, i citati algoritmi possono riconoscere certi tipi di pattern, ma non altri. Ad esempio, la 1dx mark III offre il riconoscimento automatico di volti e teste dall'autofocus ttl-sir (e anche degli occhi, in live view), ma non quello di animali: questo limite rimarrà tale, anche se si passasse molto tempo a fotografare tali tipi di soggetti. Mutatis mutandis per le r5 e r6: non esiste una opzione con una "priorità auto" o una "priorità moto", eppure sono soggetti che molti sono interessati a fotografare. Ovviamente Canon ha fatto delle scelte in relazione a quello che riteneva essere prioritario per il cliente tipico, in relazione al tipo di prodotto. Insomma, quantunque certi modelli di fotocamere utilizzino delle forme di apprendimento automatico, lato autofocus, non possono di certo imparare automaticamente a riconoscere nuovi pattern, semplicemente utilizzandole. Al limite, posto che sia fattibile, sarà il costruttore a dover intervenire sul firmware, riscrivendolo. Vi è comuque la possibilità di selezionare un'area af iniziale, e chiedere alla fotocamera di seguire il soggetto, attivando automaticamente i punti af/area af: anche se non rientra in uno dei pattern che la fotocamera può riconoscere automaticamente, questa potrà analizzare la scena tenendo conto della nitidezza e dei colori (a seconda del modello) del soggetto iniziale. Ovviamente l'efficacia del sistema dipende molto dalla fotocamera: le reflex più datate vanno mediamente peggio di quelle più recenti, dato che il sensore di esposizione ha pochi pixel e, se il modello è molto datato, in certi casi non è nemmeno in grado di rilevare i colori (e, conseguentemente, anche gli algoritmi sono molto più "rudimentali"). Anche per questo in certi casi capitava che l'autofocus perdesse la messa a fuoco sul soggetto, soprattutto a fronte di sfondi con contrasto elevato o con colori molto simili a quelli del soggetto, in particolar modo se questo occupava una porzione ridotta del fotogramma. Non che le fotocamere odierne siano esenti da errori di messa a fuoco, ma vanno decisamente meglio. E' da osservare, comunque, che tali automatismi comportano un onere computazionale maggiore, rispetto all'uso del punto af singolo, visto che la fotocamera deve eseguire molte più operazioni, che ovviamente richiedono tempi non nulli. Questo può causare dei rallentamenti più o meno marcati, a seconda del modello di fotocamera e della scena. Pertanto, SE si è in grado di mantenere il punto af singolo su una zona con sufficiente dettaglio e contrasto del soggetto da fotografare, così facendo si ha la massima reattività lato fotocamera. Ovviamente lo svantaggio è che con soggetti in rapido movimento la cosa può essere laboriosa, e l'autofocus può essere molto più rapido nel selezionare automaticamente un certo tipo di pattern, se lo riconosce, rispetto a quanto si possa fare agendo sul punto af manualmente. Ovviamente sono scelte che vanno fatte in funzione di ciò che si voglia ottenere. Personalmente, sulla 1dx mark II utilizzo il punto af singolo o al limite l'area espansa, e disattivo ogni altro automatismo, così da avere la massima reattività. Lavoro anche in priorità scatto, almeno sulla prima immagine, per cui la fotocamera risponde immediatamente al comando di scatto, a prescindere dallo stato della messa a fuoco: fotografando volatili che si muovono rapidamente e in modo erratico, questa è una impostazione che mi ha salvato più volte, soprattutto nei casi in cui l'autofocus non riesce - anche se per un brevissimo intervallo di tempo - a rilevare il soggetto, ad esempio a fronte di un controluce o di un problema simile. Comunque, già la prima 1dx aveva un sistema di riconoscimento automatico dei volti, pur se non utilizzava il deep learning: questo grazie al sensore di esposizione rgb da 100000 pixel, che consentiva di rilevare certe informazioni. Sulla 1dx mark III la risoluzione del sensore di esposizione è quadruplicata, per cui l'efficacia nel riconoscimento di volti è superiore anche per questo (oltre che per altre componenti hardware e software). |
| inviato il 14 Aprile 2021 ore 19:35
Grazie a entrambi! Grazie in particolare Hbd per la tua disamina davvero dettagliata! |
| inviato il 14 Aprile 2021 ore 21:46
il discorso sarebbe molto lungo. aggiungo a quello detto che queste tecniche di algoritmi basati su intelligenza artificiale si possono usare oggi sia perchè c'è la sufficienza potenza di calcolo, ma soprattutto perchè i numeri dei punti di AF sono abbastanza numerosi da poter riconoscere un soggetto da un altro, anche quando si muove o si gira. una volta le fotocamere avevano 3 o 5 punti di riconoscimento del fuoco ed era praticamente impossibile discriminare un auto da un pennuto da una persona. invece il sistema è perfetto se in accoppiata alle mirrorless perchè il sensore che cattura l'immagine è anche il sensore che riconosce il fuoco e quindi l'algoritmo "vede" il soggetto con tutti i suoi dettagli e lo riconosce e lo traccia. in particolare il sistema canon è quello più potente (sulla carta) perchè ogni singolo pixel è doppio, e quindi ogni pixel funziona anche come sensore del fuoco, rendendo il gioco complesso ma estremamente potente. in futuro è previsto l'arrivo dei quadpixel ancora più fine. gli algoritmi di questo tipo non hanno limite di impiego, ne di specializzazione. oggi ci sono camere ottimizzate ad esempio x gli uccelli, ma domani potrebbero benissimo essere ottimizzati per un tipo particolare di uccello, un maschio adulto di codirosso, ma non la femmina e non per il giovane per dire. così si potrebbe fare un algoritmo pensato per un tipo di mammifero in particolare, o per f1 del 2021 ma non per le f1 degli anni 80 e 90. al dilà della specializzazione, che oltre un certo livello diventa controproducente, i nuovi sistemi AF sono davvero molto evoluti e precisi anche con soggetti generici. gli algoritmi con IA hanno senso davvero solo un certi ambiti come appunto i volti. le auto, le moto e gli aerei sono abbastanza grandi, colorati e seguono traiettorie più o meno prevedibili, per cui il sistema generico è normalmente sufficiente. credo cmq che il comparto AF sia la principale ragione per passare da reflex a mirrorless almeno per quei generi di foto in cui l'af è determinante. se uno fa solo lunghe esposizioni a chiese gotiche si può tenere quel che ha. |
| inviato il 03 Giugno 2021 ore 11:50
avete visto. la canon r3 avrà l'intelligenza artificiale allenata per il motor sport. come si prevedeva ... |
| inviato il 03 Giugno 2021 ore 13:06
“ Con le reflex non ci sta nessun sistema di supporto "reale", giusto le ultime due ammiraglie hanno implementato alcuni ausili come identificazione del volto o occhi, ma causa limiti imposti dal sistema stesso non è paragonabile a quanto presente su ML. Per foto di azione normalmente non si usano tali supporti, alcune (pochissime) macchine sono capaci di fornire ottimi risultati anche con automatismi. „ veramente le reflex Nikon FF dalla D750 in poi e la serie D800 in poi hanno una specie di "hidden feature" per cui l'eye AF "funzionicchia" anche dal mirino ottico. La cosa non è documentata su nessun manuale nikon ma effettivamente funziona. Non al 100% IMHO ma funziona. Nel senso che all'atto pratico a meno che non scatti con aperture molto larghe diciamo da F4 o più stretto ti mette a fuoco sull'occhio nella maggior parte dei casi e sul viso nel 95% dei casi. Se ne è già parlato da tempo su forum stranieri tipo dporeview e fredmiranda e ci sono state delle mezze ammissioni di nikon sulla D850 dove dicono che usa un database di immagini e una sorta di algoritmi di IA che vien utilizzato anche con AF tramite pentaprisma. Come faccia non ho idea perché se c'è lo specchio davanti e non riesce ad usare l'AF del live view non so come possa fare ad elaborare l'immagine. Ma sta di fatto che in qualche modo lo fa. Magari hanno iniziato a sviluppare sulle reflex quello che poi si è visto compiutamente sulla ML Oppure è qualcosa di diverso che poi non ha visto lo sviluppo definitivo per l'introduzione massiccia delle ML. C'è da dire però che dal punto di vista concettuale sulle reflex da mirino ottico la cosa sembra molto più complicata che ML ma tant'è che qualcosa fanno e funziona nella maggior parte dei casi. Funziona addirittura con un'immagine a schermo video nel senso che sembra riconoscere l'immagine di un volto anche in un'immagine 2D, sempre a mirino ottico. Non si cosa diavolo hanno realizzato. Le mie esperienze sono sulla D850 ma dicono (io non ho provato) che va anche sulla D750 e D780 e D810 |
| inviato il 03 Giugno 2021 ore 13:37
“ il discorso sarebbe molto lungo. aggiungo a quello detto che queste tecniche di algoritmi basati su intelligenza artificiale si possono usare oggi sia perchè c'è la sufficienza potenza di calcolo, ma soprattutto perchè i numeri dei punti di AF sono abbastanza numerosi da poter riconoscere un soggetto da un altro, anche quando si muove o si gira. una volta le fotocamere avevano 3 o 5 punti di riconoscimento del fuoco ed era praticamente impossibile discriminare un auto da un pennuto da una persona. invece il sistema è perfetto se in accoppiata alle mirrorless perchè il sensore che cattura l'immagine è anche il sensore che riconosce il fuoco e quindi l'algoritmo "vede" il soggetto con tutti i suoi dettagli e lo riconosce e lo traccia. in particolare il sistema canon è quello più potente (sulla carta) perchè ogni singolo pixel è doppio, e quindi ogni pixel funziona anche come sensore del fuoco, rendendo il gioco complesso ma estremamente potente. in futuro è previsto l'arrivo dei quadpixel ancora più fine. „ Nelle reflex non è il sensore autofocus a occuparsi del rilevamento dei soggetti, bensì quello dedicato all'esposizione, che è molto piccolo ed è integrato con il gruppo pentaprisma. Fino a 10-15 anni fa i sensori dedicati all'esposizione avevano pochissimi pixel e lavoravano solo in bianco e nero: pertanto era impensabile utilizzarli per compiti simili. Inoltre la potenza di calcolo delle fotocamere era molto limitata, e quindi gli algoritmi non potevano essere complessi. Con la 1dx Canon ha introdotto una funzione di riconoscimento volti, dato che il sensore di esposizione rgb da 100000 pixel consentiva di rilevare sufficienti informazioni. L'efficacia di tale sistema è poi migliorata con la 1dx mark II e 1dx mark III, dove la risoluzione del sensore di esposizione è aumentata ulteriormente (360000 pixel e 400000 pixel). Sulla 1dx mark III hanno introdotto l'uso del deep learning per implementare gli algoritmi di riconoscimento di volti/teste, sia con l'af ttl-sir che in live view. Uno dei limiti è che i sistemi autofocus e di esposizione sono separati, per cui deve avvenire un dialogo tra i due, in modo che la macchina attivi automaticamente i punti af più opportuni, in base alle informazioni rilevate dal sensore di esposizione. Inoltre, dato che il sensore dedicato all'esposizione è molto piccolo, non possono aumentare più di tanto i pixel. Nonostante questo, ho trovato abbastanza affidabile il riconoscimento volti/teste della 1dx mark III, quando l'ho provata: un deciso miglioramento rispetto ai modelli precedenti. In live view ovviamente viene utilizzato il sensore d'immagine, che ha molti più pixel: infatti è attivo anche il riconoscimento occhi, e riesce a rilevarli anche quando il volto occupa una porzione abbastanza ridotta del fotogramma. Tuttavia riconoscimento automatico di pattern e corretto mantenimento della messa a fuoco sul soggetto sono due elementi ben distinti: a volte capita che la fotocamera riconosca correttamente il soggetto e attivi i punti af opportuni, ma poi le foto non siano a fuoco, ad esempio perché l'autofocus è troppo lento o fatica a rilevare il soggetto e a metterlo a fuoco. Questo capita anche con alcune mirrorless, a volte. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 253000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |