JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Lore ma stai trollando? Cosa c'entra il tempo di riscaldamento/raffreddamento con le performance dell'autofocus? Dai non farmi dubitare delle tua buona fede.
Comunque, la Sony ha sempre avuto dalla sua parte un tracking tenacissimo e soprattutto capace di seguire il soggetto ad una velocità incredibile, che forse - dico forse - è stata avvicinata/raggiunta dalla R3, ma che non sembra ancora caratterizzare la nuova Nikon, dove il tracking sembra sempre un po' "telefonato". La cifra della differenza la si può notare in questi due video, secondo me. Nikon Z9:
Sony a1:
Guardate nel video della a1, dal secondo 25, come si inchioda sul falco appollaiato e come ne tiene capo e occhio anche quando la fotocamera viene mossa ad una velocità assolutamente insana!
E devo ancora leggere che in area ampia, la Nikon fa decisamente meglio...e allora mi rendo conto che ognuno ci vede sempre quel che ci vuol vedere.
“ Lore ma stai trollando? Eeeek!!! Cosa c'entra il tempo di riscaldamento/raffreddamento con le performance dell'autofocus? Dai non farmi dubitare delle tua buona fede. „
Otto72, quello che hai postato è una registrazione video (difatti nei commenti si parla di video non di immagini) non c'entra nulla con il video della Z9 abbinata al 600 FL duplicato 1.4X che è stato postato.
La messa a fuoco in modalità video usa lo stesso algoritmo. E si può vedere la bontà. Poi se ti vuoi attaccare al tempo di registrazione, mi pare palese che stai cercando di mistificare. Comunque, c'è il video sopra, che conferma il comportamento assolutamente analogo anche in modalità foto. E dove la differenza, forse, è ancora più evidente. Poi ripeto uno può credere quel che vuole...sono abituato, da certi utenti (che hanno sempre dimostrato una competenza ed una obiettività poco sopra o poco sotto lo zero), a vedere negata la realtà.
Salvo lo puoi tranquillamente aprire su youtube. Per la a1, si attaccano sempre e solo al falco pescatore nascosto tra i rami nel disperato e vano tentativo di dimostrarne l'inaffidabilità. Quei dieci secondi saranno divenuti una clip salvata sugli smartphone...
No beh, ora siamo alle comiche... ma che è, scherzi a parte?
In qualunque fotocamera, le prestazioni AF in foto sono INFINITAMENTE superiori a in quelle video, ma che non scherziamo! Perchè mai dovrebbero commissionarci le sequenze di 200/300 foto, se potessero usare i video???
Lore Lore... ti ripeto che la A1 è anni luce avanti quello che si vede in quel video della Nikon. Lì forse siamo a livello di una A9 in pre-release con aggiunta riconoscimento animale. Migliorerà la Z9 in AF e si spera in maniera più celere delle varie Z7. Il tempo passa e di questi fantomatici e rivoluzionari firmware non vi è ancora traccia. Ma per quello che si è visto, ad oggi e ripeto ad oggi, la A1 vale alla grande quei 1000 bucks di listino in più.
Ci sono info sui calcoli ed aggiustamenti al secondo dell'af Nikon?
PS. Mi raccomando ora concentriamoci sulla temperatura e basiamoci tutto sul commento di un utente
Non c'è nessun oscuramento di tendina elettronica. Avete uno stacked, sveglia su!
“ - tecnologia deep learning: questa e' la cosa che più mi affascina della R3 (tecnologia condivisa con R5 ed R6) perché la macchina, letteralmente, “apprende” dall'uso che il fotografo fa della stessa, siamo ancora agli albori ma avere una AI in camera e' una cosa incredibile; „
In realta' temo siamo ancora molto lontani da questa possibilita'. Ogni algoritmo di ML si divide in due "passi" computazionali: l'addestramento (o training) e l'inferenza (classificazione o regressione). Il primo e' *molto* piu 'pesante computazionalmente del secondo e si fa tipicamente su hardware dedicato ad alte prestazioni: cluster di GPU o TPU (Tensor Processing Unit), etc. Si tratta di HW altamente energivoro che se anche venisse inserito in una fotocamera (ma non vedo come sia possibile) prosciugherebbe in pochissimo tempo la batteria e surriscalderebbe notevolmente la macchina fotografica. L'addestramento di un modello complesso di ML per computer vision, con database di immagini di grandi dimensioni, puo' richiedere anche settimane di tempo di calcolo. Il risultato dell'addestramento e' un modello che puo' essere trasferito materialmente, sotto forma di file, su hardware con prestazioni modeste (come i chip delle fotocamere di qualsiasi marca, incluso le ammiraglie) e fatto girare li' sopra per fare l'inferenza, tipicamente la classificazione: questo richiede molti, molti meno calcoli e puo' avvenire in tempo reale (e' il principio dell'edge computing, tecnologia emergente di grande interesse secondo me). Sui modelli di ML/Computer Vision usati, purtroppo Sony/Canon/Nikon mantengono un certo silenzio: se qualcuno avesse informazioni dettagliate a riguardo apprezzerei molto. Verosimilmente l'utilizzo che viene fatto e' il riconoscimento nell'immagine di oggetti ben definiti (ad esempio il volto umano o gli occhi) e la localizzazione precisa nell'immagine: a quel punto viene passata alla macchina l'istruzione di mettere a fuoco in quelle coordinate esatte del sensore. I chip onboard delle macchine fotografiche hanno abbastanza potenza ormai per effettuare questa operazione in modalita' continua nel tempo (il famoso "aggancio" e mantenimento del punto di AF). Esistono anche tecniche matematiche ad hoc, come il transfer learning, per diminuire la complessita' computazionale dell'addestramento ML e renderlo possibile anche su HW meno prestazionale, ad esempio le CPU o la GPU di un notebook ben carrozzato: anche cosi', pero', rimaniamo secondo me decisamente al di sopra delle possibilita' di ogni macchina fotografica attuale, per quanto ammiraglia sia. L'ultima cosa e poi termino questo mia lunghissima slasagnata. Per come sono strutturati gli algoritmi stato dell'arte attuali di ML/CV, servono purtroppo molte immagini per l'addestramento efficace di un algoritmo: almeno centinaia di esempi, che dovrebbero essere le immagini prodotte da un singolo utente per "imparare" lo stile fotografico personale di questa persona. C'e' un filone di ricerca che cerca di "risolvere" questo problema, lo one-shot learning, ma siamo ancora lontani da applicazioni consumer. Molto piu' semplice, ovviamente, capire quali sono le preferenze di scatto del singolo utente: tempi di scatto lenti/veloci, ISO alti/bassi, etc. Ma per questo non c'e' bisogno del machine learning.
I miei personalissimi 2 cents, e potrei ovviamente sbagliare. Se c'e' qualcuno che conosce meglio l'argomento e ha voglia di approfondire/smentire/spiegare meglio e' ovviamente molto benvenuto.
Cioè… “sensori stacked alla frusta” …. Ed invece sputt.. la Z 9 ….? Ma usatevi i vostri super gingilli e toglietevi dalla testa la Z9 che per molti di voi è diventata un'ossessione!!!
Web adesso siamo arrivati al paradosso che la registrazione di un video impegnerebbe il processore MENO del semplice inquadrare e mettere a fuoco a mirino!
La verità è che spesso in modalità video non sono nemmeno disponibili tutte le modalità ef (tipo eye af) tantomeno nei formati con bitrate più alto...
“ Cioè… “sensori stacked alla frusta” …. Ed invece sputt.. la Z 9 ….? Ma usatevi i vostri super gingilli e toglietevi dalla testa la Z9 che per molti di voi è diventata un'ossessione!!! „
Sì ora torna nelle discussioni dove si parla SOLO della Z9 e non si sputt.ana mai nulla e nessuno, ok?
Comunque, sull'af direi di chiuderla qui, come ho detto, magari aprirò una discussione apposita.
“ La realtà è che quel video mostra una qualità della A1 nel tenere il soggetto impressionante....Eeeek!!! Punto „
Salvo L. G. un conto è tenere il soggetto un altro è avere la fotografia corretta, non per niente in questo video il recensore si lamenta della scarsa precisione della A1 nella ritrattistica rispetto alla R3 e Z9.
dal minuto 10.30.
user92328
inviato il 01 Gennaio 2022 ore 18:54
“ Guardate nel video della a1, dal secondo 25, come si inchioda sul falco appollaiato e come ne tiene capo e occhio anche quando la fotocamera viene mossa ad una velocità assolutamente insana! „
Beh che dire, carta canta e come canta..... In questi due video messi da Otto l'evidenza è schiacciante.....
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.