Signori, tutta la accesa discussione sul tempo di scansione/elaborazione eccetera secondo me si è persa in un bicchiere d'acqua.
“ otto con tutta la buona volontà, ma come fa ad analizzare una scena 120 volte al secondo su un sensore con un readout di 1/60. „
Mactwin, tutti i tuoi sforzi nella discussione sono fondati su questa idea, ovvero che essendo il readout del sensore circa 1/60 di secondo la fotocamera possa leggere il sensore (ottenerne una immagine "completa") al massimo 60 volte al secondo, su questo concetto hai fondato praticamente tutta la tua battaglia. Ma semplicemente non è così... È un errore concettuale alla base che vanifica tutti gli sforzi e ragionamenti successivi.
Perchè si misura il readout di un sensore? Qual'è l'utilità di questo dato? Possono essercene diverse, ma la principale (soprattutto oggi che si può ben sfruttare l' "otturatore elettronico") è quella di valutare il rolling shutter della fotocamera. Quindi il tempo di readout a cosa è riferito? È il tempo che impiega la fotocamera per scansionare interamente il sensore (quindi in questo caso circa 45 milioni di "pixel") quando scatta una fotografia, e in tale circostanza ogni segnale è campionato a 14 bit.
Ripeto: quando scatta una fotografia.
Mentre la fotocamera acquisisce dati dal sensore per elaborare la messa a fuoco, ha bisogno di leggere tutti i 45 milioni di pixel e di campionarli a 14 bit ciascuno? Mactwin secondo te l'algoritmo per la sola messa a fuoco ha bisogno di immagini a piena risoluzione alla massima qualità (anche oltre un centinaio di MB ciascuna) per ogni step di valutazione della messa a fuoco?
Chiaramente no, quindi il tempo di readout pur essendo un buon indice delle capacità di lettura dei dati dal sensore non è certamente un limite diretto alla frequenza massima con cui la fotocamera può acquisire le informazioni che le servono dal sensore. (Piccola parentesi, si sono tirate in ballo nello stesso discorso anche le fotocamere Sony, le quali però non utilizzano il DPAF ed hanno un fotosito ogni 16 dedicato al rilevamento di fase, quindi a prescindere dall'errore concettuale citato sopra non ha senso riservare lo stesso ragionamento fatto per le Canon alle fotocamere Sony).
“ Otto questa è una tua interpretazione, evidentemente non hai la minima idea di cosa significhi analisi dati.
Se vuoi ti giro qualche manuale, sono qualche migliaio di pagine e serve una cultura statistica, ma posso comunque garantirti che se hai un flusso dati di 60fps non puoi analizzare, valutare e correggere l'immagine 60 volte al secondo. „
Questo è un altro errore concettuale, perchè se anche fosse che ogni acquisizione richiede 1/60 di secondo i relativi dati possono tranquillamente essere elaborati durante l'acquisizione successiva, quindi l'elaborazione non avviene in tempo reale (e questo è banalmente ovvio) ma di fatto può essere eseguita con la stessa frequenza di lettura (1/60 di secondo è un tempo enorme per un processore, tra una lettura e la successiva la fotocamera ha tutto il tempo per analizzare valutare correggere e controllare il meteo).
“ Ora se volete convincervi di una cosa che non è vera, e non può essere vera, fatelo...ma è una autoconvinzione da tifo, non da ragionamento. „
“ Leggi analizzare? io leggo scansionare, che in italiano significa scannerizzare. Da che il sistema scansiona, quindi passa l'immagine al processore, questo la deve analizzare, deve valutare eventuali correzioni di af rispetto alle informazioni dei recettori, deve correggere l'esposizione, inviare il comando all'ottica, registrare l'immagine nel formato richiesto.
Questo secondo te avviene in tempo ZERO, sensa nessuna latenza, zero, passa come se fosse una linea di trasmissione... „
Come sopra, questo ragionamento si basa sull'assunzione che terminata una lettura la scheda sul sensore debba aspettare che il processore abbia terminato la sua elaborazione dei dati. Ma è un'assunzione semplicemente ingiustificata... quindi il ragionamento è vano.
“ Otto a differenza tua i non sparo numeri a caso di segugio, mi informo e parlo solo se sono sufficientemente sicuro di quello di cui parlo.
Posso sbagliare, ci mancherebbe, sono umano, ma, come ho SEMPRE fatto anche qui, in quel caso chiedo scusa e mi correggo ammettendo l'errore, che per altro eviterò di ripetere in futuro. „
“ Tranquillo IO non mi confondo perché so molto, ma molto bene di cosa parlo. „
Ma questa sicurezza riguardo le cose che hai scritto da dove deriva? Sei partito da presupposti ingiustificati...
“ Che possa analizzare il flusso video a 120fps per riconoscere la posizione di un particolare ci potrebbe anche stare, la parte video ha quella frequenza, ma ovviamente non può usare uno stream video 8k per mettere a fuoco...diventerebbe rovente, e per altro metterebbe a fuoco su una risoluzione minore, in ogni caso...si parla di IPOTESI, e a Roma ci sta un bel detto riguardante il nonno, le palle ed un flipper. „
Qui ti stavi praticamente rispondendo da solo alle tue obiezioni. "ma ovviamente non può usare uno stream video 8k per mettere a fuoco...diventerebbe rovente". Rovente a parte, non avrebbe senso.
Anche per il refresh rate del viewfinder il discorso è analogo, se riesce a lavorare a 120 fps va' da sè che la fotocamera legge il sensore più velocemente di 1/60 di secondo a fotogramma, semplicemente non lo fa a risoluzione massima e massima profondità di bit (cosa che, appunto, ha senso solo quando si scatta una foto, non certo per l'anteprima del mirino o per l'elaborazione del sistema AF).