RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Canon r5/r6 - i segreti dell'autofocus del futuro


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Canon r5/r6 - i segreti dell'autofocus del futuro





avatarsenior
inviato il 09 Febbraio 2021 ore 0:50

mac scusa ma se consideri che le cpu attuali lavorano a Ghz, quindi miliardi di operazioni al secondo, tra una scansione e l'altra c'è veramente il tempo di fare qualuneue elaborazione

avatarsenior
inviato il 09 Febbraio 2021 ore 0:55

Pinga ma tu hai mai fatto un elaborazione immagine?
Parli di cpu di computer, a ghz che consumano per altro decine di watt, ma veramente pensi che dalla lettura del sensore, il passaggio fino al movimento dell'af impieghi tempo zero?
Ma secondo te perché hanno messo la ram sul sensore nello stacked? così per sport? bastava metterla come le altre no...tanto i processori fanno miliardi di operazioni....

Tra poco qualcuno ipotizzerà che il megaultraprocessore di Canon sarebbe capace di fermare il covid.

avatarsupporter
inviato il 09 Febbraio 2021 ore 0:57

1/68 è l'ultima misurazione "empirica" che hanno fatto, poi hanno ipotizzato qualche ritardo e arrotondato ad 1/60, come per la a9 ad 1/150:
www.dpreview.com/forums/thread/4508630?page=2
Il processore è più potente, e potrebbe esserlo molto più di quello che serve, in proporzione, per gestire i 45mpx ed il tracking, e comunque la a7r4 legge ad 1/10 e va in af-c a circa 7fps con 61mpx e realtracking e processore vecchio...insomma provane un'altra.

ed infatti non sono il solito a pensarla così:
1/60 di secondo per un processore è un tempo lunghissimo, mentre in elettronica può essere semplicemente necessario. quindi potrebbe starci che faccia 60 scansioni e 60 analisi AF.

Il collo di bottiglia potrebbe essere proprio la lettura del sensore. Mentre l'analisi fatta praticamente in real time.

Come al solito, ognuno ipotizza come gli fa più comodo.

Aspetto la cena...o la mail di Canon che mi fa fare una brutta figura.;-)

avatarsenior
inviato il 09 Febbraio 2021 ore 0:57

Mi sono rotto le :alle, divertitevi a inventare specifiche e numeri, tanto non sarebbe la prima volta.
Io vado a dormire.


No otto la cena quando mi porti un dato, non numeri che inventi a razzo di cane.

avatarsupporter
inviato il 09 Febbraio 2021 ore 1:03

Mac, non mi sono mai piaciuti quelli che prima fanno i presuntuosi, sindacano su "scansione" piuttosto che analisi, e quando hanno finito gli argomenti, pretendono di scappare con la palla.
Non puoi, non è la tua.
Poi per una cena...guarda te la offro io! comunque! MrGreen

No otto la cena quando mi porti un dato, non numeri che inventi a razzo di cane.

Sì che i tuoi invece sono scientifici, ma va là!
Come ti hanno spiegato, i 14.3ms che intercorrono tra una scansione e l'altra, tempo imposto dall'architettura del sensore, potrebbero essere assolutamente sufficienti al processore per fare tutti i calcoli, perché no? Hai qualcosa di solido per negarlo?
Ancora non mi hai risposto e stai qui a fare il professore...

avatarsenior
inviato il 09 Febbraio 2021 ore 1:22

Otto, questa è la R5 che scatta a 20 fps, se facesse 60 cicli AF al secondo ci sarebbero 3 modifiche del quadratino ogni fotogramma, invece il quadratino si muove alla stessa velocità della raffica.


avatarsenior
inviato il 09 Febbraio 2021 ore 1:24

Guarda "l'isteria" della Sony...


avatarsupporter
inviato il 09 Febbraio 2021 ore 1:32

Ma la Sony in quel video non scatta, o sbaglio? Eeeek!!!

avatarsupporter
inviato il 09 Febbraio 2021 ore 2:51

Scusate, la discussione è interessante anche perchè in azienda abbiamo una struttura che si occupa solamente di SAS ed una intera divisione che fa intelligenza artificiale. Io stesso, questo anni fa, ero sviluppatore per il settore, quindi conosco molto bene la problematica visto che ci lavoro. State dimenticando una cosa piuttosto importante che è la bontà della implementazione. Algoritmi di deep learning ce ne sono tantissimi, la teoria ne prevede parecchi, idem l'utilizzo di enormi database di “confronto”. Abbiamo una delle migliori implementazioni di BDA in Italia. Non si può oggettivare in questo modo, io posso avere una potenza di fuoco di 400 cannoni ma se non li so sfruttare, ne perdo una parte della loro effettiva resa.
Altrimenti basterebbero i dati di targa a decretare il vincitore e non è così, un pò come Davide e Golia.
Uno dei nostri elaboratori principali, esegue qualche miliardo di operazioni al secondo, ma sono misurazioni teoriche, senza vincoli infrastrutturali e, soprattutto senza il manico di chi poi sviluppa il software. Chi sviluppa, grazie a Dio, ancora oggi è un umano con i suoi limiti e con le sue genialità. L'intelligenza artificiale, gli algoritmi di deep learning sono a servizio dell'uomo, ma sono un mezzo non il fine.
Questo per dire che il dato di targa ovviamente non si supera, ma sicuramente si può peggiorare a piacimento.
Ad esempio, sullo stesso hardware girano Alexa e Siri, ma Alexa è più efficiente proprio sulla parte di deep learning.

avatarsenior
inviato il 09 Febbraio 2021 ore 4:10

Ho dato un occhio ai brevetti del quad pixel autofocus e, a parte le ovvie complicazioni del kanji, non sono riuscito a capire se la circuitiera di lettura dei pixel di autofocus possa agire in modo indipendente da quella standard dedicata alla lettura dell'intera immagine.

www.j-platpat.inpit.go.jp/p0200

L'intera immagine potrebbe essere utile solo per un af a contrasto o per applicare algoritmi di analisi sull'intero frame.
Quindi per raffinare la selezione effettuata in prima istanza dal sensore di fase presente sul sensore d'immagine.

Il massimo sarebbe quello di mettere la logica di analisi direttamente sul sensore d'immagine ma temo che gli effetti del riscaldamento potenziale sarebbero essere un problema collaterale importante.




avatarsenior
inviato il 09 Febbraio 2021 ore 4:51

Seguo MrGreen

avatarsenior
inviato il 09 Febbraio 2021 ore 6:53

3D interessante.
Mi pare, tuttavia , che l'inconciliabilità delle posizioni derivi da una non precisa conoscenza del funzionamento dei dispositivi di cui si disserta.
Innanzitutto é bene considerare che scansione o sinterizzazione sono sinonimi e, guarda caso, sono attività che includono la contemporaneità della lettura e della analisi del dato oggetto di questo rilevamento.
La frequenza di lettura del sensore é pari o superiore a quella di restituzione dell'immagine sul mirino o nella memoria della fotocamera.
La questione é ovvia in quanto senza una lettura ed analisi completa dell' immagine prodotta dal sensore, il sistema non potrebbe rigenerarla sui dispositivi periferici come mirino, display ecc.
É quindi possibile che il sensore venga letto più volte di quante il display aggiorna l'immagine oppure il processore riesce a ricostruire l'immagine definitiva.
Le letture del sensore si completano da una a n volte prima che il processore decida che quella é l'immagine buona, conforme a quello che gli indica il sistema AF, il sistema esposimetrico e gli automatismi o le impostazioni che il fotografo ha impostato.
Il problema della velocità di elaborazione viene risolta dall'architettura del sistema, dalla velocità dei processori che sono sempre più di uno anche se il chip é unico. Da anni si fa ricorso all'architettura multicore che permette le attività in multitasking.
Se una fotocamera permette di scattare a 20 fps sta a significare che deve esaurire le operazioni di acquisizione e restituzione delle immagini in un tempo inferiore a 0,05 secondi. E per farlo dovrà leggere il sensore ed analizzare i dati da una a n volte in quei 0,05 secondi. Se lo facesse 5 volte, per esempio, avrebbe una frequenza di 100 Hz ovvero di cento cicli secondo. Cioè 10 ms a ciclo, un dato per nulla inarrivabile.
Il limite alla velocità é la temperatura in quanto i dispositivi percorsi da corrente dissipano energia sotto forma di calore.
La frequenza di lettura del sensore é responsabile dei risultati: quanto maggiore é il numero dei dati disponibili tanto migliore é l'accuratezza con cui vengono prese le decisioni della fotocamera.
Quanto all'Ai o macchine learning, i primi abbozzi erano contenuti nelle funzioni program delle reflex elettroniche come, ad esempio, le Minolta 9000. All'epoca si parlava di fuzzy logic, ovvero un database che conteneva centinaia di migliaia di combinazioni possibili tempo diaframma iso e la macchina sceglieva quella che meglio si adattava alla situazione in essere.
Oggi saranno milioni ed il processore memorizza determinate combinazioni sulla frequenza con le quali l'utilizzatore le impiega. In questo modo la fotocamera "impara" le abitudini del suo utilizzatore e fornirà più velocemente le combinazioni che lo stesso ha utilizzato più spesso. Niente di trascendentale. In realtà il processore stesso memorizza le combinazioni é quindi popola il database con ulteriori informazioni.


avatarsupporter
inviato il 09 Febbraio 2021 ore 7:05

Quindi, in sostanza, con un tempo di lettura del sensore di 1/65 circa, sarebbe plausibile che la scena venga analizzata 60 volte al secondo? Eeeek!!!

avatarsupporter
inviato il 09 Febbraio 2021 ore 7:13

Secondo me sì. E' molto probabile che le informazioni che vengono fornite al pubblico siano semplificate.

avatarsenior
inviato il 09 Febbraio 2021 ore 7:35

Certamente, anzi, come minimo.
I sistemi a scansione devono avere acquisito almeno una volta tutte le informazioni. Generalmente usano dei filtri per valutare in tempo reale la bontà del dato rilevato, confrontandolo con il benchmark che il sistema ha stabilito essere l'ottimale per quella informazione. Se é buono resta, se non lo é viene scartato in attesa del successivo, se disponibile, oppure sostituito da uno che gli si avvicina.

RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)



Questa discussione ha raggiunto il limite di 15 pagine: non è possibile inviare nuove risposte.

La discussione NON deve essere riaperta A MENO CHE non ci sia ancora modo di discutere STRETTAMENTE sul tema originale.

Lo scopo della chiusura automatica è rendere il forum più leggibile, soprattutto ai nuovi utenti, evitando i "topic serpentone": un topic oltre le 15 pagine risulta spesso caotico e le informazioni utili vengono "diluite" dal grande numero di messaggi.In ogni caso, i topic non devono diventare un "forum nel forum": se avete un messaggio che non è strettamente legato col tema della discussione, aprite una nuova discussione!





 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me