| inviato il 26 Giugno 2019 ore 11:50
“ Credo che sia come dice Ulysseita, e cioè che il sistema Dual Pixel essendo digitale e di concezione diversa dagli altri sistema a fase, essendo 0-1 e non 0,99 o 1,01, debba essere istruito con un software appropriato utilizzando machine learning e magari AI. e che per fare questo abbia bisogno di una notevole potenza di calcolo e di ottimizzazioni software continue. Questo però se nel breve termine potrà essere un problema, nel lungo termine lo vedo un vantaggio. I software e la potenza di calcolo migliorano ancora in maniera esponenziale, e credo che per Canon installare nel 2020 un processore potente come quello della A9 che se non sbaglio è del 2017, sia un gioco da ragazzi. Ammesso che per il dual pixel ed un software poco ottimizzato abbisogni di un processore 2 volte più potente, se lo vedo più problematico su una fascia media, su di una pro, non avrà problemi. Al massimo monta 2-3 processori come ha sempre fatto. E cmq al mondo non esiste solo sony a progettare elettronica, microprocessori ecc... al massimo si rivolgerà ad aziende esterne ed avrà meno margine o prezzi leggermente più alti, ma volendo raggiungere a tutti i costi determinati traguardi, non credo che gli possa mancare qualcosa. Basta volerlo e pagare. „ L'utente che hai citato ha scritto una marea di inesattezze e nonsensi tecnici: purtroppo tali soggetti creano disinformazione, e i loro interventi sono particolarmente perniciosi. Il dual pixel cmos utilizza le coppie di fotodiodi presenti in ogni pixel del sensore d'immagine, per effettuare la messa a fuoco a rilevamento di fase. Il che è del tutto analogo a quanto accade sulle unità af ttl-sir delle reflex, con la differenza che qui gli array di sensori possono essere disposti con meno vincoli, visto che il sensore af si occupa solo della messa a fuoco. Tuttavia l'unità af ttl-sir, oltre ad essere decisamente più piccola del sensore d'immagine, ha molti meno pixel. Il sensore af a 45 punti della eos 3 ne aveva circa 20000 in totale: quelli delle reflex odierne ne avranno una quantità maggiore, ma anche assumendo che li abbiano decuplicati si arriverebbe a 200000. Infatti, anche con processori non particolarmente prestanti (quelli dedicati all'autofocus non sono digic) anche eos 1 di 10-15 anni fa hanno prestazioni autofocus ancora interessanti. Il sensore d'immagine di una eos r contiene 30 milioni di pixel (e 60 milioni di fotodiodi). È evidente che quindi la mole di dati in gioco sia enormemente maggiore, rispetto a quella di una reflex, per quanto concerne la messa a fuoco. La potenza di calcolo del sistema e velocità di lettura del sensore sono quindi più critiche, rispetto ad una reflex. Tuttavia, il punto è valutare di quanto: alla fine la eos r ha un solo digic 8 che deve gestire tutto, mentre una 1dx mark II ha un processore digic dedicato al sistema di esposizione, due dedicati a elaborare le immagini, più altri per l'unità af ttl-sir. Può anche darsi che con l'aggiunta di uno o eventualmente due processori, sulla eos r, le prestazioni autofocus migliorino sensibilmente, arrivando al livello di una 1dx mark II. Per il resto, sia le reflex che le mirrorless hanno software dedicati all'autofocus: vi sono delle logiche di funzionamento ad hoc per le modalità one-shot e ai-servo, così come per l'eventuale rilevamento volti e inseguimento soggetto. Insomma, se non per il fatto di utilizzare il sensore d'immagine, rispetto ad una unità ttl-sir separata, il dual pixel cmos non è poi così diverso dal sistema af di una reflex. |
| inviato il 26 Giugno 2019 ore 11:53
Ullissa , hai preso la machina con l'ibis , con il doppio slot, con una gamma dr migliore con una raffica incredibile , ma poi uno vede la tua galleria e non può non notare che le tue foto migliori siano fatte con le macchine che oggi sono indietro anni luce.....come mai??))) forse cosi il concetto ti è più chiaro...)) |
| inviato il 26 Giugno 2019 ore 12:03
Hbd, come al solito spari inesattezze su inesattezze (per essere gentili), il sistema AF dual pixel della Canon non usa tutto il sensore ma solo una piccola parte dei fotodiodi, per l'esattezza la R ne gestisce 5635 quindi moooolto meno di quelli di una reflex e tutto il tuo discorso sulla mole di dati è quindi assolutamente 'na cavolata (sempre per essere gentili). Ti atteggi sempre, ma almeno informati prima di scrivere tutte ste c@zzate |
| inviato il 26 Giugno 2019 ore 12:05
“ L'utente che hai citato ha scritto una marea di inesattezze e nonsensi tecnici: purtroppo tali soggetti creano disinformazione, e i loro interventi sono particolarmente perniciosi. Il dual pixel cmos utilizza le coppie di fotodiodi presenti in ogni pixel del sensore d'immagine, per effettuare la messa a fuoco a rilevamento di fase. Il che è del tutto analogo a quanto accade sulle unità af ttl-sir delle reflex, con la differenza che qui gli array di sensori possono essere disposti con meno vincoli, visto che il sensore af si occupa solo della messa a fuoco. Tuttavia l'unità af ttl-sir, oltre ad essere decisamente più piccola del sensore d'immagine, ha molti meno pixel. Il sensore af a 45 punti della eos 3 ne aveva circa 20000 in totale: quelli delle reflex odierne ne avranno una quantità maggiore, ma anche assumendo che li abbiano decuplicati si arriverebbe a 200000. Infatti, anche con processori non particolarmente prestanti (quelli dedicati all'autofocus non sono digic) anche eos 1 di 10-15 anni fa hanno prestazioni autofocus ancora interessanti. Il sensore d'immagine di una eos r contiene 30 milioni di pixel (e 60 milioni di fotodiodi). È evidente che quindi la mole di dati in gioco sia enormemente maggiore, rispetto a quella di una reflex, per quanto concerne la messa a fuoco. La potenza di calcolo del sistema e velocità di lettura del sensore sono quindi più critiche, rispetto ad una reflex. Sia le reflex che le mirrorless hanno software dedicati all'autofocus: vi sono delle logiche di funzionamento ad hoc per le modalità one-shot e ai-servo, così come per l'eventuale rilevamento volti e inseguimento soggetto. Insomma, se non per il fatto di utilizzare il sensore d'immagine, rispetto ad una unità ttl-sir separata, il dual pixel cmos non è poi così diverso dal sistema af di una reflex. „ HBD , sei sempre piacevole come una radica , non nel cruscotto ma nel deretano. Dove avrei scritto inesattezze e dove avresti scritto te qualcosa di piu' di quello che chiunque trova cercando su wikipedia o simili? A me fanno impazzire le tue affermazioni che sembrano sempre il messaggio preregistrato quando il callcenter va in pausa caffe.. “ Il dual pixel cmos utilizza le coppie di fotodiodi presenti in ogni pixel del sensore d'immagine, per effettuare la messa a fuoco a rilevamento di fase. Il che è del tutto analogo a quanto accade sulle unità af ttl-sir delle reflex, con la differenza che qui gli array di sensori possono essere disposti con meno vincoli, visto che il sensore af si occupa solo della messa a fuoco. Tuttavia l'unità af ttl-sir, oltre ad essere decisamente più piccola del sensore d'immagine, ha molti meno pixel. Il sensore af a 45 punti della eos 3 ne aveva circa 20000 in totale: quelli delle reflex odierne ne avranno una quantità maggiore, ma anche assumendo che li abbiano decuplicati si arriverebbe a 200000. Infatti, anche con processori non particolarmente prestanti (quelli dedicati all'autofocus non sono digic) anche eos 1 di 10-15 anni fa hanno prestazioni autofocus ancora interessanti. „ Ora dimmi.. oltre ad un copia incolla.. COSA HAI AGGIUNTO A CIO CHE SANNO TUTTI COLORO CHE HAN LETTO UN DEPLIANT? solo inesattezze? Consiglio a chi voglia leggere PIU di un depliant.. cioè HBD che o posta ste cose o scrive , ripetutamente e circa 3 volte a settimana che "l'adattatore non consente tolleranze degne.. quindi adattare non e' una cosa professionale, bla bla bla" .. Una bella lettura: www.exclusivearchitecture.com/?page_id=1291 www.exclusivearchitecture.com/?page_id=1332 sintesi? "With contrast detection made obsolete, the speed is drastically increased. On-sensor phase detection is still not as fast as conventional phase detecion systems because it takes longer to evaluate the signal of all Dual Pixels while for conventional PD systems the sensor is reduced to a minimum. Still, Dual Pixel CMOS AF is a great invention and takes focusing during live-view or video shooting to the next level." |
| inviato il 26 Giugno 2019 ore 12:05
Il touch esattamente cosa avrebbe che non va? In video è ottimo, in foto se vuoi selezionare il punto af funziona altrettanto bene. Ok non scelgo i menu ma me ne sbatto se è bagnato non funziona ed è più lento che usare la rotella e anche scomodo. Per scorrere le foto tipo smartphone anche no, scomodissimo con 1kg e mezzo di attrezzatura in mano. E poi il doppio tap ingrandisce e si possono scorrere le foto. Detto questo cosa avrebbe che non va? Al massimo manca un touch to focus and shoot in modalità foto. |
| inviato il 26 Giugno 2019 ore 12:07
“ Ullissa , hai preso la machina con l'ibis , con il doppio slot, con una gamma dr migliore con una raffica incredibile , ma poi uno vede la tua galleria e non può non notare che le tue foto migliori siano fatte con le macchine che oggi sono indietro anni luce.....come mai??))) forse cosi il concetto ti è più chiaro...)) „ ti riferisci alla donna dell'Ulisso? Forse viaggiavo di piu prima e oggi lavoro e non posto i miei lavori su Juza? no? |
| inviato il 26 Giugno 2019 ore 12:12
non fare il timido Ulisso, posta qualcosa cosi vediamo le differenze e passiamo tutti a Sony...dai dai.. |
| inviato il 26 Giugno 2019 ore 12:14
Sarai del 71 però sento odore di adolescenza nelle tue parole |
| inviato il 26 Giugno 2019 ore 12:17
e io di grande timidezza...con gli anni passerà..)) |
| inviato il 26 Giugno 2019 ore 12:39
I post, quelli utili... |
| inviato il 26 Giugno 2019 ore 12:41
@HBD non parlavo di architettura, ma di logica di funzionamento. Un rilevamento digitale 0 0 o 1 (quello del dual pixel), non è un rilevamento analogico che può essere 0,98 o 1,01 Nel caso dell'analogico (autofocus a rilevamento di fase), se la lettura è 0,99 l'autofocus sa in che direzione andare e di quanto. Di pochissimo ed in direzione crescente. Nel caso del digitale il segnale o è 1 (a fuoco) o 0, cioè non a fuoco. Ora noi non sappiamo esattamente come è stato progettato e il software che lo comanda, ma mi viene da pensare che se il valor restituito dal pixel è 0, l'autofocus non sappia esattamente da che parte andare e di quanto! Sa soltanto che è fuori fuoco. Andrà a tentativi un pochino avanti o un pochino indietro? non è dato saperlo. Ed in questo sta sicuramente la maggiore difficoltà di canon nel progettarlo e metterlo a punto. In più, il calcolo dovrà essere fatto su 24.000.000 di pixel per dire e non su 1000. Quì serve un software scritto bene (1000 gruppi di X pixel?) e la potenza di calcolo enormemente più grande. Però non ho dubbi che in qualche modo dalla matassa ne escano fuori anche grazie all'aumento di potenza di calcolo dei nuovi processori e al machine learning e all'AI. Anzi, sono sicuro che sul lungo termine il dual pixel o quad pixel (come si vociferava), potrà essere più performante e programmabile di un sistema "Analogico" |
| inviato il 26 Giugno 2019 ore 12:49
“ EDIT: Con gli adattatori con la ghiera programmabile e con il filtro polarizzatore ho anche funzionalità in più! [...] ed è una goduria utilizzare il 135 con la comoda ghiera per modificare l'esposizione e vedere ovviamente nell'EVF il risultato in tempo reale corredato da istogramma! „ non è una funzionalità in più, è una furbata per farti spendere i soldi dell'adattatore con la ghiera. Le altre macchine (ML Sony e Nikon, o le reflex canon) le ghiere le hanno sul corpo... con le ML, invece, Canon le ghiere le ha levate dal corpo. Tanto c'è un pratico adattatore da 200 euro, per riaverla... |
| inviato il 26 Giugno 2019 ore 12:54
“ @HBD non parlavo di architettura, ma di logica di funzionamento. Un rilevamento digitale 0 0 o 1 (quello del dual pixel), non è un rilevamento analogico che può essere 0,98 o 1,01 Nel caso dell'analogico (autofocus a rilevamento di fase), se la lettura è 0,99 l'autofocus sa in che direzione andare e di quanto. Di pochissimo ed in direzione crescente. Nel caso del digitale il segnale o è 1 (a fuoco) o 0, cioè non a fuoco. Ora noi non sappiamo esattamente come è stato progettato e il software che lo comanda, ma mi viene da pensare che se il valor restituito dal pixel è 0, l'autofocus non sappia esattamente da che parte andare e di quanto! Sa soltanto che è fuori fuoco. Andrà a tentativi un pochino avanti o un pochino indietro? non è dato saperlo. „ Quanto scritto sopra non è corretto (e la questione "digitale" e "analogico" non ha molto senso, per come è formulata). Anche il dual pixel cmos esegue la messa a fuoco a rilevamento di fase. Semplicemente, invece di utilizzare una unità af dedicata, utilizza i fotodiodi del sensore d'immagine. Il sistema riesce pertanto a valutare se l'immagine sia a fuoco o meno, e a determinare in quale direzione muovere il motore af dell'ottica. Il dual pixel cmos non lavora a rilevamento di contrasto... |
| inviato il 26 Giugno 2019 ore 12:58
.. continua il depliant.. Pontefice n2 ... il n1 sappiamo tutti chi e' "With contrast detection made obsolete, the speed is drastically increased. On-sensor phase detection is still not as fast as conventional phase detection systems because it takes longer to evaluate the signal of all Dual Pixels while for conventional PD systems the sensor is reduced to a minimum . Still, Dual Pixel CMOS AF is a great invention and takes focusing during live-view or video shooting to the next level." capisci l'inglese? Ah no.. lui e' uno di quelli che se rispondi IGNORA aspettando che tutti dimentichino la conversazione per riproporre le esatte parole ad altri.. |
| inviato il 26 Giugno 2019 ore 12:59
@Hbd Hai ragione, il sistema da se riesce a determinare la direzione esatta per mettere a fuoco. Resta però il grosso problema di doverlo calcolare su 24 milioni di sensori piuttosto che su 1000 Ma come detto, immagino che trovare processori più potenti e scrivere un software più preciso sia solo una questione di tempo. Altro problemino da risolvere è il rilevamento di fase orizzontale e non solo verticale. O per lo meno così sembrerebbe essere. Mi pare ci fosse anche un brevetto per "Spaccare il pixel in 4". The increased resolution of specialized phase detection cells is what allows Dual Pixel CMOS AF to perform phase detection with extreme accuracy as the phase difference can be brought to coincidence by fine increments. For that reason, phase detection can be used as the only autofocus system and contrast detection is not required. Looking at the diagram below, the increased resolution of specialized cells is clearly visible and explains why the phase-matches can be determined more precisely. Dual Pixel CMOS AF Phase Detection
With contrast detection made obsolete, the speed is drastically increased. On-sensor phase detection is still not as fast as conventional phase detecion systems because it takes longer to evaluate the signal of all Dual Pixels while for conventional PD systems the sensor is reduced to a minimum. Still, Dual Pixel CMOS AF is a great invention and takes focusing during live-view or video shooting to the next level. |
|
Metti la tua pubblicità su JuzaPhoto (info) |