JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
“ Beh in questo caso l'af ha dato una determinata priorità MrGreen che potrei pure condividereMrGreen „
Se fosse stata scattata in altri tempi con una bella fotocamera Sony che mette a fuoco l'iride in automatico, non ci sarebbero stati problemi come questo nella foto. I progressi sono tangibili
“ ritengo che il grosso del lavoro debba essere fatto dal fotografo e non dalla macchina. Se fosse vero ci sarà un futuro da "pigri" della fotografia che vogliono la pappa pronta anche quando fanno errori più o meno grossolani. „
Mi disse più o meno le stesse cose un fotografo che incontrai per caso, nel 2005, riguardo le digitali. Lui scattava con le hassie (a pellicola), io avevo una 20D. Gli spiegai il bilanciamento del bianco e le correzioni di esposizione con il raw, e lui schifato mi disse "ma questa non è più fotografia, per correggere le dominanti colore si usano i filtri".
Allora provo a giocare insieme a voi e mi "butto" nel cercare di indovinare nei dettagli come funzionerà e cosa farà il dual pixel raw.
Premessa, come funziona il dual pixel af: Ogni pixel del sensore è diviso in due parti. La differenza di fase fra queste due porzioni viene misurata al fine di estrapolare la distanza fisica (dal piano del sensore) dell'oggetto che ha "emesso" quel pixel di luce, per pixel. Questa informazione viene usata per la regolazione della messa a fuoco continua in live view. Quando invece si scatta una foto le due porzioni di fotorecettore vengono già utilizzate per "generare" un singolo pixel di immagine. Questo è ciò che infatti già avviene nella attuali fotocamera con dual pixel af
Prima considerazione: scordiamoci qualunque incremento di qualità dell'immagine finale di un raw dual pixel!
Ora immaginiamo invece che i tecnici canon abbiano deciso di rendere disponibile nel formato dual pixel raw queste informazioni di distanza per pixel. La "rappresentazione" di questa informazioni potrebbe essere una versione in scala di grigi della nostra foto ove la luminosità di ogni singolo pixel definisce la distanza "fisica" (dal piano del sensore) dell'oggetto che ha "emesso" quel pixel di luce, per pixel. Di fatto un simile concetto esiste da molti anni nel campo della grafica 3d. Una simile immagine in scala di grigi rappresentante le distanze "per pixel" può essere infatti generata dai software di grafica 3d più avanzati. Queste maschere vengono definite "zdepth".
Ora applicando una maschera di zdepth in un software di post-produzione si possono eseguire degli aggiustamenti a livello di fuoco su un rendering 3d già generato, allo stesso modo di come sarebbe teoricamente possibile con una foto avendo uno "zdepth" della foto stessa.
Si può quindi mettere successivamente "a fuoco" qualcosa che nell'immagine è fuori fuoco? In una sola parola: no!
Quello che si può fare è applicare una maschera di contrasto molto precisa (a livello di pixel) per aumentare la nitidezza apparente di alcune aree, a seconda della distanza. Immagino che in molti casi questa cosa possa aiutare poco più di una semplice maschera di contrasto selettiva 2d di photoshop, perchè se un pixel è fuori fuoco niente potrà ricostruire realmente quell'informazione ormai andata persa.
Si potrebbe invece, entro certi limiti, applicare una sfocatura in post che risulti più intensa e realistica di una semplice sfocatura gaussiana 2d di photoshop. Ovviamente la resa non sarà mai quella di un vero bokeh fotografico, ma sicuramente su questo campo mi aspetterei risultati più interessanti. Le zdepth vengono infatti esclusivamente usate per sfocature selettive in fase di post, al fine di simulare ottiche con diaframma aperto. Potrebbe addirittura essere possibile animare il punto di fuoco simulato partendo da un'immagine completamente a fuoco. Immaginiamo un paesaggio scattato a diaframma chiuso ove sarebbe possibile simulare un effetto di fuori fuoco animato che "percorre" l'intera immagine.
Con lo stesso sistema (immagino) sarebbe anche possibile selezionare precisamente aree di ghost o flare data l'incongruenza a livello di distanza della luce catturata in quelle zone. Ovviamente correggere i difetti sarà poi tutta altra storia, ma partire da una selezione precisa sarebbe già di aiuto.
Questo è più o meno quanto mi aspetterei.. pronto, ovviamente, ad essere completamente smentito dalle informazioni ufficiali!
Credo sia la disamina piu convincente fino ad ora...uno sharpening con una nitidezza interessante ma se sfuoco é perche le lenti dell'obiettivo sono fuori asse, correggere quella distanza a livello di pixel credo sia veramente impossibile.
Ok la foto é una bufala era troppo evidente nessuna macchina potrà mai fare quello ... E stata creata in Photoshop con un 4-pixel sfocatura gaussiana applicata sul post-downsample sinistra e appropriata affilatura sulla destra. Quindi scordatevi certi risultati neanche lontanamente... cio non toglie che sara comunque una grande reflex ...
speriamo approfittino per mettere a punto un sistema efficace di automicroregolazione della maf senza passare per camera service, già quello per me sarebbe un ottimo guadagno.
“ Quello che si può fare è applicare una maschera di contrasto molto precisa (a livello di pixel) per aumentare la nitidezza apparente di alcune aree, a seconda della distanza „
si, credo si ridurra' tutto a questo ... la classica montagna che partorisce il topolino