JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Avendo letto diversi thread sull'utilizzo della gcam in particolar modo grazie al contributo di Made in Italy, ho voluto approfondire l'argomento e sono andato a leggermi il lavoro presentato dal gruppo Google di sviluppo della gcam nel luglio del 2019 al Siggraph 2019. Chi fosse interessato lo trova a questo link sites.google.com/view/handheld-super-res. Il lavoro è corposo ed è scritto in un inglese tecnico abbastanza comprensibile. Riassumo quello che ho capito leggendo una prima volta il lavoro. Come è noto la gcam utilizza un burst di scatti in formato raw da 7 a 15 per ridurre il rumore ed aumentare la nitidezza, quello che è meno noto è come viene lavorato questo burst di file raw: 1 ) l'intero processo lavora sui dati grezzi in formato raw fino alla fusione finale, separando i singoli colori della matrice bayer che viene normalizzata in formato RGB solo alla fine del processo. 2 ) utilizzano il movimento della mano del fotografo per analizzare i pixel shift che questo movimento genera e per creare alla fine del processo un raw di dimensioni più grandi, al max la sommatoria di tutti gli scatti. 3 ) dopo aver normalizzato i file raw su un frame di riferimento stabiliscono mediante l'uso di un modello matematico e del giroscopio del cellulare se il movimento è dovuto al fotografo o ad oggetti che si muovono dentro il frame, in quest'ultimo caso il frame è scartato. 4 ) calcolano la deviazione standard dei gruppi di pixel 3x3 e la differenza di colore rispetto al frame di riferimento per determinare l'utilizzo del singolo frame nel processo di sviluppo e di interpolazione. Quelli con deviazione superiore ad una certa soglia sono scartati, quelli che sono fra la soglia massima ed una soglia di riferimento vengono utilizzati per creare quello che loro chiamano la super risoluzione, quelli inferiori alla soglia minima e quindi quasi uguali al frame di riferimento sono utilizzati per la riduzione del rumore. Questo modello di riferimento è denominato Robustness. 5 ) alla fine di questo processo ottengono il file RGB che può essere sviluppato in Jpeg o prodotto in formato DNG. Tutto il processo dura circa 100 ms per un burst di frame di 12 Mpixel. E' un approccio talmente innovativo che se applicato ai sensori che usiamo di solito darebbe dei risultati strabiglianti. Un'ultima cosa utilizzano la super risoluzione anche per generare dei crop. Questo lavoro utilizza anche molte ricerche svolte in precedenza. Penso che i nostri produttori di macchine fotografiche dovrebbero studiare a fondo questi lavori e metterli in pratica se non vogliono essere superati dai produttori di cellulari. A voi l'ardua sentenza. A me dopo aver letto questo articolo mi è venuta voglia di comprarmi uno Xiaomi per istallare una Gcam. Ovviamente tenete conto che ho fatto il riassunto di un paper di 18 pagine
Sony usava questa tecnica sulle prime nex negli anni di piombo...e usava la stessa tecnica anche per gli hdr ...peccato salvasse solo in jpeg il lavoro finito...con un raw multiscatto se la sarebbe giocata forse meglio di tante ff di allora... Immagino non lo avessero permesso per motivi di buffer e capacità elaborativa...oltre al discorso calore...infatti scaldavano come dannate
Caro sim mica ho detto che e' identico...parlavo del multiscatto.. l'algoritmo sarà diverso ..ma i risultati c'erano ..e parlo del periodo con già la funzione sulle slt e sulla a580 ...non vedo che c'è sotto ma i risultati...che poi cambino le virgole e' un altro discorso.. Se si incazza Sony sai dove se la gira la cam google? Ionon sono un fan di Sony...odio il suo reparto market per motivi che non cito qui .. ma e' da scemi nascondere le qualità dei suoi sensori e firmware nel multi nr e hdr in un periodo in cui con gli apsc fare foto di sera a 6400 iso umane da pubblicare era un'utopia
user155906
inviato il 28 Novembre 2019 ore 19:23
@baiosso un ai è tutt'altro che un programmino in macchina che sovrappone foto
Ciao, sto provando la GCAM di notte e ho notato che purtroppo non permette di fotografare le scie degli aerei e dei satelliti. Ho provato con la Stazione Spaziale Internazionale e ha registrato solo una piccola traccia della stessa. Credo succeda la stessa cosa nel fotografare i fulmini. Qualcuno ha provato? Al momento utilizzo uno XIAOMI MI9Lite e GCAM TrCamera 7.2.010
Levoy dell'MIT ha lasciato Google. Chissà se è sopravvissuto in Google il suo ex-postdoc Hasinoff?
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.