RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Alti iso e Intelligenza Artificiale, risultati impressionanti


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Alti iso e Intelligenza Artificiale, risultati impressionanti





avatarsenior
inviato il 14 Maggio 2018 ore 12:48

Ecco che casca l' asino per applicarla a sensori più grandi. I tempi di congelamento sono identitici (i cellulari sono quasi tutti a 24mm equivalenti e giù di lì per ovvie ragioni), a focali equivalenti i tempi che occorrono sono gli stessi. Una raffica di 12 scatti a pdc ridotte porterebbe a 12 scatti con molti di quelli in cui il soggetto non è a fuoco e inseguendo l' inquadratura ci sarebbero poche porzioni di immagini sovrapponibili per lo sfondo. Niente avifauna e niente sport per m4/3 aps-c e FF. A pdc equivalenti i sensori grandi farebbero uguale o anche peggio dovendo chiudere il diaframma agli stessi tempi di congelamento. Piccolo miracolo sui cellulari e funzione attivabile (hdr e denoise) se e quando serve su macchine professionali.

avatarsenior
inviato il 14 Maggio 2018 ore 13:03

quando c'è di mezzo l'intelligenza artificale c'è comunque il rischio che l'iterpretazione dell'intelligenza in questione vada per una strada differente dalla realtà e quindi è possibile il rischio di ottenere una immagine inventata.
La stessa applicazione si può usare anche su immagini poco nitide mettendo qualche variante nell'algoritmo.

avatarsenior
inviato il 14 Maggio 2018 ore 14:09

Ma è inutile fare supposizioni, solo Google conosce l'algoritmo che non è fondamentale ai fini d'uso.


Perche' e` inutile? E` cosi` divertente...

Ho scritto semplicemente che la fotografia è fatta della tripletta che esiste oggi ed esisterà tra 100 anni.
Otturatore, Diaframma, ISO.
L'algoritmo di Google non re-inventa la fotografia, fa semplicemente allineamenti.


Ci mancherebbe...

Se scatti di notte senza luce ed il tempo di scatto è lento, è normale che la foto uscirà mossa.
Il problema come ho già scritto non è il multiscatto, otterresti una foto mossa anche con uno scatto singolo.


Infatti

Se di notte utilizzi il flash utilizzando il multiscatto (che quindi freeza il movimento del soggetto) la foto non solo non uscirà mossa, ma sarà perfettamente allineata.


Ma la GCam ha questa funzionalita`? Scatta raffiche di foto con il flash? Mi posti un esempio?

Ecco che casca l' asino [...] serve su macchine professionali.


Perdonami, ma proprio non riesco a seguirti. Tu parli di differenze tra sensori da cellulare e sensori piu` grandi con questioni legate all'inseguimento e di fuoco, io invece sono rimasto molto indietro. Per come la vedo io, la tecnica di stacking di frame che usa la GCam per aumentare la qualita` della foto (DR, risoluzione, rumore, nitidezza) semplicemente non funziona con immagini in movimento. Mi piacerebbe avere un esempio di uno foto eseguita su un soggetto in movimento con condizioni di scarsa luminosita`. Basterebbe questo per convincermi del contrario, ma questo esempio non arriva! L'esempio postato da Made non e` assolutamente indicativo perche` anche un iPhone (che ha una ottima fotocamera e un ottimo sw di gestione della stessa) fa foto simili senza utilizzare tecniche di stacking. Se c'e` tanta luce, grazie al cavolo che l'immagine e` buona, bella scoperta...

avatarsenior
inviato il 14 Maggio 2018 ore 14:56

Capisco il tuo scetticismo ma se conoscessi la tecnica di stacking in astrofotografia capiresti che non è fantascienza (certo le stelle non sono complesse come un uomo che corre in acqua). Per me ti basterebbe correre in acqua per capire che non muovi tutta quell' acqua, ad occhio nudo oltre ad avere troppa fiducia sul fatto che un cellulare con un scatto possa avere quella qualità nonostante una lente f 1.7 a 1/4000 di secondo o circa.

avatarsenior
inviato il 14 Maggio 2018 ore 15:02

Se fosse così con un i-phone e zoom aggiuntivo bloccheresti un uccello in picchiata con la qualità di quella foto, rinunciando solo al distaccamento dei piani. Ora sono le tre, potresti scattare una foto all' aperto (escludi funzioni strane che potrebbero utilizzare più scatti) a 1/4000" e vedere il rumore che produce?

avatarsenior
inviato il 14 Maggio 2018 ore 20:21

@Made una prova fattibile e comprovante che toglierebbe ogni dubbio sull' allineamento del soggetto in movimento all' interno dei vari scatti sarebbe riprendere un orologio analogico in casa. Tempo di posa di un secondo e cellulare su treppiede. Se risulta uguale al singolo scatto ha scartato tutto a causa del movimento della lancetta. Se ha meno rumore ed è stato fatto hdr si vede e se la lancetta dei secondi è ferma (anche mossa va bene, mentre passa da un secondo all' altro) o la troviamo in 4 o 12 posizioni. E scopriamo cosa ha fatto Google.

avatarsenior
inviato il 14 Maggio 2018 ore 21:50

la tecnica di stacking in astrofotografia


Ma nel caso di astrofotografia è tutto più semplice: è vero che le stelle si muovono, ma si muovono tutte insieme, ed è come riprendere un soggetto fermo muovendo lentamente il telefono: basta riallineare gli scatti.

Se fosse così con un i-phone e zoom aggiuntivo […] e vedere il rumore che produce?


Non ti seguo... se c'è luce, e quindi posso tenere gli iso bassi, perché ci dovrebbe essere rumore?

@Made una prova fattibile e comprovante...


Alessandro, la lancetta si muove di 6 gradi una volta al secondo, e se la GCam, come penso, estrae gli scatti da una clip, la GCam produce un numero di frame che va dai 50 ai 120, e sarebbe come esporre per 1 secondo, non poco. L'illuminazione dovrebbe essere veramente bassa per costringere il sw ad allungare a diversi secondi la ripresa. Io sceglierei un soggetto un pelo più veloce.

avatarsenior
inviato il 14 Maggio 2018 ore 22:13

Ale.c mica è così semplice allineare le stelle quando riprendi un paesaggio che resta fermo con vari scatti. Ci sono già software che riallineano solo ciò che si muove (le stelle) tra vari scatti. Made lo ha già spiegato, non è una clip e la raffica del cellulare è circa 20-30 fps (ma non è un problema in questo caso). Il tempo di scatto può deciderlo, per cui se imposti un secondo fa scatti da un secondo. Ogni scatto avrà la lancetta in una posizione diversa. Se imposta il massimo hdr ne utilizzerà 12. 12 foto da un secondo l' una. La lancetta dei secondi sarà in 12 posizioni diverse nei dodici scatti. Se la gcam le allinea capendo i pixel che si muovono (la lancetta dei secondi) farà una fusione di 12 scatti e la lancetta sarà in una sola posizione (perfettamente solo se si sincronizza bene con la lancetta, un po' mossa va bene, ma non che parte a 30" e finisce a 42"). Un secondo di posa in casa, di notte con un lumino a f1,7 iso 100 ci vuole tutto con un sensore piccolo, basta allontanare e avvicinare il lumino ed esponi anche bene. Potessi provarla lo farei.

avatarsenior
inviato il 14 Maggio 2018 ore 22:39

Un' immagine COSÌ pulita come l' uomo che corre in mare, di giorno la ottengo con 4 scatti a iso 100 su treppiede con aps-c. Non saprei se il sensore meno sensibile di un cellulare possa scattare a 1/4000" f1,7 a iso 100 anche di giorno ed essere così pulito poi. L' hai fatta la foto a 1/4000" oggi pomeriggio? È uscita pulita COME quella?

avatarsenior
inviato il 14 Maggio 2018 ore 23:38

Alessandro, se mi dici che il sensore del cellulare è piccolo, ci sto, se mi dici che è meno sensibile... mi fermo qui.

avatarsenior
inviato il 15 Maggio 2018 ore 12:01

Tengo vivo il 3D perché vale la pena discutere di rumore limitatamente alla fotografia digitale.

La parola chiave è RSS (Root(-of-the)Sum(-of-the-)Squares). Due rumori diversi non si sommano linearmente, danno luogo a un rumore totale che è l'ipotenusa, dove shot noise e read noise sono i cateti.
Subito un paradosso: alla dx di un istogramma, c'è più rumore che alla sx, ossie le luci hanno più rumore delle ombre.
Ma in una foto non guardiamo al rumore, guardiamo al rapporto segnale/rumore SNR (Signal(-to-)Noise(-)Ratio).
Semplificando, il SNR in una foto in buona luce dipende essenzialmente dal rumore intrinseco alla luce stessa. In notturni e astrofotografia è più importante il read noise. In generale il rumore N è una miscela di read e shot noise.

Tutti i multiscatto si gioverebbero di avere una sorgente esente da rumore. Molti fotografi pensano che il rumore lo faccia il sensore, per cui una FF ha miglior SNR perché il sensore è meno rumoroso che in un telefonino. Non è così, la danza la mena la luce (=numero di fotoni raccolti).

Una considerazione che non si legge spesso neanche in DPReview, con fior di scienziati e tecnici che partecipano ai Forumi: i fotoni obbediscono alla distribuzione di Poisson, che si avvicina sempre più a una distribuzione gaussiana all'aumentare del numero n dei fotoni raccolti. Quindi a livello di sensel singolo (= numero di fotoni dell'ordine delle decine) è statisticamente vero che sqrt(n) fornisce il SNR del sensel. Ma in un sensore medio ci sono almeno 10 Mpx, nella totalità la luce si comporta MENO secondo Poisson. Siccome l'occhio non osserva il pixel singolo, ecco che la "percezione" del SNR totale è diversa da quella pixel-peeping.Eeeek!!!




avatarsenior
inviato il 15 Maggio 2018 ore 13:00

Si può semplificare con si ha miglior snr, maggior gamma dinamica e sensibilità in ragione dell' area del sensore e non della prestazione del singolo fotodiodo. Stessa cosa per il rumore intrinseco della luce, non si può abbattere, ma si possono "diluire" i suoi effetti su un' area maggiore. E che è errato pensare alla prestazione del singolo fotodiodo (densità di pixel) ma alla prestazione dell' intero gruppo che lo compone. Che la migliore o peggiore prestazione di un sensore delle stesse dimensioni (spaziatura tra sensel identica per non tirare in ballo un' ulteriore questione) non può niente contro lo shot-noise, ma tutto il resto è dovuto alla miglior prestazione dell' intero gruppo. E che moltiplicare gli scatti equivale a moltiplicare l' area del sensore ;-)

avatarsenior
inviato il 15 Maggio 2018 ore 13:53

anche Dpreview ha riportato la notizia:

www.dpreview.com/videos/1559702271/researchers-use-ai-to-brighten-ultr

avatarjunior
inviato il 15 Maggio 2018 ore 17:29

ragazzi sono riuscito a farlo andare e vi assicuro che è una figata pazzesca, se qualcuno che ha una Sony vuole passarmi qualche raw super sottoesposto sarei stracurioso di provarlo su immagini nuove!

user117231
avatar
inviato il 15 Maggio 2018 ore 17:44

Ho scattato una foto al buio totale...lo vuoi il RAW ? E' abbastanza sottoesposto ? MrGreen

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 243000 iscritti, c'è spazio per tutti, dal principiante al professionista.






Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me