RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Alti iso e Intelligenza Artificiale, risultati impressionanti


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Alti iso e Intelligenza Artificiale, risultati impressionanti





avatarjunior
inviato il 13 Maggio 2018 ore 16:18

Made In Italy sarà forse perché non dovrebbe fare nulla di tutto quello di cui stai parlando a vanvera, ma molto più semplicemente (per modo di dire si intende) risanare matrici di pixel "deteriorate" dal rumore partendo da un singolo scatto e decidendo autonomamente qual'è il modo migliore per farlo? Chissenefrega se quell'insieme va poi a formare un naso, un occhio o una tapparella, non deve né riconoscere oggetti né tantomeno ricostruirli. Te invece ragioni sulla scena nel suo complesso dando un significato ai singoli elementi che la compongono e questo è il primo errore. Non bisogna nemmeno fossilizzarsi sul fatto che nel video ci siano situazioni estreme al limite dell'assurdo, perché se si riesce a ottenere qualcosa di riconoscibile da quelle condizioni improbabili, significa che da condizioni d'uso più realistiche potremmo potenzialmente ottenere degli algoritmi di riduzione rumore molto più validi rispetto a quelli odierni a parità di singolo scatto .

PS: se torni alla ribalta con vedo solo doppie esposizioni in quel video vuol dire che non hai letto o capito il link che ho riportato nel messaggio precedente, a ennesima conferma di quanto detto in quel messaggio.

avatarsenior
inviato il 13 Maggio 2018 ore 16:30

Made In Italy sarà forse perché non dovrebbe fare nulla di tutto quello di cui stai parlando a vanvera, ma molto più semplicemente (per modo di dire si intende) risanare matrici di pixel "deteriorate" dal rumore partendo da un singolo scatto e decidendo autonomamente qual'è il modo migliore per farlo?.


Nrk leggo bene, probabilmente sono più realista di te.
Se fotografo un benedetto quadro (succede spesso) non mi devi inventare un astratto di quello che gli pare.
Il quadro è quello. La ricostruzione dei dati che non sono stati memorizzati da un benedetto sensore è una cosa arbitraria che fa il sistema AI e che non ha nulla a che vedere con quello che si ha davanti.

Se mi paragoni un multiscatto con 10/12 fotogrammi di una scena memorizzata da un sensore (GCam), rispetto ad una foto che non presenta informazioni e va ricostruita inventando dati (AI) qualsiasi persona sana ti sceglierà la soluzione sensore/informazioni esistenti.

Chissenefrega se quell'insieme va poi a formare un naso, un occhio o una tapparella, non deve né riconoscere oggetti né tantomeno ricostruirli.


E invece deve fare esattamente questo.
Perchè se fotografo una persona di notte al mare e mi esce completamente buia, e non ha informazioni reali su come è fatta quella persona perchè il rumore ha mangiato tutto, sarai costretto ad inventare pixel che non esistono.

A questo punto prendo Cinema4D e faccio un rendering, esce meglio.

avatarjunior
inviato il 13 Maggio 2018 ore 16:49

Made In Italy: hai perfettamente ragione, deve funzionare proprio così, sono proprio uno stupido io che non ci arrivo pur avendo studiato sull'argomento AI e machine learning (anche se applicato in altri ambiti) e anche un po' i.dio.ti quei ricercatori e ingegneri che fanno cose giudicate inutili dall'alto della tua esperienza. Buona continuazione, vado a togliere le notifiche da questo thread MrGreen

avatarsenior
inviato il 13 Maggio 2018 ore 17:06

e anche un po' id.io.ti i ricercatori che fanno cose giudicate inutili dall'alto della tua esperienza. Buona continuazione, vado a togliere le notifiche da questo thread


l'AI non è necessariamente il futuro (me lo auguro).
Puoi averlo studiato ed esserne un sostenitore (ed è ovvio che sia così altrimenti non ci avresti investito del tempo) ma non è detto che i molti ambiti vedrà mai un futuro.

Vuoi sapere quante aziende hanno investito in AI ed hanno fallito?
Almeno quante hanno investito in prodotti di ricerca/medicina in cui credevano senza trovare mai la cura.

Abbiamo un caso tutto italiano, si chiama Metodo Stamina, anche lui ci credeva.

it.wikipedia.org/wiki/Metodo_Stamina

Con questo non dico che l'AI non sia utile, anzi, in molti settori è stata una rivelazione.
Ad oggi però visto che con l'AI ci viviamo già da diverso tempo penso che siamo in grado di capire quali possono essere i settori dove può avere un futuro e dove no.

Abbiamo idee contrastanti, ben venga.


avatarsenior
inviato il 13 Maggio 2018 ore 19:01

Gcam da quegli scatti è in grado di riconoscere i pixel e rimettere il dove nella stessa posizione (vedi la foto che ha messo Made in Italy dell' uomo che corre in acqua)


Nrk, spero di sbagliarmi e spero di essere smentito, ma a naso GCam non può nulla contro un soggetto che corre, se la scena è al buio. Nell'esempio dell'uomo che corre in acqua, tutto funziona perché è giorno, e di luce ce ne è quanto basta, addirittura abbastanza per congelare le goccioline d'acqua. La nitidezza è data da una opportuna e sapiente post produzione fatta dal software (e un po' di sharpening si vede bene nonostante la foto sia piuttosto piccola).

Sempre a naso, da inesperto del settore le cui supposizioni possono tranquillamente fare la fine di ogni altra supposta, ipotizzo il seguente funzionamento della GCam:

- La GCam inizia la registrazione di una clip non appena viene lanciata l'app. Della clip non viene registrato nulla, le immagini "scorrono" via, fino a quando non si preme il pulsante di scatto.

- Al momento dello scatto, viene congelata una finestra composta da n frame presi un po' prima e un po' dopo il momento dello scatto. Si determina anche il frame di riferimento, che è quello catturato nel momento dello scatto.

- Estratti i frame, il software li allinea sulla base di elementi comuni e ben riconoscibili.

- Una volta che i frame sono allineati, il sw verifica quanti di questi sono "buoni" per il successivo utilizzo. Se il soggetto è statico, il numero sarà elevato, se il soggetto è in movimento lento, il numero sarà ridotto, se è in movimento veloce, il numero potrebbe essere ridotto al solo frame di riferimento. La bontà dei frame è data dall'analisi delle scene che compie l'app: se esiste una zona in cui l'immagine è diversa rispetto a quella presa dal frame di riferimento, a meno di un certo margine di tolleranza, allora in quella zona il soggetto si è mosso e il frame non è buono. Da quel punto in poi, i frame non sono utili e vengono scartati.

- Definiti i frame utili, il software li unisce, più o meno come ho fatto io nell'esempio del deodorante. Se il frame è uno solo, non fa nulla.

- Al pari di ogni altra app del genere, sull'immagine finale il software applica tutte le più classiche tecniche di post produzione: regolazione contrasto, riduzione rumore, sharpening, wb, ecc. e tira fuori il nostro spettacolare jpeg.

Mi piacerebbe avere una conferma sull'inefficacia di GCam sui soggetti in movimento al buio (e sono mooolto curioso), per cui chiederei a Made In Italy un test: in una stanza quasi buia una foto di un soggetto statico (un oggetto qualunque) e una foto di un soggetto in rapido movimento, che so, un figlio, la moglie, la fidanzata, la nonna che corre da una parte all'altra. In cambio offro un caffè!

avatarjunior
inviato il 14 Maggio 2018 ore 1:36

chiederei a Made In Italy un test: in una stanza quasi buia una foto di un soggetto statico (un oggetto qualunque) e una foto di un soggetto in rapido movimento, che so, un figlio, la moglie, la fidanzata,


Made te la sta gufando.... MrGreenMrGreenMrGreen

avatarsenior
inviato il 14 Maggio 2018 ore 5:10

Ale.c, potrei sbagliarmi, ma l' uomo che corre in acqua per me è un risultato fantastico. Per come sono congelate le gocce, il tempo di un singolo scatto non dovrebbe essere superiore a 1/2500", forse meno. Il numero di gocce è enorme per essere reale ed è difficile (direi impossibile) che sia il risultato di un singolo scatto. Stessa cosa per la pulizia e la gamma dinamica di quella foto per un cellulare. Alla base ogni singolo scatto che effettua deve essere fermo. La prova drastica al buio che proponi in movimento non proverebbe l' inneficacia dell' allineamento della Gcam per soggetti in movimento. Se il sistema ritiene che a causa del movimento occorre fare scatti da 1/1000" (bimbo che corre), con poca luce non basterebbero 20 scatti neri o quasi allineati a 10000 iso per produrre qualcosa di buono. Se funzionasse ci sarebbe da gridare al miracolo davvero... se non funzionasse non proverebbe niente.

avatarsenior
inviato il 14 Maggio 2018 ore 7:03

il tempo di un singolo scatto non dovrebbe essere superiore a 1/2500", forse meno. Il numero di gocce è enorme per essere reale ed è difficile (direi impossibile) che sia il risultato di un singolo scatto


Non so se servono effettivamente 1/2500” oppure basta 1/1000”, ma poco importa: lo scatto è in pieno sole, scattata con un mezzo (il cellulare di alta gamma) che tipicamente ha obiettivi luminosi, anche oltre f/1.8, quindi secondo me è uno scatto singolo.

Al contrario, un app che riesce a utilizzare le informazioni provenienti da più scatti in cui il soggetto non solo trasla, come farebbe un oggetto che cade o un uomo un'auto che sfreccia (e già questo sarebbe un gran risultato), ma addirittura cambia forma (l'uomo che corre), beh, altro che AI, qui serve un software veramente raffinato e, a naso, tanta, tanta, tanta potenza di calcolo.

Alla base ogni singolo scatto che effettua deve essere fermo. La prova drastica al buio che proponi in movimento non proverebbe l' inneficacia dell' allineamento della Gcam per soggetti in movimento. Se il sistema ritiene che a causa del movimento occorre fare scatti da 1/1000" (bimbo che corre), con poca luce non basterebbero 20 scatti neri o quasi allineati a 10000 iso per produrre qualcosa di buono. Se funzionasse ci sarebbe da gridare al miracolo davvero... se non funzionasse non proverebbe niente.


Questa non l'ho capita: per avere un soggetto fermo basta impostare un tempo veloce, poi il numero di scatti aumenta di conseguenza, perché solo 20? Se ne servono 40, ne farà 40. Tieni presente che quei cosi girano video a 50 fps e anche oltre, alcuni smartphone arrivano anche a 120, quindi si tratta di considerare un tempo anche inferiore al secondo.

avatarsenior
inviato il 14 Maggio 2018 ore 11:16

Made te la sta gufando....


Vèè? MrGreen

Ale.c, potrei sbagliarmi, ma l' uomo che corre in acqua per me è un risultato fantastico. Per come sono congelate le gocce, il tempo di un singolo scatto non dovrebbe essere superiore a 1/2500", forse meno. Il numero di gocce è enorme per essere reale ed è difficile (direi impossibile) che sia il risultato di un singolo scatto. Stessa cosa per la pulizia e la gamma dinamica di quella foto per un cellulare. Alla base ogni singolo scatto che effettua deve essere fermo. La prova drastica al buio che proponi in movimento non proverebbe l' inneficacia dell' allineamento della Gcam per soggetti in movimento. Se il sistema ritiene che a causa del movimento occorre fare scatti da 1/1000" (bimbo che corre), con poca luce non basterebbero 20 scatti neri o quasi allineati a 10000 iso per produrre qualcosa di buono. Se funzionasse ci sarebbe da gridare al miracolo davvero... se non funzionasse non proverebbe niente.



Ha scritto tutto correttamente Alessandro (grazie).
Il mosso dipende dal tempo di scatto, non dal multiscatto.
Se di notte c'è poca luce e devi scattare ad 1/20s è normale che la foto uscirà mossa ad un bambino che corre, ma non è il multiscatto a farlo, è solo la presenza di poca luce che aumenta i tempi. L'allineamento e l'accuratezza lo vedi nelle scene dinamiche di giorno, quella dove corre nell'acqua è piuttosto evidente.
Di notte non ha senso parlare di mosso, si usa il flash per avere il "freeze" dell'immagine se è quello che cerchi.
Inoltre il programma allinea dai 3 scatti ai 12 totali (non ne fa a caso) a seconda della richiesta di HDR.
Maggiore è la gamma dinamica che si richiede al programma (tramite impostazioni) e maggiori saranno gli scatti che il programma valuterà in relazione alla situazione ottimizzando il tutto.

avatarsenior
inviato il 14 Maggio 2018 ore 11:37

Perchè se resti fermo ad inquadrare dopo una raffica di 20 scatti (ma anche meno) il soggetto ti esce dall' inquadratura. Il cellulare non ha la lentezza dell' otturatore ma deve anche salvarle le immagini, non so a che punto siano ma non credo che un comune cellulare faccia raffiche maggiori (potrei sbagliarmi e non so quale abbia Made). I video hanno definizioni inferiori alle foto, la raffica non può essere paragonata ai fps. Se l' inquadratura segue il soggetto lo sfondo della raffica non ha più niente di sovrapponibile e scarterebbe tutto. In scarsa luce a 1/1000" vede nero, dovrebbe anche riconoscere i pixel per allinearli ed avrà anche un limite di scatti (mica 1000 solo per esporre), deve processarli tra loro in un secondo. A me sembra un po' estrema come prova. Anzi, inaffrontabile.

avatarsenior
inviato il 14 Maggio 2018 ore 11:48

Avere un raw hdr su ff con tecnologia gcam e un'ipotetica raffica diciamo sui 6/7fps con un buffer accettabile sarebbe una svolta epocale in qualunque genere fotografico fantastico!
Il software in questione anche ha delle potenzialità pazzesche e certamente aiuterà a semplificare tantissimo in pp anche su vecchie foto
Ben vengano le nuove tecnologie chi più ne ha più ne metta

avatarsenior
inviato il 14 Maggio 2018 ore 11:55

Perchè se resti fermo ad inquadrare dopo una raffica di 20 scatti (ma anche meno) il soggetto ti esce dall' inquadratura. Il cellulare non ha la lentezza dell' otturatore ma deve anche salvarle le immagini, non so a che punto siano ma non credo che un comune cellulare faccia raffiche maggiori (potrei sbagliarmi e non so quale abbia Made). I video hanno definizioni inferiori alle foto, la raffica non può essere paragonata ai fps. Se l' inquadratura segue il soggetto lo sfondo della raffica non ha più niente di sovrapponibile e scarterebbe tutto. In scarsa luce a 1/1000" vede nero, dovrebbe anche riconoscere i pixel per allinearli ed avrà anche un limite di scatti (mica 1000 solo per esporre), deve processarli tra loro in un secondo. A me sembra un po' estrema come prova. Anzi, inaffrontabile.


No su questo non ha problemi, anzi.
Ad esempio se scatto in piena notte a 100 ISO (quindi con tempi lunghi) lui ci mette magari 10 secondi a farmi tutti gli scatti, ed io devo rimanere fermo sulla scena (esatto, fare multiscatto a mano libera in piena notte è possibile).

Se dopo 5 secondi dei 10 mi sono stufato di aspettare e metto il cellulare in tasca mentre sta ancora scattando, lui non è che mi tira fuori la foto della tasca, assolutamente no. La foto che uscirà sarà perfetta, solo che avrà meno dinamica/pulizia dovuta al fatto che ha registrato meno foto (sempre che il tempo di scatto sia sufficiente per il mosso).

Questa prova l'ho già fatta tante volte, mi è successo in tantissime occasioni di non avere quei secondi di scatto ed ho quindi cambiato inquadratura. Sulla stessa scena ho poi provato a terminare lo scatto facendogli fare tutto il lavoro e lo scatto è uscito con luci meno bruciate ed ombre più aperte. Il problema di come allinea le foto invece non si è mai presentato in migliaia che ne ho fatti di qualsiasi genere.

L'applicazione non so come faccia ma capisce autonomamente gli scatti da scartare che creerebbero problemi di allineamento.

avatarsenior
inviato il 14 Maggio 2018 ore 11:58

la raffica non centra nulla, intesa come quella classica del tenere spinto in pulsante e fare foto a ripetizione
(non so quante ne scatti al secondo uno smartphone non l'ho mai provato, ma non penso siano così elevate)


Il cellulare ha una raffica anche di 20/30 foto al secondo, infatti il multiscatto fatto di giorno (avendo tempi veloci) è l'equivalente di fare uno scatto singolo, non ci si accorge neanche della differenza.

avatarsenior
inviato il 14 Maggio 2018 ore 12:17

Ad esempio se scatto in piena notte a 100 ISO (quindi con tempi lunghi) lui ci mette magari 20 secondi a farmi tutti gli scatti, ed io devo rimanere fermo sulla scena (esatto, fare multiscatto a mano libera in piena notte è possibile).

[...] lui non è che mi tira fuori la foto della tasca, assolutamente no. La foto che uscirà sarà perfetta, solo che avrà meno dinamica/pulizia dovuta al fatto che ha registrato meno foto [...]

L'applicazione non so come faccia ma capisce autonomamente gli scatti da scartare che creerebbero problemi di allineamento.


Made, con le tue parole, in particolare quelle in grassetto, confermi che l'ipotesi che ho fatto e` corretta.

L'applicazione non so come faccia ma capisce autonomamente gli scatti da scartare che creerebbero problemi di allineamento.

Se il soggetto e` fermo, e tutt'altro che difficile. Rileggi l'algoritmo che ti ho postato prima.

I video hanno definizioni inferiori alle foto, la raffica non può essere paragonata ai fps.


Secondo me fa video e non raffiche. E` vero che i video hanno risoluzione minore, ma attraverso la tecnica del multiscatto, che e` la stessa che implementano le fotocamere che hanno l'high quality, sommando le informazioni che provengono dai frame, si aumentando la risoluzione. Adesso non ce l'ho, ma questa sera ti posto un singolo frame del deodorante che ho usato per il test da cui potrai verificare che la sua risoluzione e` molto inferiore a quella della foto che ho ottenuto attraverso la fusione dei diversi frame.

In scarsa luce a 1/1000" vede nero, [...] A me sembra un po' estrema come prova. Anzi, inaffrontabile.


Infatti secondo me la tecnica funziona se la scena e` statica. E Made in Italy in qualche modo lo conferma.

avatarsenior
inviato il 14 Maggio 2018 ore 12:27

Secondo me fa video e non raffiche.


No scatta fotografie, solo la parte iniziale (prima dello scatto) registra circa 1/2 secondi di cache, probabilmente per mappare la zona da allineare. Ma è inutile fare supposizioni, solo Google conosce l'algoritmo che non è fondamentale ai fini d'uso.
A noi interessa solo che funzioni :-P

Infatti secondo me la tecnica funziona se la scena e` statica.


Non ho mai scritto questo.
Ho scritto semplicemente che la fotografia è fatta della tripletta che esiste oggi ed esisterà tra 100 anni.
Otturatore, Diaframma, ISO.
L'algoritmo di Google non re-inventa la fotografia, fa semplicemente allineamenti.
Se scatti di notte senza luce ed il tempo di scatto è lento, è normale che la foto uscirà mossa.
Il problema come ho già scritto non è il multiscatto, otterresti una foto mossa anche con uno scatto singolo.
Se di notte utilizzi il flash utilizzando il multiscatto (che quindi freeza il movimento del soggetto) la foto non solo non uscirà mossa, ma sarà perfettamente allineata.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 243000 iscritti, c'è spazio per tutti, dal principiante al professionista.






Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me