| inviato il 16 Maggio 2018 ore 7:03
Il programma lavora i DNG? Io di solito converto i file RAW canon in DNG per risparmiare megabyte di archiviazione |
| inviato il 16 Maggio 2018 ore 8:35
Il porgramma si avvale di rawpy che è una libreria di Python per leggere i file raw dalla macchina, a un certo punto fa una sottrazione tra il valore del raw e quello che loro chiamano black level, penso che il problema si annidi in questo passaggio qua... Ho provato anche con file della Nikon d7000 ma non funziona, forse è necessario rifare il training da zero per ogni modello, ma non sono sicuro in ogni caso che funzioni visto il problema precedente. |
| inviato il 16 Maggio 2018 ore 8:46
Bisogna rifare il training per ogni specifica macchina. Ogni macchina ha un comportamento differente a livello di sensore. Come fatto notare non so da chi, il tutto funziona meglio con sensori che vanno verso l'invarianza degli iso. Il file correttamente esposto non serve all'algoritmo, ma serve all'umano per verificare che il tutto stia convergendo. Fare il training non è una cosa banale, ma qualcuno potrebbe anche essere così volonteroso da scattare qualche centinaio di RAW variando A, S e ISO per farlo!! Una cosa non detta è che più training gli si fa fare, più il risultato sarà corretto. Ad esempio, riuscire a fargli un training con una serie di scatti con del fogliame. In ambiente controllato, quindi immobili, migliorerebbe il pastone che fa quando recupera una scena di paesaggio. |
| inviato il 16 Maggio 2018 ore 14:44
Leopizzo, l' ho scritto io e per la Canon attuali sarà più complicato. Non scoraggiare Django che è sveglio ed ha una gran voglia di fare. È solo curiosità per provare subito. Ho già letto che servono circa 75000 foto perchè funzioni al meglio (e sono iso invariant, figuriamoci con un sensore Canon di oggi, almeno 5 volte quel numero). Ma il trainig lo faranno gli sviluppatori per ogni sensore, mica noi. È solo per iniziare a vedere qualcosa. |
| inviato il 16 Maggio 2018 ore 14:57
Sei sicuro che il file correttamente esposto non sia di riferimento per il sistema? A me sembra strano. |
| inviato il 16 Maggio 2018 ore 16:29
Chiedevo a Leopizzo |
| inviato il 16 Maggio 2018 ore 16:48
Ciao, ho provato a fare un po' di training sul clusterino dell'università e in effetti con le foto sony gli servono almeno 40gb di ram e una gpu nvidia da almeno 4gb di memoria... Penso che un altro problema sia che le foto usate da loro sono piuttosto simili (500) per sony, per cui la rete non può essere usata in ambiti molto differenti. Tuttavia quello che viene fatto di solito è di riallenare solo alcune parti della rete neurale, sfruttando il grosso del lavoro prima e non dover ripartire da 0 ogni volta. In tal senso credo che si possa generalizzare ad altre macchine piuttosto velocemente, se solo ci fossero le foto per farlo! |
| inviato il 16 Maggio 2018 ore 18:25
Ciao Alessandro, no, non e' necessario. Altrimenti a che servirebbe tutto il lavorare, se hai gia' il file pronto? Le Artificial Neural Networks funzionano veramente un po' come facciamo noi tutti nei nostri cervelli. Se guardiamo una foto con molto rumore, il nostro cervello e' in grado di immaginare quale dovrebbe essere l'immagine pulita. Fai una prova e vedi: l'evoluzione ci ha dotato di questa funzionalita' per non farci pappare durante la notte da tigri coi denti a sciabiola, orsi e affini. Come facciamo? Un po' l'evoluzione che ha dato la forma al nostro cervello, e un po' il gran giocare che si fa quando si e' piccoli. Per le ANN lo sviluppatore e' l'evoluzione e il training e' il gioco. Nel nostro caso la rete ha come input un'immagine (una matrice di terne di colori) piu' la sensitivita' ISO, l'apertura e la velocita' dello scatto. La rete, terna per terna, va a vedere se il valore e' coerente con la media degli intorni, se non lo e' ne ricostruisce la terna di colore, ma ignorando e tenendo conto nello stesso tempo in qualche modo le adiacenze. Lo so, non e' una descrizione fedele, ma da' l'idea. Se vuoi approfondire il discorso ANN, dimmelo, ma non sara' cosa breve... Ciao Leonardo |
| inviato il 16 Maggio 2018 ore 19:59
Leopizzo, scusa ma mi hai frainteso, certo che non serve l' esposizione corretta nell' uso finale della fotocamera. Hai scritto che serve solo come termine di paragone per l' umano, invece credo serva (per ora) al sistema di apprendimento per imparare le differenze con quella sottoesposta. Per farsi un' idea di come inventarsi le informazioni mancanti la prossima volta. Per ora è in fase sperimentale e Django ha voluto provare subito e l' AI il training deve ancora farlo, ma ovviamente non compreremo macchine fotografiche che avranno bisogno di 75000 scatti prima di far funzionare l' AI, il training l' avranno già fatto gli sviluppatori per quel determinato sensore. O non ho capito niente. |
| inviato il 16 Maggio 2018 ore 20:08
Credo che ci siamo fraintesi solo perchè parliamo di due diverse fasi. Io mi riferisco allo stato attuale di ciò che è riuscito a scaricare Django, tu ti riferisci a quando sarà pronta ad ottenere i risultati. |
| inviato il 16 Maggio 2018 ore 20:57
Ma giusto per cercare di capire terra terra, come ce la venderanno in futuro questa tecnologia? Cioè, sara implementata dentro la macchina fotografica o sarà un softwhare di pp? |
| inviato il 16 Maggio 2018 ore 21:01
Data la dimensione dei database e la memoria necessaria mi immagino qualcosa su cloud, tipo Lightroom CC. Dentro la camera almeno per un po' la vedo dura... |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |