| inviato il 15 Maggio 2018 ore 17:45
Django, perché non fai un tutorial e posti qualche foto di esempio? Io appena posso ti invio qualche RAW di testa al buio e sottoesposto. |
| inviato il 15 Maggio 2018 ore 19:35
Il risultato è notevole, specie per quanto concerne i colori. Per la trama, è tutto piallato, ma se si guarda la foto “rumorosa”, beh neanche Merlino avrebbe potuto fare di più su quel RAW.... |
| inviato il 15 Maggio 2018 ore 19:55
@Django cosa significa algoritmo classico? Chiunque metta in cloud un raw "impossibile", lo passo a DxO PRIME, poi confrontiamo con AI |
| inviato il 15 Maggio 2018 ore 20:46
@Valgrassi: approfitto della tua competenza ho letto di DxO PRIME, hai mai provato Topaz Denoise per la riduzione del rumore? Lo uso da tempo con ottimi risultati, il software DxO lo trovi migliore? |
| inviato il 15 Maggio 2018 ore 20:58
Valgrassi se vuoi ti passo il raw da cui è stato fatto questo scatto qua! Per algoritmo classico intendo lo stato dell'arte in fatto di denoising. |
| inviato il 15 Maggio 2018 ore 20:59
@Nicola sui denoiser dovresti parlare di mia incompetenza Mi piace fare street in città di sera e ovviamente con le Nikon 1 oltre 800-1600 ISO è dura. PRIME è il migliore per abbassare il rumore a 3200 e 6400 ISO delle Nikon 1, partendo da EV 2-4. Ho usato distrattamente Topaz e NIK, non me la sento di esprimere giudizi. Importante: PRIME è applicabile solo su file RAW! |
| inviato il 15 Maggio 2018 ore 21:02
@Django OK, mettilo in cloud, grazie! |
| inviato il 15 Maggio 2018 ore 22:20
Fantastico! Vorrei ringraziare Perbo e Made in Italy per aver messo in luce queste due tecnologie. Abbinate tra loro porteranno a risultati mai ottenuti. |
| inviato il 15 Maggio 2018 ore 23:43
Ottimo articolo, come immaginavo il trainig è sullo studio del comportamento di un determinato sensore in varie condizioni e parametri di scatto, non delle possibili foto che può scattare sul pianeta . Guarda caso Gcam e IA sono state sviluppate da Google che di certo non si fa concorrenza da solo, troveranno applicazioni diverse. Purtroppo per le vecchie foto non credo che svilupperanno il comportamento dei vecchi sensori per recuperarle. In futuro si farà post-produzione per simulare il read-noise "dei tempi miei", di "quando ero giovane io" come quando oggi si simula la grana per il bianco e nero |
| inviato il 16 Maggio 2018 ore 1:31
Django sta già facendo delle prove con l' IA. Seguite il suo 3d e magari collaboriamo. Forse l' IA è la risposta alla Gcam su sensori grandi che causa riscaldamento dei sensori, pdc e otturatori lenti non è applicabile. |
| inviato il 16 Maggio 2018 ore 11:02
Ero troppo curioso di vedere se era morto il topic o altro, ma vedo anzi che finalmente si discute su basi concrete e non più sul nulla spinto e su convinzioni strampalate di qualcuno per cui rimetto le notifiche @Django ottimo! Purtroppo ho avuto solo il tempo di clonare il repository sulla mia macchina di sviluppo l'altro giorno dove ho buona parte delle dipendenze già installate, ma non ho ancora trovato il tempo di provare Seguo anche sull'altro thread che hai aperto. @Simgen sì ma vedila da un altro punto di vista: se l'algoritmo ad oggi riesce già a tirar fuori qualcosa di riconoscibile da scatti effettuati in condizioni poco realistiche e sensate (e su questo immagino siamo tutti d'accordo), cosa potrebbe fare in futuro con scatti ad alti ISO effettuati in condizioni più normali e realistiche? Se si guarda la ricerca sotto questo punto di vista, le potenzialità sono interessanti per una riduzione rumore più fine ed efficace, con pochi artefatti evidenti a livello percettivo . |
| inviato il 16 Maggio 2018 ore 12:22
“ sarà tutto bello, ma non mi entusiasma per niente perché non comprendo il significato di voler "illuminare" per forza una stanza buia se proprio devo, accendo la luce Confuso ho un altro concetto di foto con iso alti „ Il problema è che questa non è più fotografia. Strumenti che permettono di "ricostruire" e vedere in piena notte sono strumenti che vanno bene per la sorveglianza, ma con la fotografia non hanno nulla a che vedere. “ sommando le informazioni che provengono dai frame, si aumentando la risoluzione. Adesso non ce l'ho, ma questa sera ti posto un singolo frame del deodorante che ho usato per il test da cui potrai verificare che la sua risoluzione e` molto inferiore a quella della foto che ho ottenuto attraverso la fusione dei diversi frame. „ Noneee L'algoritmo lavora con fotografie in alta risoluzione, molti di voi stanno andando su supposizioni e fantasie. Google stessa lo ha scritto, non si tratta di frame video. Sono fotografie correttamente allineate elaborate con punti di nero (black level) e punti di bianco (white level). I punti di nero sono stati studiati per offrire ombre leggibili, ed i punti di bianco per offrire luci non clippate. A questo si aggiunge l'algoritmo allineamento che abbatte rumore etc etc. Questi sono gli scatti come vengono ripresi in multiscatto ed allineati. Le foto sono offerte da Google stessa.
 Il singolo scatto come si vede ha rumore su braccio, viso ed altre zone, ma una volta uniti scompare il rumore.
 |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |