| inviato il 23 Aprile 2023 ore 18:05
"OraBlu i tempi sono 1/125" Grazie Lomography,..... Ottima la tenuta iso della Df... |
| inviato il 23 Aprile 2023 ore 18:07
Possibile che ci metta 2 minuti per un file della Sony a7iii con un PC così? i9-9900 32Gb di ram NVIDIA Quadro P2000 (5 GB GDDR5) |
| inviato il 23 Aprile 2023 ore 18:12
Aggiungo che oltre lavorare sul rumore a me sembra che migliori anche i colori |
| inviato il 23 Aprile 2023 ore 18:18
Se la gpu ti lavora al 100 % si |
| inviato il 23 Aprile 2023 ore 18:23
“ Se la gpu ti lavora al 100 % si „ Sì, lavora al 100%, la credevo più performante |
| inviato il 23 Aprile 2023 ore 18:34
“ Ho fatto come hai fatto tu e non c'è nessuna differenza, non ho usato però in quella foto maschere e pennello correttivo. Pensa che il Denoise AI di PS non mi elimina dei pixel bianchi e questi li ritrovo pari pari nella foto convertita sia con le modifiche, che senza modifiche. „ Strano, io in Lr ho dovuto fare la copia virtuale e poi resettarla, altrimenti mi ritrovavo il dng pieno di schifezze. |
| inviato il 23 Aprile 2023 ore 18:35
Però aspettare minuti per una singola finzione lo tro inammissibile.... E quindi, se poi si vogliono fare un po' di prove...? si rischia di passare quarti d'ora per una sola regolazione.... |
| inviato il 23 Aprile 2023 ore 18:37
“ Possibile che ci metta 2 minuti per un file della Sony a7iii con un PC così? i9-9900 32Gb di ram NVIDIA Quadro P2000 (5 GB GDDR5) „ possibilissimo, la scheda grafica è piuttosto modesta... |
| inviato il 23 Aprile 2023 ore 18:39
“ Però aspettare minuti per una singola finzione lo tro inammissibile.... E quindi se poi si vogliono fare un po' di prove, si rischia di passare quarti d'ora per una sola regolazione....Eeeek!!! „ è anche per questo che vendono schede grafiche più veloci :D dovresti vedere con i video :) |
| inviato il 23 Aprile 2023 ore 18:42
@Caorso “ Volevo suggerire a chi non lo avesse fatto e a chi registra tempi di esecuzione troppo lunghi, di aggiornare Photoshop / lightroom all'ultima versione, invece che aggiornare solo camera raw come avevo fatto io in precedenza. Avevo la versione 23.5 di photoshop, dell'anno scorso, e inizialmente avevo aggiornato solo camera raw per provare questa nuova funzione di denoise e registravo tempi di 9-15 minuti a seconda dell'immagine. Ho aggiornato alla versione ultima di Photoshop 24.4.1 e ora i tempi sono di 4-9 secondi. „ Dopo l'aggiornamento hai controllato la versione di CR? |
| inviato il 23 Aprile 2023 ore 19:08
@Caorso Cmq come ho già detto e tu l'hai confermato, le versioni di PS c'entrano, il software è più determinante dell'HW. Ho provato ad aggiornare PS da 24.1 a 24.2 e un file che prima ci impiegava 18 min. ora ne servono 10 min., e l'impegno della GPU arriva anche al 100% mentre prima arrivava max al 50%. Viceversa la CPU non è impegnata troppo, questo vuol dire che i programmatori di PS stanno migliorando gli algoritmi e li avranno perfezionati nella versione che cita Caorso 24.4, se ha visto bene PS: @Juza, siamo già a pag.15, visto che la questione non è ancora chiara, concedici qualche pagina in più, grazie. >>>>>> ATTENZIONE <<<<<< Ho aperto la seconda parte di questo Topic www.juzaphoto.com/topic2.php?l=it&show=last&t=4513658#26831997 |
| inviato il 23 Aprile 2023 ore 19:25
“ Corretto, grazie mille. ;-) „ Sto facendo dei test con altri denoise generici, i risultati per ora sono quanto detto prima.. appena riesco li posto P.s Ho usato i denoise che avevo e questi sono i risultati: imgsli.com/MTcyOTgy A me non impressiona molto, pialla parecchio, crea i soliti artefatti e rimane comunque della grana di fondo per qualche motivo. Sarebbe stato interessante provare con altri raw di avifauna, astrofoto ecc... ma al solito si raggiunge il limite di pagine senza arrivare ad una conclusione |
| inviato il 23 Aprile 2023 ore 19:32
Per me il denoise di adobe non e ancora a posto lascia dei residui |
| inviato il 23 Aprile 2023 ore 19:57
“ Ti va di rendere più terra terra questo concetto? „ Volentieri. Diciamo che in fisica matematica ci sono due grandi categorie di metodi: quelli deterministici e quelli statistici (o "a posteriori"). I primi si basano su una conoscenza della fisica del fenomeno studiato, espressa tramite un'equazione matematica. Ad esempio, per un sistema lente/sensore, si ipotizza che ci sia un'immagine "vera", scononsciuta, e un'immagine "osservata", con rumore casuale e difetti introdotti dal sistema lente/sensore (che non e' perfetto). Un concetto molto utilizzato in questi casi e' quello di "point spread function (PSF)": se io avessi un sistema lente/sensore ideale, osservando una sorgente puntiforme ricaverei un'immagine puntiforme. Nella pratica quotidiana, si osserva invece un "punto allargato", appunto la PSF, che e' un po' la "firma" di un sistema ottico reale (non e' l'unico parametro, ne esistono molti altri che definiscono ad esempio la deformazione ai bordi, l'aberrazione cromatica, etc etc). Dalla conoscenza della PSF definisco un modello matematico, in questo caso specifico un'equazione integrale di Fredholm di I specie che risolvo con metodi numerici ad hoc, trovando una soluzione che rappresenta l'immagine più nitida e ripulita dal rumore. Queste tecniche le applicavamo (io e molti altri) gia' 30 anni fa per il trattamento delle immagini dello Hubble Space Telescope. Non sono troppo costose del punto di vista computazionale, e ne posso applicare un certo numero in serie, una per ogni task specifico: è quello che ho chiamato approccio "tradizionale" della post produzione. Il deep learning (DL) consiste in reti neurali di grande scala che appartengono invece alla seconda categoria. Il DL si disinteressa completamente del modello fisico sottostante e apprende come generare un'immagine demosaicizzata e ripulita dal rumore semplicemente osservando un grande numero di esempi (il dataset di training o "addestramento"). L'addestramento è molto pesante dal punto di vista computazionale e, per modelli seri di DL, non si puo' fare sulle nostre macchine, ma servono server veloci progettati ad hoc. Non e' neanche del tutto chiaro perche' le reti neurali funzionino, al di la' di alcuni risultati teorici generali (si veda ad esempio qui per una trattazione divulgativa), pero' funzionano, anche dannatamente bene in alcuni casi. Nel caso del denoising di DXO/Adobe il punto di forza, secondo me, non e' tanto l'algoritmo in se': chi come me e tantissimi altri lavora quotidianamente con DL saprebbe, a livello di massima, come organizzare una NN per il denoising date una base di immagini abbastanza ampia e modelli realistici di rumore con cui generare esempi sintetici (ovviamante, non credo ci sia bisogno di dirlo, realizzare un prodotto industriale robusto, ottimizzato e capace di trattare in tempi ragionevoli immagini provenienti dai sensori piu' disparati e' una cosa *completamente* diversa, non e' il mio lavoro e non saprei neanche da dove iniziare). La cosa innovativa, invece, è questo approccio che DXO definisce "olistico" in cui tutto il trattento demosaicizzazione + denoising viene fatto da un unico modello DL. Di nuovo, non avrei idea di come progettarlo a meno che non si tratti semplicemente di usare brutalmente un insieme di training molto grande di immagini RAW rumorose e immagini pulite: voglio pensare che non usino un approccio cosi primitivo ma abbiano ideato qualcosa di piu' alto livello creativo e metodologico. |
|

Metti la tua pubblicità su JuzaPhoto (info) |