| inviato il 24 Aprile 2023 ore 15:55
Apro questo Topic per dare seguito alla discussione iniziata nel Topic aperto da Juza: "Adobe AI Denoise, la mia prova" www.juzaphoto.com/topic2.php?l=it&t=4510794 in modo da poter definire alcune cose rimaste senza risposta. |
| inviato il 24 Aprile 2023 ore 16:02
Intanto vi aggiorno sulla questione software. Ho installato PS 24.4.1 e CR 15.3, a differenza di quello che diceva Caorso, vi posso dire che non c'è stato il miglioramento che mi aspettavo, cosa che già avevo ottenuto con la versione 24.2.0. |
| inviato il 24 Aprile 2023 ore 16:12
@Illecitnom “ Volentieri. Diciamo che in fisica matematica ci sono due grandi categorie di metodi: quelli deterministici e quelli statistici (o "a posteriori"). I primi si basano su una conoscenza della fisica del fenomeno studiato, espressa tramite un'equazione matematica. Ad esempio, per un sistema lente/sensore, si ipotizza che ci sia un'immagine "vera", scononsciuta, e un'immagine "osservata", con rumore casuale e difetti introdotti dal sistema lente/sensore (che non e' perfetto). Un concetto molto utilizzato in questi casi e' quello di "point spread function (PSF)": se io avessi un sistema lente/sensore ideale, osservando una sorgente puntiforme ricaverei un'immagine puntiforme. Nella pratica quotidiana, si osserva invece un "punto allargato", appunto la PSF, che e' un po' la "firma" di un sistema ottico reale (non e' l'unico parametro, ne esistono molti altri che definiscono ad esempio la deformazione ai bordi, l'aberrazione cromatica, etc etc). Dalla conoscenza della PSF definisco un modello matematico, in questo caso specifico un'equazione integrale di Fredholm di I specie che risolvo con metodi numerici ad hoc, trovando una soluzione che rappresenta l'immagine più nitida e ripulita dal rumore. Queste tecniche le applicavamo (io e molti altri) gia' 30 anni fa per il trattamento delle immagini dello Hubble Space Telescope. Non sono troppo costose del punto di vista computazionale, e ne posso applicare un certo numero in serie, una per ogni task specifico: è quello che ho chiamato approccio "tradizionale" della post produzione. Il deep learning (DL) consiste in reti neurali di grande scala che appartengono invece alla seconda categoria. Il DL si disinteressa completamente del modello fisico sottostante e apprende come generare un'immagine demosaicizzata e ripulita dal rumore semplicemente osservando un grande numero di esempi (il dataset di training o "addestramento"). L'addestramento è molto pesante dal punto di vista computazionale e, per modelli seri di DL, non si puo' fare sulle nostre macchine, ma servono server veloci progettati ad hoc. Non e' neanche del tutto chiaro perche' le reti neurali funzionino, al di la' di alcuni risultati teorici generali (si veda ad esempio qui per una trattazione divulgativa), pero' funzionano, anche dannatamente bene in alcuni casi. Nel caso del denoising di DXO/Adobe il punto di forza, secondo me, non e' tanto l'algoritmo in se': chi come me e tantissimi altri lavora quotidianamente con DL saprebbe, a livello di massima, come organizzare una NN per il denoising date una base di immagini abbastanza ampia e modelli realistici di rumore con cui generare esempi sintetici (ovviamante, non credo ci sia bisogno di dirlo, realizzare un prodotto industriale robusto, ottimizzato e capace di trattare in tempi ragionevoli immagini provenienti dai sensori piu' disparati e' una cosa *completamente* diversa, non e' il mio lavoro e non saprei neanche da dove iniziare). La cosa innovativa, invece, è questo approccio che DXO definisce "olistico" in cui tutto il trattento demosaicizzazione + denoising viene fatto da un unico modello DL. Di nuovo, non avrei idea di come progettarlo a meno che non si tratti semplicemente di usare brutalmente un insieme di training molto grande di immagini RAW rumorose e immagini pulite: voglio pensare che non usino un approccio cosi primitivo ma abbiano ideato qualcosa di piu' alto livello creativo e metodologico. „ Come diceva Totò: alla faccia del bicarbonato di sodio! ... perché doveva essere una spiegazione terra terra? Scherzi a parte, grazie per la lezione |
| inviato il 24 Aprile 2023 ore 17:10
provato diverse foto della d7200 e della d750 ad alti iso secondo me e rispetto a topaz ai denoise(la vecchia versione che ho) ha fatto un buon lavoro. Recuperate molto bene |
| inviato il 24 Aprile 2023 ore 21:33
io ho provato su un raw della xt5 e non ha impiegato più di 10sec, i5 11500/32gb di ram, ssd nvme e rtx3050 |
| inviato il 24 Aprile 2023 ore 22:26
senti Iw9 mi dici quanta RAM ha la tua scheda video e che versione di CR hai? |
| inviato il 24 Aprile 2023 ore 22:29
“ Come diceva Totò: alla faccia del bicarbonato di sodio! ... perché doveva essere una spiegazione terra terra? Scherzi a parte, grazie per la lezione „ |
| inviato il 24 Aprile 2023 ore 23:07
“ ma in questo, i core rt delle schede rtx offron vantaggi (non dovrebbero esser ottimizzati per il dl?) o conta solo la forza computazionale bruta? „ Secondo me gli RT servono soprattutto per il ray tracing (come dice il nome), quindi gaming super-realistico ad alta definizione. Per AI la parola d'ordine e' tensor core. Le gpu , quando utilizzate per fare girare modelli deep learning, vanno viste piu' come una tipologia di acceleratori hardware che come device per la grafica: servono ad accelerare prodotti matrice-matrice (il collo di bottiglia computazionale dell'inferenza AI) piuttosto che a visualizzare immagini. Aggiungo anche che, secondo me, AMD, sia lato CPU che lato GPU, ha puntato tutto sulle performance dell'hardware e poco o niente su quelle del software: in questo campo ora si trova molto indietro sia rispetto Intel (per le CPU, dove non ha neppure sviluppatto un compilatore C/C++ ottimizzato per i propri chip, cosa per me incomprensibile) che rispetto Nvidia (per le GPU, dove ha un ambiente di sviluppo limitato e neanche lontanamente paragonabile a quello altamente ottimizzato di Nvidia, Cuda). Cosi', se uno vuole fare gaming anche a livello molto alto le gpu AMD vanno benissimo (dopotutto AMD fa il 20% del proprio fatturato, un'enormita', con i chip per le PS5 di Sony) ma se ha intenzione di sfruttare al massimo i modelli deep learning che stanno arrivando anche per la fotografia computazionale, allora e' meglio andare su Nvidia. Lo dico anche come sviluppatore: implementare reti neurali ottimizzate usando gli strumenti di Cuda come CuDNN e' relativamente semplice; con AMD o Intel... mi sembra un po' piu' complicato, a partire dalla scelta dell'ambiente di lavoro. Consigli molto generali che mi sento di dare a chi vuole utilizzare il deep learning in fotografia e non ha le idee chiare sono i seguenti: - non e' il caso di farsi prendere dalla frenesia e partire subito con l'acquisto di costosissime gpu: meglio provare a usare quello che si ha, poi magari si scopre che questi algoritmi DL interessano fino a un certo punto o comunque il PC che abbiamo, anche se non e' stato dell'arte, permette di eseguirli in tempi dignitosi e accettabili; - se invece si vuole fare un upgrade del proprio PC o si era gia' deciso di comperarne uno nuovo allora consiglio senz'altro di scegliere una gpu dedicata (no gpu integrate) Nvidia; mi sembra che il miglior rapporto qualita'/prezzo in questo momento ce l'abbiano la 3060 (scesa sotto i 350 euro) o la 4070 (scesa sotto i 650 euro); - se volete fare gaming a livello molto spinto sapete meglio di me cosa prendere, pero' rimane valido il consiglio di scegliere Nvidia se volete usare anche algoritmi DL; - infine, discorso a parte per i chip Silicon m1/m2 di Apple: ne so pochissimo ma vedo dai numeri che vanno inaspettatamente bene anche con la loro GPU integrata, che secondo le mie stime e' grosso modo allineata o poco sotto, come prestazioni AI, ad una Nvidia 3050. Bene anche loro, dunque,come alternativa ai PC con gpu dedicata Nvidia. Tutte mie personalissime opinioni altamente questionabili, ovviamente. |
| inviato il 25 Aprile 2023 ore 8:32
Ciao Mario2006 la mia scheda video ha 8GB di RAM dedicata il modello é questo : Zotac Gaming Geforce Rtx 3050 Twin Edge Oc 8Gb Gddr6 sto usando la versione di LR 12.3 con CameraRaw 15.3 ho fatto una prova tenendo i grafici di windows a vista per vedere effettivamente cosa va a "palla" durante l'elaborazione, la GPU va al 100% mentre la CPU va attorno al 15% se posso dare un consiglio, riferendomi al commento di Illecitnom il quale concordo in buona parte, non bisogna secondo me andarsi a svenare per GPU costosissime solo per un uso di foto/video editing, basandomi sulla mia modesta esperienza, una RTX3050 ( entry level della serie 30 ) giá ha prestazioni allucinanti in confronto alla piú moderna CPU intel . ...considerate poi che spesso di trovano sul warehouse di Amz a pochissimo, la mia l'ho pagata 180eur !!!!! saluti |
| inviato il 25 Aprile 2023 ore 12:24
@Iw9grl Avrai sicuramente una scheda grafica con 8 GB, migliore della mia Quadro con solo 2 GB però una CPU I7, ma non riesco a capire come si possa passare da oltre i 10 minuti a 10 secondi. C'è qualcosa che non mi torna! Ma quando in CR attivi Migliora, ti esce il menu popup per settare la quantità della riduzione del disturbo? |
| inviato il 25 Aprile 2023 ore 13:17
Mario quella funzione usa solo la gpu. La cpu conta poco. Nel post vecchio ci sono i miei test. La tua gpu ha poca memoria e poca potenza. |
| inviato il 25 Aprile 2023 ore 13:39
Ri-posto la domanda anche qui: Notate anche voi un miglioramento sui colori e la loro saturazione? Forse anche di gamma dinamica? |
| inviato il 25 Aprile 2023 ore 13:49
Rispetto a topaz sulla gestione colore si. Ma ho una versione vecchia di topaz |
| inviato il 25 Aprile 2023 ore 14:30
“ Mario quella funzione usa solo la gpu. La cpu conta poco. Nel post vecchio ci sono i miei test. La tua gpu ha poca memoria e poca potenza. „ Murphy con l'ultima versione di PS si, ma già con la 4.1 no, l'ho provata. |
| inviato il 25 Aprile 2023 ore 14:39
“ Notate anche voi un miglioramento sui colori e la loro saturazione? Forse anche di gamma dinamica? „ Hai fatto delle regolazioni in CR prima di usare Migliora? |
|

Metti la tua pubblicità su JuzaPhoto (info) |