| inviato il 02 Aprile 2025 ore 13:01
@Gianpietro anche su DXO c'erano risultati strani ambito Mac nei test fatti nell'altro thread. |
| inviato il 02 Aprile 2025 ore 14:59
“ PC i7-14700 GPU: RTX 4060 8Gb XT4: 6 secondi ATR4: 24 secondi „ Ciao, ho ricontrollato gli appunti che avevo salvato riguardo i test del Denoise AI. Mi sono accorto che, per una mia svista, i test li avevo fatti usando il Plugin ACR richiamato da Adobe Bridge, quindi oggi ho ripetuto i test ma in Lightroom Classic. Questi sono i risultati dei test rifatti con LR, Denoise AI 50%: PC: CPU: i7-14700K - RAM: 32Gb DDR5 - GPU: RTX 4060 8Gb XT4: 9 secondi ATR4: 27 secondi Scusatemi per la svista |
| inviato il 02 Aprile 2025 ore 16:25
“ anche su DXO c'erano risultati strani ambito Mac nei test fatti nell'altro thread. „ Sempre usando i processori neural engine? |
| inviato il 02 Aprile 2025 ore 16:29
Dunque fino ad eventuale nuova release Lightroom, i Mac potrebbero impiegare più tempo per il Denoise AI? Ho capito bene? |
| inviato il 02 Aprile 2025 ore 16:29
c'erano M1 base che andavano meglio di M pompati, poi cosa usa il sistema non è dato sapere(lo sapranno quelli di DXO). |
| inviato il 02 Aprile 2025 ore 17:28
“ Dunque fino ad eventuale nuova release Lightroom, i Mac potrebbero impiegare più tempo per il Denoise AI? Ho capito bene? „ dipende che mac, di sicuro un mac m4 pro con 40gpu core andrà meglio di uno base con 10 gpu core. sembra che l'elaborazione con i neural engine non fosse corretta per questo andava veloce, ma aveva problemi della qualità del denoise. |
| inviato il 02 Aprile 2025 ore 17:32
Grazie mille Murphy! |
| inviato il 03 Aprile 2025 ore 0:08
@GianlucaM83 È comunque una informazione importante: Lightroom impiega 3 secondi a richiamare lo strumento, inoltre questo tempo sembra fisso e non connesso ad altri fattori (file, cpu, ram e gpu) |
| inviato il 03 Aprile 2025 ore 7:36
Non è un discorso di richiamare lo strumento. La misurazione del tempo avviene a strumento richiamato. Nel mio caso la differenza è del 30% sul file della R4 tra lightroom ed ACR. Non bazzecole. |
| inviato il 03 Aprile 2025 ore 8:18
Nel mio caso LR mi segnala un tempo di 8 secondi per effettuare la riduzione rumore; i 12 secondi calcolati da me tengono conto anche della creazione del secondo file. Comunque il raw della sony è 4 volte quello della fuji, ed i tempi di elaborazione sono di 4-5 volte più elevati, alla fine i tempi sono proporzionali. Se trovo un raw di una fuji da 100mpx sono curioso di provare a vedere in quanto tempo lo elabora |
| inviato il 03 Aprile 2025 ore 15:32
Confermo, anche io ho misurato il tempo a strumento già aperto, in particolare ho fatto partire il timer subito dopo aver fatto click su "Migliora". Si potrebbe ipotizzare che, visto che Lightroom dovrebbe utilizzare le librerie Vulkan, il tempo in più che impiega rispetto ACR per elaborare il file, sia dovuto al fatto che Lightroom stesso usa l'accelerazione hardware per altri compiti. Quindi, il software una volta che fa partire il Denoiser, deve prima interrompere la Pipeline già aperta legata all'utilizzo generico della GPU, svuotare il buffer, successivamente creare un nuova Pipeline dedicata al Denoiser, allocare il buffer e compilare gli Shader. Ecco, secondo me, tutto questo processo potrebbe generare latenza. Quanta? Dipende dalla macchina utilizzata, nel mio caso 3 secondi. |
| inviato il 03 Aprile 2025 ore 15:56
Scusate la mia ignoranza ma leggo: 'Notebook Asus TUF A15 - Ryzen 7 7435HS, 16GB RAM - NVIDIA 3050 4GB - 749 euro XT4: 12 sec A7R4: 58 sec' Pertanto se installo una rtx 3050 8GB al mio pc con Intel I5 12400 dovrei ottenere risultati leggermente migliori o sbaglio? Grazie |
| inviato il 03 Aprile 2025 ore 16:39
La 3050 del mio notebook è la versione Laptop, quindi dovresti avere maggiori performance La versione 8gb dovrebbe avere performance migliori della mia (4gb) |
| inviato il 03 Aprile 2025 ore 17:48
test rifatti con LR, Denoise AI 50% AMD Ryzen 5 5600X 6-Core (under core voltage) NVIDIA GeForce RTX 4060 Ti Memoria GPU 16,0 GB RAM DDR4 32GB 3600 XT4: 9 sec A7R4: 26 sec |
| inviato il 03 Aprile 2025 ore 18:55
“ Quindi, il software una volta che fa partire il Denoiser, deve prima interrompere la Pipeline già aperta legata all'utilizzo generico della GPU, svuotare il buffer, successivamente creare un nuova Pipeline dedicata al Denoiser, allocare il buffer e compilare gli Shader.” Scusatemi se mi sono espresso male, ma per “richiamare lo strumento” intendevo qualcosa del genere. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |