| inviato il 04 Novembre 2024 ore 9:43
Questo post vuole essere una raccolta di benchmark utente di esportazione massiva di utilizzatori del raw developer "DxO Photolab". Prima parte: www.juzaphoto.com/topic2.php?l=it&t=4902315 Come funziona: 1) scaricate il pacchetto zip ( 415 MB ) dei SETTE (7) file RAW da sviluppare (tutti presi da Imaging Resource!) a questo link Dropbox: ==> PACCHETTO DI RAW DI PROVA (se il link non funziona, provate a visitarlo "in incognito"; se anche così non funziona fatemelo sapere!!!) 2) posizionate tutti i raw in una medesima cartella e posizionatevi con la library di Photolab su quella cartella 3) selezionate in Photolab PER TUTTE LE FOTO DI CUI SOPRA il metodo di denoise più pesante a vostra disposizione: ad esempio "Deep Prime XD" per Photolab 6 e 7, "Deep Prime XD2/s" per Photolab 8, Deep Prime per Photolab 4 e 5. 4) Come parametri di sviluppo va bene un po' tutto, la cosa si è rivelata essere quasi ininfluente ai fini delle tempistiche globali, ma come prassi sceglierei quelli di default del profilo di sviluppo standard di Photolab: qualora sceglieste "No corrections" (niente eccetto il denoise DPXD / DPXD2s) specificatelo nel campo "Note". 5) selezionate tutte le foto e cliccate su Export to Disk - va bene l'esportazione standard/default in jpeg di Photolab! 6) segnatevi il tempo che ci mette nella finestrella del report dell'operazione di esportazione E infine postate qui il vostro risultato nel formato seguente: ==> CPU: <modello_cpu_completo> ad es. Intel I7 13700, Ryzen 7 7800X ==> RAM: <quantità_ram> <velocità_ram> ad es. 32GB DDR5 5000MHz ==> GPU: <modello_GPU_completo> ad es. Gigabyte NVIDIA RTX 3060 8GB o MSI AMD RX 6600 XT ==> Vers. PL: <versione_photolab> ad es. PL8, PL7, PL6, oppure PR3, PR4 (Pure Raw) ==> Denoise usato: <versione_deep_prime_usata> ad es. DP, DPXD, DPXD2s ==> Tempo impiegato: <tempo_in_secondi> (numero secco dei secondi impiegati, es per 1m10s = "70" ==> Note: <note eventuali: se prova con laptop ad es. indicate se attaccato alla corrente o a batteria ; oppure altre cose specifiche particolari del vostro test, tipo se non avete selezionato alcuna correzione sul RAW eccetto il denoise scrivere "NO Corrections"> NB: se mi indicate il tempo in secondi senza altre lettere accanto mi fate un favore per il data entry! Ad esempio con 4 minuti e 25 secondi scriverete semplicemente 265 Chiaramente se avete più sistemi e/o più versioni di PL e/o più condizioni specifiche di prova (batteria/corrente per i laptop), andrete a creare più di un risultato per post, come ho fatto io col primo intervento e altri successivamente. DISCLAIMER: NON È UNA GARA e Adobe non c'entra niente! Ogni eventuale scontro celoduristico in merito sarà punito con l'esclusione dal topic. Questo il foglio di calcolo risultante, aggiornato via via: docs.google.com/spreadsheets/d/1V2a7ipdYbTaGFcs1EjUmCvHCsdK7H8WTE1J-9x Speriamo di poter fare una buona raccolta, che sarà utile a tante persone per scegliere il proprio hardware da dedicare al fotoritocco nel caso utilizzino Photolab. Accorrete numerosi! |
| inviato il 04 Novembre 2024 ore 10:35
Breve appunto sui mac silicon: osservando il comportamento di memoria ram usata CPU e GPU, non risultano grandi variazioni e/o uso al massimo di Ram, CPU e GPU. Quindi è più legato al programma se con mac silicon le prestazioni sono livellate verso il basso, inoltre il mac M2 PRO ad oggi risulterebbe il più performante rispetto ad altre configurazioni tranne l'ultra. Ma con Photolab anche lui sembra livellarsi verso il basso. In conclusione PL non sfrutta appieno le neural engine e la tecnologia arm è stata solo resa compatibile per far girare il programma e non per il suo sfruttamento al massimo delle prestazioni HardWare. Sembra che abbiano in agenda questo tipo di sviluppo, ma non sembra essere tra le cose di primaria importanza. |
| inviato il 04 Novembre 2024 ore 11:30
Sembra esserci qualche problema di qualità delle immagini con il Neural Engine, non ho approfondito ma sembra che presto anche Adobe smetterà di usarlo: www.dpreview.com/forums/post/67964802 |
| inviato il 04 Novembre 2024 ore 12:57
Da quello che ho letto lo hanno solo ridotto come velocità. Il problema è solo nel riscrivere il codice per arm, in Davinci Resolve che lo fa per video-editing si fanno cose molto più pesanti e tutto funziona senza perdita di qualità. Il vero discorso è che il codice va scritto per arm in modo specifico, fra qualche anno di mac intel ci sarà poco niente in giro e dovranno iniziare a pensare di scrivere per arm quando parlano di mac. Difatti in DxO la cosa è nota e non l'hanno messa tra le priorità per non scrivere codice per mac intel e per mac arm che sarebbe illogico visto che si va verso la perdita di intel nei mac ad ogni anno che passa. Difatti esiste nelle impostazioni la possibilità di usare GPU o Neural engigne, ma serve solo per i mac intel, per neural engine andrebbe scritto un codice diverso. |
| inviato il 05 Novembre 2024 ore 11:05
Proprio ieri, per scrupolo, ho rifatto la prova di cui ho riportato i risultati nella discussione vecchia e il tempo necessario si è confermato di 148 secondi. Mi chiedo se l'overclocking della scheda video abbia un senso, in queste funzioni. |
| inviato il 05 Novembre 2024 ore 11:42
“ Mi chiedo se l'overclocking della scheda video abbia un senso, in queste funzioni. „ Ho forti dubbi che incida in una qualche maniera... Anche perché oramai quelle che ti vendono sono quasi tutte overcloccate in una qualche maniera dal costruttore (OC Edition, Extreme, Pump, Gaming, Super OC, antani, sblinda... )! Di schede stock ormai si vedono quelle dei primi tempi al lancio e poi stop... |
| inviato il 05 Novembre 2024 ore 12:24
Ho fatto questa domanda perché da qualche parte devo aver letto che la mia MSI 1070 8 GB è overcloccabile, anche se in realtà non ho capito come fare. Un altro aspetto interessante, probabilmente dal punto di vista creato dalla mia sostanziale incompetenza, è quello di capire riguardo alle prestazioni dei diversi tipi di schede, quanto incidano le prime due cifre, 10, 20, 30 eccetera, quanto le seconde due 50, 60, 70 e quanto infine i giga di RAM. Quindi, traducendo, cosa sarà meglio, e in funzione di quali parametri, una 1070 o una 2060 e quale sarà la differenza tra quest'ultima e, ad esempio una 3060? Perché una 4080 è meglio di una 4060? Come se ancora non bastasse, ora vado OT, almeno in parte, per dire che la scorsa settimana ho scattato delle foto all'interno dell'abbazia di Pomposa, davvero molto buia, a 5000 ISO. Ho tenuto abbastanza chiuso il diaframma, 5,6 se non ricordo male, e usato tempi piuttosto veloci, forse 1/320, contando forse troppo sulle possibilità di recupero del sensore della D810 e sulle possibilità offerte dai riduttori di rumore di nuova generazione. Ora in ACR, dopo la passata con Deep Prime XD, ho voluto forzare un po' troppo la mano, andando con l'esposizione a oltre +2,5 e aprendo inoltre in maniera sostanziale ombre e neri. Non pago, ho dato una forte esaltazione di nitidezza e dettagli, intorno al 60, mascheratura, forse intorno al 25, e poi lavorato con filtro accentua passaggio, 1,0 Px e uno step HIRALOAM con maschera di contrasto forse con PX sopra il 200 e livello 5 o 6, entrambi con opacità 100%. Risultato, una foto assolutamente spettacolare, che fa saltare fuori tante cose che non si riuscivano a vedere di persona e a occhio nudo, ma quando vado su visione al 100% il rumore c'è e pure tanto. Quindi ho rifatto lo sviluppo ACR limitando molto più nitidezza e dettagli, 20-25, e portando l'opacità di accentua passaggio e HIRALOAM sotto il 75%, oltre a usare per quest'ultimo un valore PX meno esagerato. Il rumore sembra quasi sparito, per saltare fuori di nuovo se riporto l'opacità verso il 100, ma il risultato finale ovviamente non è più quello di prima. Mi chiedo allora cosa accadrebbe se portassi il livello di Deep Prime XD oltre il 40% stabilito di default? Forse ammazzerebbe il dettaglio o produrrebbe artefatti di sorta, sempre in agguato con PL se si agisce in maniera troppo marcata coi suoi cursori? |
| inviato il 05 Novembre 2024 ore 12:31
Dovresti vedere se te lo consente il programma ufficiale: MSI Afterburner questo il suo nome. Lo trovi qua: www.msi.com/Landing/afterburner/graphics-cards Riguardo il modello, sembra che Photolab sia molto influenzato dai TOPS (Tera Operations Per Second) di cui è capace la scheda. Ma in generale torna, perché il machine learning / deep learning altro non è che - mi si perdoni la semplificazione brutale - un algoritmo che intavola miliardi di super operazioni matriciali. Per cui si, se una 2060 eroga più TOPS di una 1070, per Photolab la prima risulterà più veloce (per quanto forse in modo non così "conveniente") rispetto alla seconda. Questo spesso può essere dovuto ad hardware specifico incluso nella scheda (vedi i Tensor Core della RTX ad esempio) che aumentano in modo significativo le capacità di compiere i calcoli di cui sopra. |
| inviato il 05 Novembre 2024 ore 12:37
Grazie Black, noto pozzo d'informazioni! |
| inviato il 05 Novembre 2024 ore 12:40
Troppo buono! Magari fossi pozzo... invece non me le tira nessuno un sacco di monetine come fanno alla fontana di Trevi... |
| inviato il 05 Novembre 2024 ore 12:42
Perché da pozzo ancora non sei passato a fontana! E poi attento, perché quelli a cui hanno tirato le monetine hanno fatto una finaccia! Era tutta una messinscena, come sempre, ma insomma... |
| inviato il 05 Novembre 2024 ore 12:49
PS: tieni presente che 5000 ISO +2,5EV sono 25600 ISO reali... e se poi hai anche alzato ombre e neri, magari nelle zone dove c'era meno esposizione hai 40000 o anche 51200 ISO equivalenti... la coperta comincia ad essere abbastanza cortina a quei valori e dove non c'è segnale... non c'è, quindi se l'algoritmo DL inventa male ti tieni l'artefatto! Quindi si, probabilmente in queste situazioni alzare troppo il cursore del DPXD produrrebbe diversi artefatti: a meno che il soggetto non sia un qualcosa che è MOLTO ben trattato dal DB di riferimento dell'algoritmo del DPXD (e un interno di chiesa forse lo è pure!), nel qual caso ti potresti pure salvare ottenento il "risultato spettacolare". Insomma è da provare, non esiste un'immagine uguale all'altra sotto questo aspetto: però un'immagine limite come quella che hai descritto poi va controllata e spulciata a livello di risultato, se poi devi usare il file per scopi che non siano social o stampe piccole; perché per il DPXD lì la situazione non è come con i 12800 ISO esposti bene, che ormai per questi algoritmi sono davvero "acqua fresca". |
| inviato il 05 Novembre 2024 ore 14:14
@TheBlackbird Tutto dannatamente vero quello che dici, inoltre vero è anche che la zona 1 nella sua metà verso zona 0 ha ben poche informazioni, quindi 5000 ISO + 2,5EV avranno ben poco su cui capire cosa ci sia presente in quell'ombra e ovviamente l'AI ha poco su cui aggrapparsi. Ovviamente un 12800 ISO esposti bene qualcosa in più in quella zona ce l'ha e l'AI ha più info su cui lavorare. Ovviamente poi spostandosi verso zona due le info ci sono maggiormente e su quello l'AI fa riferimento per ricostruire o costruire qualcosa che sia inerente al soggetto. Questo vale per ogni denoise in generale che fa uso di AI. |
| inviato il 05 Novembre 2024 ore 16:26
La foto è questa, nella versione meno rumorosa dopo la PP, ridimensionata all'80% altrimenti andava fuori il peso ammesso per ciascuna immagine. ibb.co/PTdHVP5 |
| inviato il 05 Novembre 2024 ore 16:58
Gli interventi dell'AI si vedono, nel soffitto che sembra un'illustrazione e nell'ombra dietro le arcate all destra dell'altare è un buco nero, nelle luci la troppa nitidezza usata inizia a fare i classici puntini bianchi sia sul pavimento che sulle zone di luce sui muri. Secondo me avrei scattato allo stesso diaframma ma invece di 1/320 a 1/200 e agli stessi iso e avresti recuperato 1 EV nelle ombre. Poi per essere sicuro uno scatto a 1/125 lo avrei fatto che se non c'è micro-mosso te la potevi cavare, al massimo usavi il cielo dello scatto a 1/200 e recuperavi su quel file le alteluci delle finestre ed avevi recuperato 2 EV. Non c'era movimento e anche a mano libera 1/200 basta anche per il micro-mosso. @TheBlackbird ha ragione nel suo discorso e avrei scattato per le ombre anche perchè sulle alteluci si recupera di più che sulle ombre e comunque anche una bruciatura nelle finestre che sono una parte minima della foto ci sta. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |