RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Raccolta Benchmark Utente - DxO Photolab - Parte 2


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Raccolta Benchmark Utente - DxO Photolab - Parte 2





avatarsenior
inviato il 13 Ottobre 2025 ore 22:28

Ivo è proprio perché guardo alla stampa che non valuto dp3, PR pur applicandolo su qualsiasi file, perché tanto non fa danni, risulta realmente efficace su file estremi dove il rumore è veramente elevato, e xd si distingue.
Per la gran parte dei file il denoise ai di adobe sarebbe più che abbondante anzi spesso anche preferibile a dp2, purtroppo non è duttile come PR.

Dp3 alla fine non fa molto meglio di dp2…ma è più veloce.
Quindi ben venga se riuscissero a tirar fuori un nuovo algoritmo con risultati analoghi all'attuale 2xds ma più veloce.
Non penso per altro sia possibile o necessario far meglio del 2xds…farei volentieri l'upgrade.
Ah…sarebbe anche bello se riuscissero a gestire (ovviamente con risultati peggiori) i jpeg.

La paura è che anche loro arrivino agli abbonamenti…

avatarsenior
inviato il 13 Ottobre 2025 ore 23:02

Se arrivano gli abbonamenti è la volta buona che ciaone anche a loro. Almeno per quanto mi riguarda eh.
Peccato non essermi salvato i codici di licenza e gli installer delle versioni 4 e 6... In quello sono stato un frescone.

avatarsenior
inviato il 14 Ottobre 2025 ore 15:03

No scusate, ma il dettaglio in stampa soprattutto il micro-dettaglio e il dettaglio fine di DxO al 100% è oltre la possibilità di riproduzione della stampa fine art tra carta/inchiostri.
Un 24 MPX in un ingrandimento 40x60 corrisponde a 254 dpi.
Andando oltre si scende al di sotto dei 200 dpi per una visione ottimale tra distanza e resa carta/inchiostri per un occhio umano.
Alla fine quello che si ottiene con DxO è al di sopra di ogni risultato in stampa e serve solo per ingrandimenti oltre il 100% a monitor che poi in stampa verranno persi comunque.

Il fatto abbonamenti con DxO andrebbe contro gli interessi della stessa DxO in quanto gli abbonamenti si fanno quando si ha un grande numero di utenti e si deve modellare le entrate in modo omogeneo. Cosa che DxO ora non può avere come obiettivo, poi altra cosa da tener presente è che senso avrebbe allora fare una IA che non è su un server cloud ma è nei nostri computer? Una modifica farebbe perdere di credibilità tutta la sua operazione odierna e sarebbe fallimentare.

Sono due politiche di vendita completamente diverse. E se si ha paura che DxO venga acquistata da qualcuno allora è più plausibile che sia Canva vista la sua potenza finanziaria.
Cosa che per ora non è nemmeno pensabile visto che Canva opera per chi pubblica sul web.
Mentre Adobe si tiene il mercato pro e semipro a livello di stampa editoriale e di fotografi.

A volte mi sembra che qui ci sia un pessimismo troppo paranoico.

PS: altra cosa se si deve ingrandire parecchio, ma con l'attuale IA anche in ingrandimento la differenza è impercettibile e in qualche caso anche migliorativa poi per la stampa perché mentre viene fatto l'ingrandimento viene anche fatta una maschera di contrasto per avere una percezione migliore di definizione a livello visivo.

avatarsenior
inviato il 14 Ottobre 2025 ore 15:08

Peccato non essermi salvato i codici di licenza e gli installer delle versioni 4 e 6... In quello sono stato un frescone.


@TheBlackbird
se non sbaglio le vecchie versioni è possibile scaricarle ancora, per i codici li puoi sempre richiedere se hai le ricevute dei pagamenti. Se hai fatto tramite Amazon puoi avere fattura o scontrino se li richiedi.

avatarsenior
inviato il 14 Ottobre 2025 ore 15:54

Ivo la differenza non è nei dettagli ma nella gestione del rumore ed in alcuni bordi, i dettagli lasciamoli ai pixelpeeping, come detto fino a certi iso (anche se in realtà più che iso andrebbero viste le condizioni di luce e quindi tutti i parametri) DXO non serve....che sia DP2, DP3...non serve, se proprio si vuole basta un denoise qualsiasi.









altro che dettagli...

Quando il file è critico....beh ad oggi 2xds dalle mie prove (decine di migliaia di file) è quello che offre i migliori risultati in assoluto, seguito a breve distanza da Adobe (ma decisamente meno duttile per velocizzare dei processi) e successivamente Topaz.

Poi se uno preferisce questo o quello...è propria scelta, ognuno decide con cosa si trova meglio.

avatarsenior
inviato il 14 Ottobre 2025 ore 20:46

le Nvidia sono irraggiungibili.....ma hanno ben altri valori di consumo e riscaldamento (con ventole annesse), sul Mac Ultra ci puoi dormire con la testa accanto, in ogni caso i DXO non sono sviluppati benissimo perché se usano i neural core (di default) vanno più lenti che con GPU.


In teoria il mio Core Ultra 265KF ha la rete neurale, ma a sviluppare con deep prime XD fa schifo.

Ivo dp3 è l'evoluzione di dp2….non dp2xs….sono stati fatti test a non finire, non sono paragonabili.

Dxo dovrebbe semplicemente scrivere meglio il sw per usare la doppia cpu, ma se rilasciano aggiornamenti dopo l'uscita di un sistema operativo che non è supportato lasciano intendere che non siano molto rapidi…


Allora sono recidivi, pensa che sono anni che la comunità chiede a DXO di supportare il multi GPU.
Però adesso non capisco, se pensi ad alcuni Ryzen che sono due die nello stesso package, allora DXO vede solo la metà dei core?

avatarsenior
inviato il 14 Ottobre 2025 ore 21:08

Blade dxo supporta il multigpu (nel senso di core) ma non supporta il doppio processore silicon accoppiato, quindi usa tutte le gpu ma di un solo processore dei due sul mac ultra.

avatarsenior
inviato il 14 Ottobre 2025 ore 21:11

Comunque se uno ha problemi di spazio può benissimo assemblare un sistema così:

Case Cougar dust 2 Mini-ITX (100€)
Alimentatore Cougar 750W o 850W modulare (ad occhio sono corsair rimarchiati) (75-100€)
Cpu Cooler Cougar liquido (75-100€)
MB ASUS Rog Strix mini ITX (c'è per AM5, LGA1851 e LGA1700) (200-250€)
Core Ultra 265KF, o Core I7 14700KF, oppure Ryzen 9 7900X (300€)
48 GB Patriot Viper Extreme DDR5 (200€)
Crucial T705 2TB (200€)
RTX 5070 (530€)

E con 1700-1800€ hai un sistema al top in un case 40x30x20cm






avatarsenior
inviato il 14 Ottobre 2025 ore 21:12

Blade dxo supporta il multigpu ma non supporta il doppio processore silicon accoppiato, quindi usa tutte le gpu ma di un solo processore dei due sul mac ultra.

Faccio una prova con il muletto dove ho due GTX560, fino a poco tempo fa ne usava una.

avatarsenior
inviato il 14 Ottobre 2025 ore 22:24

Però adesso non capisco, se pensi ad alcuni Ryzen che sono due die nello stesso package, allora DXO vede solo la metà dei core?


non credo che usi più di una GPU, ma come CPU usa tutti i core disponibili a seconda del carico di lavoro. Con DP3 e la RTX4070 arriva ad usare costantemente tutti i 16 core, con DP XD ovviamente meno perchè la GPU ha più carico. Tra l'altro PL9 all'installazione mi ha suggerito di disabilitare OpenCL perchè la CPU era più veloce.

avatarsenior
inviato il 14 Ottobre 2025 ore 22:45

Blade è probabilmente che non accetti due schede come non accetta due silicon.
Il mac m3 ultra ha 60 o più core gpu ma dxo ne usa la metà, quelle che stanno su un su un m3 max (l'ultra sono due max accoppiati).

Prima in effetti ho detto una cosa non corretta, con mac ho ragionato pensando ai core come singole gpu, quindi immagino che se si dovessero usare due schede nvidia probabilmente si avrebbero gli stessi limiti del doppio chip silicon.

avatarsenior
inviato il 14 Ottobre 2025 ore 23:53

Sono pressoché certo che dipenda tutto da come è scritto il pezzo che riversa i calcoli dell'algoritmo sulle risorse hw a disposizione.

Vi riporto un caso molto pratico carino, se vogliamo un aneddoto abbastanza emblematico.
Un amico di forum -- Mauro Gamberini, appassionato di motor sport, vedete le gallerie -- e anche programmatore di razza, da un po' si era appassionato al calcolo dei primi (numeri primi) e mi ha passato un po' il pallino; visto che sto usando molto il Python mi ci sono buttato sopra con quello per cultura personale e curiosità.
Prima stesura manuale, uno schifo. MrGreen
Seconda stesura, crivello di Erastotene, splendido, ci mette un botto meno (complessità molto minore, dovuta proprio all'algoritmo in sé).
Però mi accorsi che, per i limiti dell'interprete Python, finiva solo su uno dei sei core CPU a disposizione... Al che ho dato in pasto il metodo ad una libreria che spalmava appositamente i calcoli su tutti i core...

Risultato?
Un miliardo di primi col metodo iniziale: una buona mezz'ora... col crivello di Erastotene: 2 minuti... su tutti i core: 7 secondi. Eeeek!!!
Ci metteva di più a riversare il risultato sul file su disco nvme che a calcolarli in memoria. MrGreen

Giusto per dire cosa e quanto cambia (tanto!) con un minimo di sforzo per calare l'algoritmo e cucirlo sul ferro specifico che si ha sotto il cofano... Il guaio è che le GPU sono tante e diverse, e forse anche più complesse dei processori come sfruttamento in sé, perciò è anche comprensibilmente più difficile -- specie per SW house più piccine, che hanno meno risorse umane e/o meno know how -- scrivere ottimizzazioni per ciascuna delle piattaforme GPU e per i vari driver/API sul mercato.

avatarsenior
inviato il 15 Ottobre 2025 ore 8:42

Blackbird io dubito che DXO faccia riferimento ad un ragazzo che non ha esperienza di programmazione, è probabile che il team sia di decine di programmatori, analisti, pm etc....
Quello che probabilmente comporta uno sforzo maggiore è la gestione di risorse messe a disposizione dal sistema rispetto al tipo di approccio previsto dagli algoritmi AI sviluppati.

E' possibile che i modelli non possano essere suddivisi su più GPU/Ram perché il modello magari deve lavorare su tutti i dati, in caso di rendering ad esempio un fotogramma può andare ad un sistema ed il secondo fotogramma all'altro, in caso di 3d magari ogni sistema di occupa di metà fotogramma una riga si ed una no....
Difficile sapere quali siano le complicazioni, anche se personalmente dubito che non esista un modo per sfruttare la maggiore potenza offerta da più GPU.....magari per farlo è necessario riscrivere tutto ed il costo risulta eccessivo....le ipotesi possono essere tante e restano ipotesi.

Di certo ognuno può augurarsi che gli sviluppatori trovino il modo per velocizzare l'elaborazione, magari non dimezzando i tempi ....ma di certo sarebbe bello andassero più rapidi.

avatarsenior
inviato il 15 Ottobre 2025 ore 8:54

in caso di 3d magari ogni sistema di occupa di metà fotogramma una riga si ed una no....


Questa è amarcord: faceva così il primo sistema SLI (allora la sigla significava Scan Lines Interleaved) sulla Vodoo 2. Poi Nvidia acquistò 3dfx e cambiò il significato dell'acronimo. Nelle Nvidia però ci sono due modalità differenti: a fotogrammi alternati, oppure una renderizza la metà superiore dello schermo, l'altra quella inferiore.

Difficile sapere quali siano le complicazioni, anche se personalmente dubito che non esista un modo per sfruttare la maggiore potenza offerta da più GPU.....magari per farlo è necessario riscrivere tutto ed il costo risulta eccessivo....le ipotesi possono essere tante e restano ipotesi.


Ma no!, Gia di default vengono elaborate due immagini in contemporanea, basta mandarne una sulla prima scheda, l'altra sulla seconda. E' un multiprocessing, neanche un multithreading.

Comunque ho provato DXO7 sul muletto, ed ho scoperto qualcosa di sconcertante: in passato ne usavo una versione precedente, e sulla GTX 560, e soprattutto sulla Tesla, in high quality aveva prestazioni buone in OpenCL.
Adesso sembra non funzionare, dopo dieci minuti non aveva ancora esportato la prima immagine del test, quando da CPU impiega circa 30s.
Magari è l'SLI attivo, ma dubito. Invece C1 rulla

avatarsenior
inviato il 15 Ottobre 2025 ore 9:05

Blade attento che tra driver, sistema operativo e software certe volte fanno casino sull'accelerazione hw della gpu.

Poi se è vecchia...

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 256000 iscritti, c'è spazio per tutti, dal principiante al professionista.





Amazon

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me