RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

GPU per photoshop


  1. Forum
  2. »
  3. Computer, Schermi, Tecnologia
  4. » GPU per photoshop





avatarsenior
inviato il 08 Maggio 2023 ore 10:37

Comunque, ho una configurazione abbastanza datata, basata su un i7-6700k, 32GB di RAM e una GTX 1070 Ti 8GB VRAM.

Ha ragione Black, bisogna definire il datato perchè la tua è una configurazione di tutto rispetto e la scheda video non è schifezza, anzi. Poi i tuoi risultati con Adobe non sono del tutto male, ci vai pure di lusso nel metterci un minuto circa con il file della R.
Il problema è nei sistemi c grafica integrata che soffrono di più, soprattutto quelli AMD, il mio portatile Ryzen 7 5700u con 32gb di Ram dovrebbe essere un buon compromesso, ma con Adobe è quasi inutilizzabile con Denoise Ai, avendo però DXO PureRaw il problema è minore ( ma siamo sempre sul minuto sul file di una R ).
Pensiamo però a tutti quelli che hanno Mac Intel, li credo diventi davvero problematico su macchina pagate migliaia di euro ( Macbook, Macbook Pro, Imac e MacMini ).
Che poi Adobe abbia appesantito la sui suite con ogni aggiornamento è un dato di fatto.


avatarsenior
inviato il 08 Maggio 2023 ore 10:45

@Voodoo
topaz usa la gpu al 100% ed impiega meno tempo.
Se sono dei calcoli che la gpu è più veloce è inutile rallentare il processo totale dividendo il carico tra cpu e gpu, altrimenti la gpu finisce e poi deve aspettare la cpu.
Nvidia su altri settori è così potente con le ultime uscite che hanno batteria di GPU, tipo minning, per effettuare i calcoli.
Ma basta usare altri prodotti non ADOBE (Davinci ecc..) e vedi come gestiscono bene la gpu per quasi tutto rispetto ad adobe.
Ho un filtro di denoise su premiere (Neat video) che con la gpu vola.

avatarsenior
inviato il 08 Maggio 2023 ore 10:45

Un algoritmo Deep learning se ha la disponibilità di una gpu recente deve usare *solo* la gpu e il meno possibile la CPU. È come se voi doveste correre una gara a Monza e aveste a disposizione due macchine: una golf GTI e una Ferrari 488 pista. Usereste solo la Ferrari o alternereste Ferrari e golf?
L'uso della cpu dovrebbe essere limitato all'inizio, per trasferire il modello DL da disco a RAM della cpu a RAM della GPU, e alla fine per l'output dei risultati.
Se la CPU viene usata durante l'inferenza ai direi che ci sono due spiegazioni:
- la RAM della GPU non è sufficiente per contenere tutto il modello DL e deve fare swap con la RAM della CPU (ma non sembra questo il caso, dato che la gpu non utilizza tutta la memoria)
- la suite di postproduzione non sta facendo girare solo un modello DL ma anche algoritmi deterministici (per il miglioramento della risoluzione, etc) non basati su ai e inframezzati a quest'ultima

avatarsenior
inviato il 08 Maggio 2023 ore 10:50

Mio personalissimo consiglio all'utente che ha aperto il thread: eviterei di comperare una GPU da 200 euro, è un investimento a forte rischio.
Aspetta a vedere come evolve la situazione delle gpu Nvidia oppure arriva a 270 euro e compera il minimo sindacale, una nvidia 3050. Miglior rapporto qualità/prezzo in questo momento, secondo me ovviamente, una 3060 da 12 GB a 350 euro

avatarsenior
inviato il 08 Maggio 2023 ore 10:52

Gentile Franlazz79, la mia configurazione è questa:
CPU Intel i7 -13700k
CORSAIR 64gb Ram ddr5 5600 mhz
GPU Nvidia Quadro RTX A4000 16gb ram
con file da 20 mpx tempo 7/8 secondi per file
con file da 60 mpx tempo 15/16 secondi per file,

mi piacerebbe fare un confronto per denoise AI di Photoshop e vedere i tempi con la tua 4070 TI
che sarei propenso ad acquistare se velocizzo ulteriormente.

Grazie mille.


La nvidia quadro rtx 4000 dovrebbe avere 8GB di ram, almeno la mia ne ha 8. In ogni caso, più che la 3080 a questo punto andrei sulla nuova serie 4000, perchè da quello che ho visto i prezzi sono praticamente allineati, ma una 4090 è decisamente di un altro livello. Ovviamente però dipende sempre da tuo budget e da cosa pensi di farci anche in futuro. Diciamo che se sei sicuro che fai e farai solo post-produzione di foto, una low-cost di quelle ti hanno consigliato va bene, ma se invece pensi che forse in futuro ti piacerebbe provare altro, allora è meglio salire di livello.

avatarsenior
inviato il 08 Maggio 2023 ore 14:44

@Voodoo
topaz usa la gpu al 100% ed impiega meno tempo.
Se sono dei calcoli che la gpu è più veloce è inutile rallentare il processo totale dividendo il carico tra cpu e gpu, altrimenti la gpu finisce e poi deve aspettare la cpu.


Certamente, dipende da caso a caso e dalle operazioni che devono fare i diversi software.
Ma nel caso specifico se DeepPrime (e anche Topaz) ottiene risultati migliori in meno tempo rispetto ad Adobe direi che entrambi sono scritti meglio di quest'ultimo MrGreen

Poi chiaro che migliorerà anche lui, ma al momento la situazione è questa

avatarsenior
inviato il 08 Maggio 2023 ore 15:29

Un algoritmo Deep learning se ha la disponibilità di una gpu recente deve usare *solo* la gpu e il meno possibile la CPU.

In realtà non è proprio così, una GPU per dare il meglio di se deve avere una CPU prestante, questo lo sanno bene i Gamers, che non possono assemblare un pc con una cpu basso livello e poi usare la GPU più potente, perchè perderebbero fps.

avatarsenior
inviato il 08 Maggio 2023 ore 15:32


In realtà non è proprio così, una GPU per dare il meglio di se deve avere una CPU prestante, questo lo sanno bene i Gamers, che non possono assemblare un pc con una cpu basso livello e poi usare la GPU più potente, perchè perderebbero fps.

NI
dipende anche dalla risoluzione a cui giochi
più sale la risoluzione più la gpu prevale sulla CPU.
ma nei giochi il funzionamento è diverso rispetto a questi tool.

avatarsenior
inviato il 08 Maggio 2023 ore 15:38

Si, i giochi hanno un impatto più pesante, generalmente, sulla CPU.
Quando gioco, la CPU lavora e la GPU è generalmente meno stressata (parlo di giochi FPS o comunque non tripla A troppo moderni) rispetto ad una sessione di sviluppo intensivo con Deep Prime XD, sessione di sviluppo durante la quale resta sostanzialmente "a guardare" rispetto alla scheda grafica.

avatarsenior
inviato il 08 Maggio 2023 ore 15:42

Si, i giochi hanno un impatto più pesante, generalmente, sulla CPU.
Quando gioco, la CPU lavora e la GPU è generalmente meno stressata (parlo di giochi FPS o comunque non tripla A troppo moderni) rispetto ad una sessione di sviluppo intensivo con Deep Prime XD, sessione di sviluppo durante la quale resta sostanzialmente "a guardare" rispetto alla scheda grafica.

ma a che risoluzione giochi?

proprio in questi giorni ho visto dei test a 2k ( tutto maxato) tra 3080 e 4070 con un i9 13900k sotto, dove la cpu consumava 50watt e la gpu a 200watt.
Infatti i test delle cpu li fanno in FHD mentre le performance della gpu salendo di risoluzione e settaggi video.

poi gli stress test si fanno sempre com prime95 (Cpu) e i vari 3dmark.
spesso i giochi manco sfruttano tutta la potenza, scarsi come sono ottimizzati (vedi sempre le ultime uscite porting delle console).

avatarsenior
inviato il 08 Maggio 2023 ore 15:44

Io FHD, a questa risoluzione conta ancora molto la CPU. Non so se questo cambierà in futuro, chissà, comunque poi dipende anche dal titolo ovviamente.

avatarsenior
inviato il 08 Maggio 2023 ore 15:46

potrebbero andarti bene una a2000 o 4000,consumano poco,sono potenti,vanno benone(considerando la fascia di prezzo ed in generale),costano di più di un rx6600 ma se vuole andare di nvidia non vedo perchè non considerarle.
Nel gioco si predilige stressare le gpu,essendo quella la componente maggioritaria e che soffre di obsolescenza maggiore rispetto ai processori,devi avere comunque una cpu all'altezza della gpu che vuoi usare.
Sinceramente se si parla di produttività o attività dove la potenza di calcolo con lo sfruttamento ottimale dei multi core è predominante,allora una cpu di fascia superiore è di gran lungo una scelta migliore,se abbinata ad una gpu di fascia media farebbe il lavoro ugualmente bene per quanto riguarda le applicazioni gpu intensive,per le cpu intensive sarebbe tutta un'altra storia.
Poi ci vorrebbe un software adatto a sfruttare tali caratteristiche....meglio non far scoppiare delle crociateMrGreen.
Non utilizzo software adobe ma dopo averli provati so che c'è di meglio per quanto riguarda l' ottimizzazione delle risorse, un'esempio è davinci resolve,oppure in ambito fotografico darktable e silkypix rispetto a lightroom,per quanto riguarda in media il consumo di ram.
Per quanto riguarda i giochi,un conto è csgo/warthunder, un' altro è DCS(digital combact simulator) o elden ring.

avatarsenior
inviato il 08 Maggio 2023 ore 17:30

In realtà non è proprio così, una GPU per dare il meglio di se deve avere una CPU prestante, questo lo sanno bene i Gamers, che non possono assemblare un pc con una cpu basso livello e poi usare la GPU più potente, perchè perderebbero fps.

Michael, di gaming non so niente e non ci metto bocca.
Il deep learning e, piu' in generale, il GPGPU (general purpose computing su GPU, utilizzo delle GPU per calcoli numerici pesanti che non hanno a che fare direttamente con rendering e visualizzazione) sono una cosa completamente diversa.
Oggi se programmi modelli DL non "vedi" piu' la matematica che c'e' sotto, perche' usi librerie come PyTorch o Tensorflow che sono delle comodissime black box e pero' nascondono tutto quello che succede sotto a livello computazionale.
Qualche anno fa, quando la programmazione GPGPU la dovevamo fare "a manina" usando Cuda, la prima cosa che imparavi era che piu' l'algoritmo risiedeva sulla GPU e piu' era efficiente. Il tuo algoritmo sfruttava un pochino anche la CPU? Era un piccolo difetto. Il tuo algoritmo sfruttava siginificativamente anche la CPU? Era molto limitato, dovevi riscriverlo.
Io ho da poco fatto assemblare un fisso in cui la parte non GPU e' vicina allo stato dell'arte (cpu Intel i7 13700K, RAM DDR5 a 6400 MT/s, ssd samsung 980 pro) e la GPU e' una onesta 3060 12 GB. Uso il pc sotto linux per fare sviluppo di codici DL convolutivi, della stessa famiglia di quelli usati per il denoise fotografico: credimi se ti dico che la 3060 "ammazza" la cpu Intel. E la ammazza malamente, senza pieta'.
Il fatto e' che per questi problemi computazionali (che comportano un numero elevatissimo di prodotti matrice-matrice di dimensione medio-grande), l'architettura hardware delle gpu e l'eventuale presenza di acceleratori specifici come i tensor core fanno si' che non ci sia assolutamente partita.
Poi, per tornare al paragone automobilistico, se il compito e' coprire una distanza di 300 km girando all'autodromo di Monza posso farlo benissimo con la mia nissan qashqai. Semplicemente, non sarebbe ragionevole pretendere di impiegare un tempo confrontabile con quello di una macchina da competizione.

avatarsenior
inviato il 08 Maggio 2023 ore 18:30

Però sarebbe interessante vedere quanto una CPU più performante, ma anche la ram, influisca a parità di GPU con Adobe Denoise AI ( visto che per ora la l'ottimizzazione è pessima ), questo perchè da quello che si legge sul forum ci configurazioni più "anziane", ma non per giunta obsolete che fanno bei numeri nei risultati.

Magari così in futuro non si sarà costretti a spendere cifre astronomiche, soprattutto se ( e spero quando ) Adobe implementerà direttamente l'esportazione in Jpg e simili senza dover creare per forza un file DNG.

avatarsenior
inviato il 08 Maggio 2023 ore 20:19

Si', sono d'accordissimo. Tanto piu' che alla fine un algoritmo ideale "solo GPU" non puo' esistere in pratica, perche' comunque hai bisogno di caricare il modello AI all'inizio (e puo' essere molto grande), poi devi fare gli output di DNG di 120 MB Confuso, qualche scambio inevitabile con la CPU durante i calcoli, etc.
E' probabile che l'algoritmo di Adobe sia stato tirato fuori un po' di corsa, per rispondere alla concorrenza commerciale di dxo e gli altri: secondo me rispetto ai competitor migliori hanno un ritardo tecnologico di 2-3 anni, a giudicare dai paper pubblicati negli ultimi anni dagli uni e dagli altri. Pero' adobe ha le spalle larghe e se si impegna puo' proporre miglioramenti sostanziali e allinearsi allo stato dell'arte in poco tempo.
Cosa vuol dire questo in pratica? Non mi aspetterei miglioramenti clamorosi nei risultati fotografici ma qualcosa di sostanziale dal punto di vista dei tempi di calcolo e delle risorse computazionali richieste. Ad esempio puo' essere che il modello utilizzato ora possa essere "messo a dieta" e arrivare a fornire piu' o meno gli stessi risultati con un numero molto minore di nodi (---> tempi di calcolo molto ridotti).

Leggo di forumisti che addirittura parlano di comperare delle nvidia 4090. Se siete dei professionisti che hanno un workflow pesante con volumi alti di foto da processare... ok, sapete voi che cosa vi serve. Per hobbisti, come la maggior parte di noi, mi sembra veramente troppo. Detto dal sottoscritto, che e' il primo degli entusiasti tecnologici, Una scheda come la 4090, a parte il costo, e' una bestia che vi costringe a rivedere l'architettura generale del vostro PC (alimentazione, dissipazione calore, etc.). Ci penserei bene.

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 253000 iscritti, c'è spazio per tutti, dal principiante al professionista.







Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me