RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

Funzioni AI di Lightroom e scheda grafica


  1. Forum
  2. »
  3. Fotocamere, Accessori e Fotoritocco
  4. » Funzioni AI di Lightroom e scheda grafica





avatarjunior
inviato il 21 Marzo 2024 ore 8:34

Anche io ho un problema simile con ed il pc di casa, mi da un errore anche se poi Photoshop funziona bene. La scheda video è una quadro. Ho provato a contattare l'assistenza adobe, ma non ci siamo capiti e poi ho abbandonato. Certo il tutto è ottimizzato per il cad e non per la grafica, ma che diavolo è pur sempre una quadro ...

avatarjunior
inviato il 21 Marzo 2024 ore 11:06

Esatto, le 3060 avendo un buon numero di CUDA-core in più delle 4060, svolgono più velocemente il lavoro.


avatarsenior
inviato il 21 Marzo 2024 ore 21:38

la mia sensazione è che non sfrutti appieno le architetture 3000 e 4000 in anche rispetto ad una 2000 pesano di più i cuda effettivi che la capacità di calcolo. Oltre a questo anche prestazioni non sembrano scalare in modo lineare.

avatarjunior
inviato il 22 Marzo 2024 ore 8:54

...io non capisco perchè certi "lavori" sono demandati esclusivamente alla GPU.

Ho capito che sono più performanti con la GPU, ma almeno farsi supportare da una CPU per chi non ha una una VGA adeguata. Invece niente.



avatarjunior
inviato il 22 Marzo 2024 ore 9:02

la mia sensazione è che non sfrutti appieno le architetture 3000 e 4000 in anche rispetto ad una 2000 pesano di più i cuda effettivi che la capacità di calcolo. Oltre a questo anche prestazioni non sembrano scalare in modo lineare.

Ovvio che sia così è un algoritmo basilare e che probabilmente non usa le capacità sempre superiori generazione su generazione dei tensor core di operare con livelli di precisione sempre più alti altrimenti vedremmo risultati con differenze enormi passando da una gen 2000 ad una 3000 ancora peggio ad una 4000.
Di conseguenza l'aumento di prestazioni è modesto passando da un modello di scheda basic come una 3060 ad uno infinitamente più potente.
Riposto la mia esperienza personale ancora una volta, ho testato personalmente ( quindi non per sentito dire ) sul muo sistema 3060TI 3080 e 4080 con i file della Z62 e Z9 con i seguenti risultati sul file della z9 ( i file dellaz62 sono processati in poco più della metà del tempo)
3060TI: 15S
3080: 9s
4080: 6s
è chiaro che le performance non scalano liearmente con la potenza nominale della scheda in termini di Tflops, in primis perchè l'algoritmo non è efficente, in seconda battuta perchè vengono usate solo unità di calcolo specifiche e non tutto il chip che è stato invece studiato per gestire un rendering 3D in tempo reale con una forma di raytracig attivo e un algoritmo di supersampling accelerato dall'IA.

avatarsenior
inviato il 22 Marzo 2024 ore 12:30

quindi sembrerebbe che ad oggi la 3060 sia il best buy...

avatarjunior
inviato il 22 Marzo 2024 ore 12:44

Con una 3060 12GB "liscia", un Ryzen 5 3600 e 32 GB di ram ddr4 3200 Mhz sono soddisfatto, anche se sto valutando un upgrade alla CPU prima di cambiare socket, ma senza fretta...

avatarjunior
inviato il 22 Marzo 2024 ore 14:19

quindi sembrerebbe che ad oggi la 3060 sia il best buy...

come rapporto prezzo prestazioni e se non si hanno particolari esigenze, sicuramente si.

a completamento di quanto sopra specifico che ho altresì testato sempre di persona le prestazioni del denoise ai con la 4080 sia con un 12700k sia con un 13900k ed i tempi di elaborazione non cambiano di una virgola quindi il processo è totalmente a carico della GPU come noto.

avatarjunior
inviato il 22 Marzo 2024 ore 15:27

c'è solo una questione sulla preferenza tra 3060 e 4060... se si accetta la minima perdita di prestazioni su questa particolare questione, la 4060 consuma meno e ha una gestione in idle più curata.


avatarsenior
inviato il 23 Marzo 2024 ore 7:12

Ho capito che sono più performanti con la GPU, ma almeno farsi supportare da una CPU per chi non ha una una VGA adeguata.


Per calcoli semplici (somme e prodotti) ma da fare su quantità enormi di dati, 500 cpu piccole vanno nettamente più veloce ci 8 cpu “grosse”.
Questo è il caso degli algoritmi AI, per semplificare.

Aggiungere la CPU alla GPU sarebbe come umettare le prestazioni di 8/500=1.6% a fronte di uno sforzo enorme nel dividere i dati, che sicuramente vanificherebbe anche quel piccolo miglioramento.

avatarjunior
inviato il 23 Marzo 2024 ore 8:23

@Leopizzo, ok chiaro :-P

avatarjunior
inviato il 23 Marzo 2024 ore 8:58

Buongiorno a tutti, Intel core I9 9900 KF 32 gb di ram e una non proprio veloce scheda video GTX 1650 4 Gb con raw della D850 quindi 45 Mpx riduzione rumore in lightroom dai 5/6 minuti. Vorrei velocizzare la situazione quale scheda video? senza svenarmi troppo, grazie.

avatarsenior
inviato il 23 Marzo 2024 ore 9:55

gtx 3060 12 gb

avatarjunior
inviato il 23 Marzo 2024 ore 10:56

approfitto del topic per chiedere se anche a voi sta capitando di avere problemi con camera raw ultima versione, mentre si fa editing, praticamente inizia a rallentare tutto, specie se si usano le maschere, la schermata diventa nera e capita anche che crashi tutto.
Anyone?
Ho tutto aggiornato, GPU è una RTX.

avatarjunior
inviato il 08 Aprile 2024 ore 14:13

ancora un aggiornamento:

Intel Core i5-13500 + AMD Radeon PRO W6400 --> 57''
Intel Core i5-13500 + UHD 770 integrata --> 3'57''
Intel Core i5-13500 + Intel Arc A750 --> 36''
Mac Mini M1 (2020) --> 50''
Intel Core i5-13500 + GeForce RTX 4060 8GB --> 15''
Intel Core i5-13500 + GeForce RTX 3060 12GB --> 12''


Attenzione, ultimi due test, non è la memoria che fa la differenza...
Sempre in attesa che mi arrivi M3...

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 242000 iscritti, c'è spazio per tutti, dal principiante al professionista.




RCE Foto

Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me