| inviato il 15 Maggio 2025 ore 13:00
Rx 7600xt quindi? Sto seguendo pure io in sordina che mi manca la scheda video per completare il pc |
| inviato il 15 Maggio 2025 ore 13:00
il bisogno di tutta questa ram video per usare Lightroom io non l'ho mai notata. LR ancora oggi usa prevalentemente CPU e ram tradizionale. ho fatto giusto un test ora ora su questa Workstation da cui scrivo che ha 2 xeon e una Nvidia A4000. nel panorama stitching, nel generale maschere in AI, anche facendogli fare più precessi alla volta, la ram video è restata sotto 1GB (cioè inutilizzata), mentre la ram tradizionale è salita a circa 40 Gb l'unici processo che ho notato che carica molto la GPU è quando si abilita l'esportazione proprio sulla scheda video (che nel mio caso va più piano che con CPU). gli ho fatto esportare 500 file R5 con molte maschere sopra, e ha iniziato a caricare circa 12 GB di ram video, usando un 20-30% della GPU. ram tradizionale sui 45 Gb. se uno avesse poco ram video non è bloccato nel lavoro sulle foto ma rallenta un pochino nell'esportazione, processo che in genere si fa fare alla macchina in autonomia mentre operatore fa altro |
| inviato il 15 Maggio 2025 ore 13:14
Io ho parlato nello specifico di task deep learning, oltre le maschere (più leggere) quindi anche denoise e "ampliamento AI". Altra cosa su cui dovrebbe influire sono le trasformazioni complesse, se il programma è fatto per appoggiarsi alla GPU nella loro applicazione. Fra l'altro monitorare l'uso (basso) di GPU/VRAM dedicata non ti dà alcuna indicazione precisa del fatto se (né ti dice quanto) una GPU integrata possa invece assolvere più lentamente o con difficoltà quei compiti. |
| inviato il 15 Maggio 2025 ore 14:38
ho la 3060 da 12GB ho fatto con PS elements uno stitching di 8 foto da 33MPix ... Solo PS quando andavi a cancellare 3 o 4 oggettini arrivava a mangiarsi 17-18GB di ram... in TIFF l'immagine risultate era circa 1GB... ogni tanto mi si incastrava PS quando andavo ad usare la cancellazione ... se hai budget per me come detto meglio 16GB di VRAM che un chip più potente ovvio chip più potente e + VRAM è meglio (e grazie a ca..0 ) |
| inviato il 15 Maggio 2025 ore 14:40
su amazon vedo le 5060 da 16GB poco sopra i 500€ ... mi sembra un bel prezzo |
| inviato il 15 Maggio 2025 ore 14:42
Non sono tanto sicuro che gli 8GB di VRAM aggiuntiva o l'hardware nuovo della 5060, rispetto alla 4060, per fotoritocco, valgano quei 150 euro di sovrapprezzo... |
| inviato il 15 Maggio 2025 ore 14:50
per la ram dipende ... se sei uno che fa stiching [o forse usa le 66Mpix in pixel shifting] ... si ho constatato che serve parecchio ... se no non penso si noterà una vera differenza |
| inviato il 15 Maggio 2025 ore 15:04
Intendevo dire la 5060 rispetto alla 4060. Ci sono modelli (come linkato prima) molto più economici che montano 16GB di VRAM. |
| inviato il 15 Maggio 2025 ore 16:23
Mi pare strano che lo stitching vada ad usare molta VRAM, la ram di sistema ovviamente sì e anche tanta Ad oggi non mi pare che ci siano software che raccomandano più di 8Gb di VRAM e in genere 4 sono sufficienti. Però con il crescere delle funzioni deep learning non è detto che i requisiti aumentino. |
| inviato il 15 Maggio 2025 ore 16:53
io spenderei più soldi possibili sul monitor fotografico e sul calibratore, perchè queste sono le cose importanti in fotografia a cominciare da quando ti siedi e ti gusti i tuoi scatti. il resto è una questione di qualche secondo ogni tanto che può essere importante o meno a seconda di cosa si fa o quanto spesso si usano certi processi. allo stato delle cose disporre di abbondante ram tradizionale serve mentre di Vram è necessaria quanto basta, come detto giustamente da Gianpaolo64. quello che sarebbe davvero importante è avere una macchina che renda l'esperienza di uso di LR e PS fluida e regolare, specialmente se ci si deve passare le giornate, minimizzando i crash o i riavvii. purtroppo questi di ADOBE sono tools ben poco ottimizzati tanto che mettono in ginocchio qualunque HW uno abbia a disposizione (provato personalmente decine di macchine diverse), e che non vanno veramente fluidi mai, almeno in ambiente PC/win. |
| inviato il 15 Maggio 2025 ore 20:37
In una GPU la VRAM è importante, tuttavia ci deve essere anche un chip con prestazioni adeguate per poterla sfruttare al massimo, quando ce ne è bisogno. Nella VRAM vengono caricati i dati da elaborare, ma se poi il processore grafico "arranca", non importa se sulla scheda ci sono 8-16-32gb, più di quello non va. Esempio molto pratico, sia una GTX 1070, RTX 2070 SUPER, RTX 4060, hanno tutte 8Gb di VRAM, ma ovviamente hanno prestazioni diverse, lasciamo stare per un attimo la tipologia di RAM, ma se per assurdo, a queste schede mettessero anche il doppio di VRAM avrebbero le stesse prestazioni. Su una GeForce GTX 1660 che ha 6gb, potrebbero mettercene anche 16, il risultato sarebbe lo stesso. Cosa diversa sarebbe installare su una RTX 4090, invece dei suoi 24GB, solamente 8GB, a quel punto sarebbe castrata e, ovviamente, il collo di bottiglia sarebbe proprio la VRAM. Il concetto vale anche per le CPU, una cosa è installare 64Gb di RAM DDR4 su un i7 di sesta generazione, un'altra è la stessa RAM su un i7 di tredicesima generazione. Praticamente da sempre, i produttori di schede video fanno uscire un modello con stesso processore grafico ma con maggiore quantità di RAM, e nella maggior parti dei casi, si è rivelata solo una buona strategia di marketing. Un po come quando Nvidia da una "rinfrescata" ai propri prodotti facendo la versione "TI". Non sempre, ma nella maggior parte dei casi, riutilizzano lo stesso chipset della versione liscia, pompandole con un po di "steroidi". Poi magari nei Benchmark fanno qualche punto in più, ma all'atto pratico stiamo li. |
| inviato il 15 Maggio 2025 ore 21:04
Al momento Adobe, DXO e Topaz raccomandano 8Gb, per cui più di quello non serve per il futuro chissà... è possibile che per il deep learning i requisiti salgano ma questo taglierebbe fuori un po' di utenti. |
| inviato il 15 Maggio 2025 ore 21:07
“ su amazon vedo le 5060 da 16GB poco sopra i 500€ ... mi sembra un bel prezzo „ regalata pensando che le xx60 di solito erano le entry level da circa 300€ e poi mi fanno la xx70 da 12gb a 100 euro in + non esistono schede di merda ma prezzi di merda cit. “ Al momento Adobe, DXO e Topaz raccomandano 8Gb, per cui più di quello non serve per il futuro chissà... è possibile che per il deep learning i requisiti salgano ma questo taglierebbe fuori un po' di utenti. „ la differenza si nota nelle elaborazioni in batch di tante foto, su singola foto la vram basta per il momento. |
| inviato il 15 Maggio 2025 ore 21:18
“ la differenza si nota nelle elaborazioni in batch di tante foto, su singola foto la vram basta per il momento. „ Adobe mai usato, ma con DXO e Topaz non fa differenza, la maggior parte della VRAM viene usata per il DB del deep learning, Photolab 8 anche configurato per processare 4 foto in contemporanea usa sempre poco meno di 4Gb |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 253000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |