RCE Foto

(i) Per navigare su JuzaPhoto, è consigliato disabilitare gli adblocker (perchè?)






Login LogoutIscriviti a JuzaPhoto!
JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).

Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.

OK, confermo


Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:

Accetta CookiePersonalizzaRifiuta Cookie

GPU per photoshop


  1. Forum
  2. »
  3. Computer, Schermi, Tecnologia
  4. » GPU per photoshop





avatarsenior
inviato il 08 Maggio 2023 ore 21:14

Concordo. Una 4090 se uno non fa rendering, montaggio 8k, o gaming tripla A 8k tutto al max oltre 100fps non ha proprio nessun senso. Ma nessuno.

avatarsenior
inviato il 08 Maggio 2023 ore 21:33

Da gamer un po' vecchia scuola ma che cerca di stare al passo posso dire qualcosa nel rapporto CPU/GPU: se si cerca il frame rate (120-165 FPS o oltre) a discapito della pura qualità di immagine allora conviene giocare a 2k dettagli medi ed avere una buona CPU e RAM oltre che GPU in quanto l'aumento del frame rate diventa CPU limited; nel caso in cui si voglia fruire in 3,5-4k massimi dettagli con giochi tripla A allora la CPU si riduce a lavorare molto meno, il mio Ruzen 9 5900 in molti titoli non va mai oltre il 20-30% la GPU invece (4070 TI) garantisce spesso 60-90 FPS con Dlss 3 ( vedi Cyberpunk Path Tracing). Di solito lo scenario in cui si cerca il frame rate assoluto è nel gaming competitivo mentre la qualità nei giochi di puro intrattenimento

avatarsenior
inviato il 08 Maggio 2023 ore 21:36

Con la 4070 TI puoi fare praticamente tutto... tranne crysis Sorriso

Non lo so, ma non sono cosí ottimista verso l'ottimizzazione futura di adobe almeno dal lato performance/richieste hardware. È piú probabile che le 4070 scendano sotto i 400 euro e a quel punto...

avatarsenior
inviato il 08 Maggio 2023 ore 21:56

La 4090 alla fine è giusto una GPU per chi ha tanti soldi da spendere e basta... come lo erano le Titan anni fa!

Chi fa un'uso hobbystico e gaming va sulla 4080 se vuole proprio esagerare, mentre chi fa un'uso professionale e zero gaming va direttamente sulla Quadro.

Che sostanzialmente le Quadro sono delle GeForce con driver diversi e paradossalmente su una Quadro puoi mettere i driver GeForce e usarla come una GPU da gaming.


avatarsenior
inviato il 08 Maggio 2023 ore 22:03

Le quadro se non si fa rendering oggi non so se ha più senso.

avatarsenior
inviato il 08 Maggio 2023 ore 22:05

Le quadro se non si fa rendering oggi non so se ha più senso.


Uso le quadro da anni ma oggi per questo genere di applicazioni sono superflue visto che i 10 bit li puoi attivare su tutte :)

Se avessero piazzato al prezzo corretto le 4070 sarebbero la scelta giusta dato che anche le arc 770 vanno forte ma crashano con denoise ai. Aspettare per aspettare conviene nvdia.

avatarsenior
inviato il 08 Maggio 2023 ore 22:23

le 4090 sono qualcosa di diverso dalle titan, sarebbero la convergenza tra geforce e quadro nella fascia di prezzo bassa (delle quadro), per chi non necessità delle poche funzioni esclusive delle quadro da lavoro la 4090 è eccellente (questo è il motivo della presenza di 24 gb di ram), per lavoro non sono per niente tanti 2000 euro, diverso giustificarli per gioco, in quel caso fa la differenza il fatto che l'acquirente non abbia problemi di cassa. Personalmente compro più serenamente 4000 euro in attrezzatura fotografica che 2000 di scheda video anche se la 4070 TI è limitata sulle ram sia lato quantità che architettura della banda, forse dovevo buttarci quei 300-400 euro per la 4080 ma sinceramente la trovo sovra prezzata ha un rapporto prezzo prestazioni che a volte fa sembrare conveniente la 4090.

avatarsenior
inviato il 08 Maggio 2023 ore 22:29

In realtà la 4090 è una Titan con nome diverso...

Una volta il suffisso xx90 veniva usato per le più potente che all'epoca l'unica era unire due chip xx80 e collegarli con un PLX, ora lo usano per chiamare le Titan.

Le Titan erano sempre le Geforce più potenti e con la più grande quantità di VRAM create apposta per chi gioca e lavora allo stesso tempo, la 4090 è identica così come anche la 3090 Ti.

avatarsenior
inviato il 09 Maggio 2023 ore 12:09

Per DxO Pure Raw 3 puo' andare bene Asus Geforce RTX 3060..? Grazie

avatarsenior
inviato il 09 Maggio 2023 ore 12:13

Si (e basta pure meno!). ;-)

avatarsenior
inviato il 09 Maggio 2023 ore 14:25

Grazie

avatarsenior
inviato il 11 Maggio 2023 ore 11:25

Si ma aspetterei l'uscita della 4060 per un calo di prezzo, ora è gonfiato di almeno 100 euro

avatarsupporter
inviato il 11 Maggio 2023 ore 11:43

Oggi farò installare una RTX 3060 - 3050 da 8 gb e aggiungerò altri 16 giga, ai medesimi già in essere.

Il processore è un I7....

Attualmente lavoro con il Denoise della Topaz ma non sempre e comunque, anche perché fino a quando la gtx 1030 me lo permetteva, la funzione "migliora" di Lightroom si eseguiva con sufficiente velocità e restituiva file che mi soddisfacevano (sono un fotoamatore di "bocca buona", non un raffinato conoscitore della materia fotografica/informatica)

L'ultimo aggiornamento, purtroppo, ha mostrato tutti i limiti della 1030 da 2 giga e così... mi tocca cambiare.

E poi, visto che lo pago, vorrei sfruttare Lrc in tutte le sue funzioni.


avatarjunior
inviato il 11 Maggio 2023 ore 18:25

Io invece non faccio renderne e non gioco ma vorrei capire se anche le Quadro rtx A4000 sono sfruttate a dovere dai programmi che sfruttano l'AI ed in particolare i due pretendenti più famosi Lightroom e DxO pure Raw, in particolare mi interesserebbe capire se la quadro che ha dimensioni ed assorbimento inferiori avendo qualche core in più e 16gb di ram ha prestazioni maggiori ed è quindi da preferire ad una RTX 3070.

avatarsenior
inviato il 11 Maggio 2023 ore 18:40

di sfruttarla la sfrutta ma non penso che te la regalano rispetto ad una RTX 3070, poi quella andrebbe confrontata con la rtx 4070 se non erro(ste cavolo di sigle nvidia MrGreen). di solito hanno frequenze più basse.
il consumo espresso è sempre il max, ma difficilmente starete con la gpu a palla per 24 ore a 200watt o più fissi nel post produrre foto.

edit:
come non detto RTX 4000 quadro e RTX 3070 sono architettura Ampere
confronta al solito Cuda core, frequenza e costo e vedi cosa ti conviene

Che cosa ne pensi di questo argomento?


Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!

Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista.







Metti la tua pubblicità su JuzaPhoto (info)


 ^

JuzaPhoto contiene link affiliati Amazon ed Ebay e riceve una commissione in caso di acquisto attraverso link affiliati.

Versione per smartphone - juza.ea@gmail.com - Termini di utilizzo e Privacy - Preferenze Cookie - P. IVA 01501900334 - REA 167997- PEC juzaphoto@pec.it

www.juzaphoto.com - www.autoelettrica101.it

Possa la Bellezza Essere Ovunque Attorno a Me