| inviato il 08 Maggio 2023 ore 21:14
Concordo. Una 4090 se uno non fa rendering, montaggio 8k, o gaming tripla A 8k tutto al max oltre 100fps non ha proprio nessun senso. Ma nessuno. |
| inviato il 08 Maggio 2023 ore 21:33
Da gamer un po' vecchia scuola ma che cerca di stare al passo posso dire qualcosa nel rapporto CPU/GPU: se si cerca il frame rate (120-165 FPS o oltre) a discapito della pura qualità di immagine allora conviene giocare a 2k dettagli medi ed avere una buona CPU e RAM oltre che GPU in quanto l'aumento del frame rate diventa CPU limited; nel caso in cui si voglia fruire in 3,5-4k massimi dettagli con giochi tripla A allora la CPU si riduce a lavorare molto meno, il mio Ruzen 9 5900 in molti titoli non va mai oltre il 20-30% la GPU invece (4070 TI) garantisce spesso 60-90 FPS con Dlss 3 ( vedi Cyberpunk Path Tracing). Di solito lo scenario in cui si cerca il frame rate assoluto è nel gaming competitivo mentre la qualità nei giochi di puro intrattenimento |
| inviato il 08 Maggio 2023 ore 21:36
Con la 4070 TI puoi fare praticamente tutto... tranne crysis Non lo so, ma non sono cosí ottimista verso l'ottimizzazione futura di adobe almeno dal lato performance/richieste hardware. È piú probabile che le 4070 scendano sotto i 400 euro e a quel punto... |
| inviato il 08 Maggio 2023 ore 21:56
La 4090 alla fine è giusto una GPU per chi ha tanti soldi da spendere e basta... come lo erano le Titan anni fa! Chi fa un'uso hobbystico e gaming va sulla 4080 se vuole proprio esagerare, mentre chi fa un'uso professionale e zero gaming va direttamente sulla Quadro. Che sostanzialmente le Quadro sono delle GeForce con driver diversi e paradossalmente su una Quadro puoi mettere i driver GeForce e usarla come una GPU da gaming. |
| inviato il 08 Maggio 2023 ore 22:03
Le quadro se non si fa rendering oggi non so se ha più senso. |
| inviato il 08 Maggio 2023 ore 22:05
“ Le quadro se non si fa rendering oggi non so se ha più senso. „ Uso le quadro da anni ma oggi per questo genere di applicazioni sono superflue visto che i 10 bit li puoi attivare su tutte :) Se avessero piazzato al prezzo corretto le 4070 sarebbero la scelta giusta dato che anche le arc 770 vanno forte ma crashano con denoise ai. Aspettare per aspettare conviene nvdia. |
| inviato il 08 Maggio 2023 ore 22:23
le 4090 sono qualcosa di diverso dalle titan, sarebbero la convergenza tra geforce e quadro nella fascia di prezzo bassa (delle quadro), per chi non necessità delle poche funzioni esclusive delle quadro da lavoro la 4090 è eccellente (questo è il motivo della presenza di 24 gb di ram), per lavoro non sono per niente tanti 2000 euro, diverso giustificarli per gioco, in quel caso fa la differenza il fatto che l'acquirente non abbia problemi di cassa. Personalmente compro più serenamente 4000 euro in attrezzatura fotografica che 2000 di scheda video anche se la 4070 TI è limitata sulle ram sia lato quantità che architettura della banda, forse dovevo buttarci quei 300-400 euro per la 4080 ma sinceramente la trovo sovra prezzata ha un rapporto prezzo prestazioni che a volte fa sembrare conveniente la 4090. |
| inviato il 08 Maggio 2023 ore 22:29
In realtà la 4090 è una Titan con nome diverso... Una volta il suffisso xx90 veniva usato per le più potente che all'epoca l'unica era unire due chip xx80 e collegarli con un PLX, ora lo usano per chiamare le Titan. Le Titan erano sempre le Geforce più potenti e con la più grande quantità di VRAM create apposta per chi gioca e lavora allo stesso tempo, la 4090 è identica così come anche la 3090 Ti. |
| inviato il 09 Maggio 2023 ore 12:09
Per DxO Pure Raw 3 puo' andare bene Asus Geforce RTX 3060..? Grazie |
| inviato il 09 Maggio 2023 ore 12:13
Si (e basta pure meno!). |
| inviato il 09 Maggio 2023 ore 14:25
Grazie |
| inviato il 11 Maggio 2023 ore 11:25
Si ma aspetterei l'uscita della 4060 per un calo di prezzo, ora è gonfiato di almeno 100 euro |
| inviato il 11 Maggio 2023 ore 11:43
Oggi farò installare una RTX 3060 - 3050 da 8 gb e aggiungerò altri 16 giga, ai medesimi già in essere. Il processore è un I7.... Attualmente lavoro con il Denoise della Topaz ma non sempre e comunque, anche perché fino a quando la gtx 1030 me lo permetteva, la funzione "migliora" di Lightroom si eseguiva con sufficiente velocità e restituiva file che mi soddisfacevano (sono un fotoamatore di "bocca buona", non un raffinato conoscitore della materia fotografica/informatica) L'ultimo aggiornamento, purtroppo, ha mostrato tutti i limiti della 1030 da 2 giga e così... mi tocca cambiare. E poi, visto che lo pago, vorrei sfruttare Lrc in tutte le sue funzioni. |
| inviato il 11 Maggio 2023 ore 18:25
Io invece non faccio renderne e non gioco ma vorrei capire se anche le Quadro rtx A4000 sono sfruttate a dovere dai programmi che sfruttano l'AI ed in particolare i due pretendenti più famosi Lightroom e DxO pure Raw, in particolare mi interesserebbe capire se la quadro che ha dimensioni ed assorbimento inferiori avendo qualche core in più e 16gb di ram ha prestazioni maggiori ed è quindi da preferire ad una RTX 3070. |
| inviato il 11 Maggio 2023 ore 18:40
di sfruttarla la sfrutta ma non penso che te la regalano rispetto ad una RTX 3070, poi quella andrebbe confrontata con la rtx 4070 se non erro(ste cavolo di sigle nvidia ). di solito hanno frequenze più basse. il consumo espresso è sempre il max, ma difficilmente starete con la gpu a palla per 24 ore a 200watt o più fissi nel post produrre foto. edit: come non detto RTX 4000 quadro e RTX 3070 sono architettura Ampere confronta al solito Cuda core, frequenza e costo e vedi cosa ti conviene |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |