| inviato il 21 Febbraio 2022 ore 18:48
non penso, al momento dovrebbe bastare. |
| inviato il 21 Febbraio 2022 ore 19:48
“ Così a giugno dell'anno scorso stanco mi sono fatto comunque il pc, con una Nvidia Geforce GT 1030 2GB, con l'idea eventualmente di sostituirla in un secondo tempo, magari a prezzi più decenti. Vi dirò, Photoshop con Camera raw va benissimo anche con NO1 NoNoise AI come plug'in. Dipende molto poi uno con cosa e come ci lavora, però la voglia di sostituirla per adesso è svanita. „ I driver Nvidia Studio ottimizzati per i programmi Adobe richiedono come minimo una Geforce 1050 (e fra l'altro abilitano anche i 10bit di colore fra le varie ottimizzazioni). “ Grazie dei consigli. Ancora non ho le idee chiare su cosa mi conviene acquistare. Preciso che il mio uso è piuttosto pesante: file da 8256 e un centinaio di MB ciascuno (ho una D850), molti livelli e maschere in Photoshop, software come quelli di Nik collection, insomma una elaborazione impegnativa. Lo so che devo spendere, sono preparato. Grazie ancora. „ L'ideale sarebbe prendere una qualunque scheda Nvidia RTX (anche la più "vecchia" RTX2060 non è affatto male per il fotoritocco) per avere il supporto a funzioni grafiche aggiuntive (non ancora essenziali, ma potenzialmente molto utili nel medio termine sui programmi di grafica). Ma visti i costi non scenderei sotto la GTX 1650 come "base di partenza". |
| inviato il 22 Febbraio 2022 ore 13:43
io ho beccato l'occasione decente ed ho fatto l'upgrade. stasera la intallo....ho preso una quadro p2000 che andrà a sostituire una quadro m2000. |
| inviato il 24 Febbraio 2022 ore 19:06
Scusatemi ma su questo argomento continuo ad avere le idee confuse. Con un monitor che sfrutta i 10 bit serve per forza una Nvidia Quadro oppure no? Addirittura su un sito ho letto che le nuove GPU integrate nei processori Intel di 12 generazione (UHD770) hanno il supporto a 8/10/12 bit. |
| inviato il 24 Febbraio 2022 ore 19:45
No non servono più le quadro, le gtx (da certi modelli in poi ) e rtx nvidia supportano i 10 bit |
| inviato il 24 Febbraio 2022 ore 19:47
Per sfruttare i 10 bit ti serve una scheda Nvidia dalla serie 1000 in poi con i drivers studio, almeno così ho capito, oltre ad avere uno schermo che supporti tale funzione... |
| inviato il 24 Febbraio 2022 ore 19:59
“ Addirittura su un sito ho letto che le nuove GPU integrate nei processori Intel di 12 generazione (UHD770) hanno il supporto a 8/10/12 bit. „ Se non vedo non ci credo. Ho una UHD750 integrata sul pc e non supporta un bel nulla. I 10/12 bit di Intel da quel che so sono per la visione di video, non per il desktop e i programmi di grafica. Non è nemmeno chiaro se Intel li supporta sulle loro schede grafiche dedicate. “ Per sfruttare i 10 bit ti serve una scheda Nvidia dalla serie 1000 in poi con i drivers studio, almeno così ho capito, oltre ad avere uno schermo che supporti tale funzione... „ Sbagliato.... La gtx 1010 e 1030 non supportano affatto ne i driver studio ne i 10 bit. Serve almeno una gtx 1050 o superiore (oppure una qualsiasi quadro). |
| inviato il 24 Febbraio 2022 ore 20:49
“ Sbagliato.... La gtx 1010 e 1030 non supportano affatto ne i driver studio ne i 10 bit. Serve almeno una gtx 1050 o superiore (oppure una qualsiasi quadro) „ Grazie per la precisazione... |
| inviato il 25 Febbraio 2022 ore 16:37
“ Se non vedo non ci credo. Ho una UHD750 integrata sul pc e non supporta un bel nulla. I 10/12 bit di Intel da quel che so sono per la visione di video, non per il desktop e i programmi di grafica. Non è nemmeno chiaro se Intel li supporta sulle loro schede grafiche dedicate. „ forum.tomshw.it/threads/nvidia-quadro-t600-o-t1000-per-grafica-e-video "Supporta la profondità colore 10bit come puoi anche vedere dal troubleshooting della UHD 770, l'integrata di Alder Lake che è puoi una declinazione di Intel XE." Riporto quanto trovato on line se può essere utile alla discussione. |
| inviato il 25 Febbraio 2022 ore 17:06
Se siete così gentili da chiarirmi ulteriormente le idee ..... sempre per sfruttare un monitor con le LUT a 10 bit .... quando scegliere una Quadro e quando una Nvidia da gaming o altra che supporta i 10 bit? In base a quale criterio scegliete a parte il discorso economico? |
| inviato il 25 Febbraio 2022 ore 17:09
una volta erano solo le quadro ad avere la possibilità dei 10 bit, oggi diverse GTX con i driver studio hanno la possibilità e sono anche più potenti delle rispettive quadro. Una volta costavano pure meno le gtx rispetto alle quadro. Oggi i prezzi sono pazzi Le quadro vanno bene su alcuni software di rendering. |
| inviato il 25 Febbraio 2022 ore 17:28
In teoria le quadro sono configurate per mantenere le prestazioni stabili su sessioni di lavoro lunghe (anche di diversi giorni/settimane consecutive), mentre le GTX/RTX sono tarate per le massime prestazioni (magari a discapito della stabilità) e di solito hanno meno ram a parità di "chip". Ad uso fotografico non penso che la differenza sia così importante (i calcoli delle esportazioni di solito non durano giorni). Ora che anche le ultime gaming supportano i 10bit le quadro hanno perso parecchio appeal Per editing video non saprei se le Quadro mantenengono qualche vantaggio. Ora i prezzi sono pazzi, di norma la quadro costa circa il doppio o più della corrispondente Geforce (ora rischia quasi di costare meno...). |
| inviato il 25 Febbraio 2022 ore 17:59
Corretto hanno anche memorie ecc ed altro ma se reggono sessioni di gaming tosto reggeranno sessioni di photoshop |
| inviato il 26 Febbraio 2022 ore 14:24
le quadro lavorano, mediamente, a regimi più conservativi e sono realizzate con con standard superiori. già questo fa lievitare i costi ed allungare la vita operativa. in alcuni modelli, a confronto, le prestazioni numeriche dei benchmark, che spesso sono per giochi, sono inferiori alle gtx, ed in ambito di fotoritocco questo non influenza il workflow, mentre in ambito video fanno parecchia differenza. oggi le softwarehouse scrivono i loro programmi in collaborazione e questo, almeno per gli ambiti pro, le rende ovviamente preferibili. col nuovo PC ho deciso di passare da gtx a quadro, e l'ho fatto con una m2000, potendola usare tranquillamente sia in ambito video che, soprattutto, fotografico, da qualche giorno l'ho rimpiazzata con una p2000 e le differenze sono abbondanti, soprattutto con premiere. |
| inviato il 26 Febbraio 2022 ore 15:28
Ci credo Sei passato da una gtx 950 (quadro m2000) a una gtx 1060 (quadro p2000/p2200). La differenza è notevole, la prima non è molto distante dalle prestazioni di una gpu integrata odierna. La gtx 1060 invece è ancora una buona scheda pure per il gaming 1080p. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |