JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Buongiorno a tutti Dopo 10 anni di onorato servizio, vorrei cambiare il mio monitor fhd ips 8 bit con uno nuovo 4K ips 10 bit. Utilizzo un notebook che monta i7 e GTX 960m. Visti il periodo assurdo che sta vivendo il settore delle schede video, non ho intenzione di cambiare il portatile. Non ho però ben chiaro se la GTX 960m supporta i 10 bit, e quale cavo di connessione dovrei utilizzare.
Prima di buttare via dei soldi, chiedo il vostro aiuto. Grazie!
se non vuoi buttare via soldi lascia perdere il 4K. Il 10 bit se ce l'hi è meglio ma non è indispensabile.
La GTX 960 con i driver studio dovrebbe supportare la modalità 10 bit sempre se il portatile ha la porta DipslayPort 1.2 perché via HDMI il 10bit non va.
“ se non vuoi buttare via soldi lascia perdere il 4K. „
come mai? perchè al momento costano tanto o per altri motivi?
user84767
inviato il 06 Settembre 2021 ore 9:28
Dallo scorso anno anche i Driver GeForce permettono l'uso dei 10bit, non so se la GTX 960anche, la 1050 di sicuro. Confermo la necessita della Displayport
Grazie delle risposte. Purtroppo il portatile non ha la display port, quindi da quel che ho capito, sarebbe una spesa inutile. Come mai invece Giovanni sconsigli il 4K?
Scusami ma visto che il monitor ti durerà sicuramente più di un portatile forse ti conviene cmq investire su 4k e 10bit non pensi? Te lo ritrovi cmq per il futuro.
Scusate la domanda un po' fuori tema, ma se collego il PC alla TV oled 4k per vedere film, va bene la hdmi o devo usare display port? (Che non credo la TV abbia) Il PC monta una gtx 770
Se guardi le foto a monitor i 10 bit ti conviene implementarli.
Se stampi è meglio evitarli: migliorando l'immagine a monitor aumenta la differenza tra quello che vedi e quello che stampi e dunque aumenta la probabilità di errore.
“ come mai? perchè al momento costano tanto o per altri motivi? „
Perché già un 2K supera la risoluzione della retina a 27". Quindi per avere senso un 4K devi prendere un monitor mooolto grande. Un monitor troppo grande è scomodo per fotoritocco. Sono sono soldi buttati. A parità di prezzo meglio un monitor 10bit che uno 4K
“ Se stampi è meglio evitarli: migliorando l'immagine a monitor aumenta la differenza tra quello che vedi e quello che stampi e dunque aumenta la probabilità di errore. „
Secondo la mia esperienza è il contrario. I passaggi tonali sono meglio resi dalla stampa che da un monitor a 8 bit e i 10 bit servono a quello. Ad esempio applicando certi filtri capita a volte che a video con 8 bit si vedono delle posterizzazioni che in stampa poi in realtà non ci sono Con il video a 10 bit quelle posterizzazioni non le vedi. Quindi il rischio è che lavorando con un video a 8 bit bit sei portato a correggere dei difetti che in realtà nella foto stampata non ci sono.
Viceversa se sviluppi per il web meglio lavorare a 8 bit perchè quello è ciò che vedrà il 99% delle persone che fruiscono il tuo lavoro via web.
Concordo con Giovanni sui 10 bit. Quanto al 4k dipende… attenzione se fai video perché ci sono software come davinci Resolve che non ricevono i 10 bit dalle schede GeForce nemmeno con driver Studio
“ Ci sono tanti tipi di monitor e non tutti, diciamo così, sono allo stato dell'arte! „
Boh io ti ho riferito quella che è la mi esperienza poi non è detto che va sempre così Lavoro su un monitor Eizo CS2420 che prima usavo a 8 bit e avevo sta cosa che dopo aver applicato alcuni filtri con photoshop avevo delle posterizzazioni che però poi stampando non venivano fuori. Oh non sempre, alcune volte non di frequente. Ma succedeva. Avevo imparato ad ignorarle che poi in stampa tanto non venivano fuori. Quando poi ho preso la scheda Nvidia e ho collegato l'Eizo con la DP sulle stesse foto quelle posterizzazioni non le vedevo più. Per fare la prova del nove poi ho disabilitato i 10 bit via software nel driver e quelle posterizzazioni sono venute fuori un'altra volta sulle stesse foto Quindi per me è così tale è stata la mia esperienza.
Il che non vuol dire che il 10 bit è INDISPENSABILE per stampa. Ne ho sempre fatto a meno fino a 2 anni fa. Ma ora con 10 bit va un pochino meglio. Diciamo che mi vengono meno dubbi in fase di elaborazione se qualcosa è da correggere o no.
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista.