| inviato il 02 Marzo 2023 ore 13:35
Tra l'altro ora al di fuori delle Radeon Pro e delle Quadro/Tesla lo SLI è sostanzialmente abbandonato a se stesso. |
| inviato il 02 Marzo 2023 ore 13:43
Si, il guadagno non è che fosse così spasmodico... Poi c'è anche da dire che hanno cominciato a "zeppare" tipo 24GB di gddr in una stessa unità gpu, per cui la parallelizzazione alla fine perde anche un po' di urgenza... |
| inviato il 02 Marzo 2023 ore 16:59
...anche io ho in programma di cambiare PC e avevo messo in preventivo una asus 3060 (400€)... da poco ho scoperto che c'è una alternativa più economica con prestazioni, non dico superiori ma simili a 100 euro in meno. La Intel ARC 750.... qualcuno l'ha provata? io ho visto i bench su YouTube e devo dire che ha colori più vari rispetto la 3060... colori forse più adatti alla fotografia... Ne sapete qualcosa ? |
| inviato il 02 Marzo 2023 ore 17:07
“ ha colori più vari rispetto la 3060... colori forse più adatti alla fotografia „ ??? C'entra poco quale scheda video hai coi colori che vedi in un video di Youtube!!! È come dire "i colori del raw"... è un piano differente: non ti far fuorviare. Se va uguale e costa meno, è già un mega-punto a favore: però poi va considerato il supporto dei driver e dei SW che andrai ad utilizzare. A meno che tu non ci giochi anche (o principalmente), ci fai poco con la Arc 750 se poi DxO Photolab o Topaz Denoise o CR/PS non ti lavorano con la GPU perché non è supportata... |
| inviato il 02 Marzo 2023 ore 17:25
i colori sono importanti... non se ne parla perché il mercato delle schede grafiche è stato sempre spinto dai videogiochi.... e giustamente è preferibile un HDR vivace... Io non gioco (per il momento), la scheda mi serve per PS, C1 e sw simili per sviluppare le foto Quindi un estensione colori di una scheda è importantissima in fotografia |
| inviato il 02 Marzo 2023 ore 17:36
Estensione colori della scheda? Mi sa che c'è confusione Adamo, le schede non hanno "estensioni colore". La profondità colore con cui forniscono le immagini è sempre quella, 32 bit (puoi controllare nelle impostazioni del sistema operativo, sono lontanucci i tempi in cui si viaggiava a 256 colori, 65mila colori, ma anche 16milioni di colori ). Lo schermo, poi, a seconda di quanto è buono o meno, può essere più o meno preciso nel rappresentare i toni (delta E) e una volta che ci arriva l'output dalla GPU, a seconda che li supporti o meno, può rappresentarti le immagini usando 10 bit (o 8+frc, cambia poco), oppure più spesso - come nel mio caso - usando 8 bit (o 6+frc, cambia poco). Come tu infine vedrai i colori, dipenderà a sua volta, principalmente, da: - come e quanto venga coperto un dato spazio colore da parte del monitor - la precisione (delta E) del monitor - dal profilo colore che avrai caricato nel sistema (a livello HW, come me che ho calibrato, o SW, con l'ICC a livello di SO) La scheda c'entra nulla. Se però al punto 3 calibri il tutto in base all'uso che vuoi fare delle immagini (visione a schermo? stampa?), avrai almeno la certezza che le variabili a valle non ti daranno noia, o te ne daranno davvero poca; restano la copertura e il delta E, ma non è che si rovinerà tutto in stampa, se anche tu avessi un monitor "solo" sRGB con delta E non entusiasmante (yep, that's me )!. Io gioco, ma la scheda video di suo non né mi fa HDR, né mi pompa la saturazione, né mi modifica i colori: faccio tutto io via driver, via SW e via monitor, se voglio e quando voglio. Il calibratore mi regola i colori ben bene, il monitor ha il suo punto di bianco neutro, ha un basso contrasto e infine ha una bassissima luminosità: quando gioco l'unica cosa che interviene è il driver della GPU che sente il processo del gioco avviato e alza molto la luminosità, in modo che nei videogiochi si scorgano i nemici anche nelle zone molto in ombra, durante il gameplay. Quando il gioco finisce, torna tutto come prima, adatto ad una post finalizzata principalmente alla stampa o alla pubblicazione su web. |
| inviato il 02 Marzo 2023 ore 17:39
A conferma: un topic su NikonClub di 11 anni fa in cui viene ribadito da korra88 (sarà il korra che avevo incrociato qua?!) e soprattutto da riccardobucchino.com esattamente quello che ho scritto io: www.nikonclub.it/forum/lofiversion/index.php/t282815.html |
| inviato il 02 Marzo 2023 ore 17:52
Nota di esperienza pratica: un tre anni fa passai - a parità del resto del PC - da una GTX 970 alla attuale RX 5600 XT... nessuna differenza di colori percepita. |
| inviato il 02 Marzo 2023 ore 18:14
...sui vari calibratori per monitor è spiegato esplicitamente che se si calibra un monitor e lo si monta poi su un altro PC con scheda grafica diversa, va ricalibrato ... comunque non saprei.... mi sembra strano che diverse marche riproducono i colori in modo uguale... un po' come le macchine fotografiche... |
| inviato il 02 Marzo 2023 ore 18:17
Vedi la GPU come un sensore: non ha colori, manda fuori bit. È tutto quello che ci sta dopo (driver incluso, ma specialmente sistema con le librerie grafiche, profilo ed infine i software), che ti determina quel che vedi a monitor. Loro ti dicono che dovrai ricalibrare perché non sanno che altra versione di sistema ci sarà, che altro monitor ci sarà, quali altri SW andrai ad utilizzare... come ti dicevo, quando cambiai la sola GPU (e fu un cambio marca, non rimasi su nVidia) a me i colori non cambiarono... proprio perché il resto della catena restò invariato, a partire dalle DirectX per poi finire al monitor. |
| inviato il 02 Marzo 2023 ore 18:49
“ ...sui vari calibratori per monitor è spiegato esplicitamente che se si calibra un monitor e lo si monta poi su un altro PC con scheda grafica diversa, va ricalibrato ... comunque non saprei.... mi sembra strano che diverse marche riproducono i colori in modo uguale... un po' come le macchine fotografiche... „ ma non è colpa della sola gpu, ma di tutto il sistema. ci sono anche dei monitor che la calibrazione la carichi nel HW nel monitor e quindi anche cambiando pc hai la stessa calibrazione. Oltre a monitor più costosi che hanno la propria sonda e si calibrano in base all'intervallo prefissato. |
| inviato il 02 Marzo 2023 ore 18:58
...conclusione...la ARC 750 è da prendere in considerazione ? |
| inviato il 02 Marzo 2023 ore 19:08
“ ...conclusione...la ARC 750 è da prendere in considerazione ? „ dipende dal supporto secondo me se i driver li fanno uscire una volta l'anno c'è la possibilità che diversi problemi non vengono fixati velocemente come succede con nvidia e amd. |
| inviato il 02 Marzo 2023 ore 21:16
C'è una costante nelle recensioni fatte su quella scheda video, tra l'altro ha ricevuto i nuovi driver di recente e pare sia migliorata anche sui giochi, ovvero che sulla produttività ha eccellenti prestazioni. Sempre parlando di driver, in evoluzione, un test che gira su youtube mostra come con i programmi topaz vada molto bene, in particolare con sharpen se ricordo bene aveva prestazioni assurde( molto molto superiore ad altre schede video). Le recensioni sono orientate quasi esclusivamente sulle prestazioni gaming, ecco perchè sfugge sempre il dettaglio sulle applicazioni. Pare che anche la a380 vada particolarmente bene in tale ambito, per i suoi circa 150euro. Poi tutto dipenderà dalla evoluzione dei driver |
| inviato il 02 Marzo 2023 ore 22:12
Perseforo ok la produttività, ma con che programmi? Secondo me deve verificare e trovare recensioni di qualcuno che l'ha usata con profitto con le suite di sw per fotografia che usa lui! |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |