|
|
inviato il 17 Gennaio 2026 ore 16:25
Black Imp ha scritto che l'ha ordinata poco più su, quando gli arriva la prova. Un mio amico ce l'ha e ne è più che soddisfatto. È comunque una scheda di fascia alta, con un sacco di memoria e tanti chip sotto al dissipatore. |
|
|
inviato il 17 Gennaio 2026 ore 18:13
“ io ho appena ordinato una Gigayte rx 9070 xt gaming OC. Già questa spesa mi fa sentire stupido perché una scheda del genere potrebbe tranquillamente costare 400 euro ma costa quasi il doppio e temendo che aumenti e che non esca mai una B770 l'ho presa prima che salga ancora. Chiudo il pc qui - posso giusto prendere un altro hd per un raid 1 ma sono a posto con questo pc. „ Lato produttività non sarebbe meglio Nvidia per via di Cuda? Comunque anche io oggi prima strisciata del 2026, pure pesante, Nikon Z 24-70 f/2.8S prima serie, usato. |
|
|
inviato il 17 Gennaio 2026 ore 18:15
“ io ho appena ordinato una Gigayte rx 9070 xt gaming OC „ naaa, Nvidia FTW :) |
|
|
inviato il 17 Gennaio 2026 ore 18:26
Non c'è nessuna ragione, a parte il DLSS ed il Ray Tracing a manetta, di preferirle a prescindere, Perbo. ;) E comunque, stanti le implementazioni simili e gli ultimi sviluppi lato AMD, pure quelle due ragioni cominciano a venire prepotentemente meno. |
|
|
inviato il 17 Gennaio 2026 ore 19:48
“ Lato produttività non sarebbe meglio Nvidia per via di Cuda? Comunque anche io oggi prima strisciata del 2026, pure pesante, Nikon Z 24-70 f/2.8S prima serie, usato. „ 1. da ex simpatizzante, per me nVidia oggi deve morire. o meglio vorrei che il suo ceo andasse a zappare la terra con i denti in Cina. se ci fosse stata una scheda Intel decente anche un pelo meno di una 9070 liscia, avrei preso quella e mandato a zappare anche la lesbo spocchiosa di AMD con le sue scemenze sulla "ei aiii" tanto quanto gli altri. 2. ho preso la scheda per giocare in 4k ai pochi giochi che faccio, cad, ed eventualmente programmare io in openCL 3. non sono un fan delle piattaforme proprietarie SE esiste una alternativa abbastanza diffusa equivalente. Non c'è ragione di legarsi ad un brand mani e piedi. 4. ultimamente la voglia di fare foto o video con le reflex mi è sprofondata se non quando faccio qualche week end via per castelli e paesaggi ma per quello che faccio come fotoritocco protrei non avere neanche la scheda accelerata. se mi metto a registrare qualcosa con una DAW forse potrebbe servirmi una shceda grafica ma non ho guardato se e quali DAW sono accelerate. |
|
|
inviato il 17 Gennaio 2026 ore 19:49
Per i giochi vanno bene tutte, le differenze non sono così enormi tra DLSS/XeSS/FSR4. L'attuale differenza sta nei software che usano CUDA, c'è ne sono molti di più "pronti all'uso" rispetto alle schede che non lo supportano. Mesi fa Nvidia ha annunciato che aprirà il supporto CUDA ai futuri modelli dei concorrenti, non per bontà ma per rendere meno conveniente continuare ad investire nella creazione di un'alternativa multipiattaforma (stanno nascendo GPU cinesi che rompono l'oligopolio a tre Intel/Nvidia/AMD). Mantenendo il controllo dello standard software, ha il vantaggio di giocare in casa con un supporto hardware nativo che gli altri non hanno e ci mettono diverse generazioni a raggiungere. |
|
|
inviato il 17 Gennaio 2026 ore 19:51
“ Mesi fa Nvidia ha annunciato che aprirà il supporto CUDA ai futuri modelli dei concorrenti, non per bontà ma per rendere meno conveniente investire nella creazione di un'alternativa multipiattaforma (stanno nascendo GPU cinesi che rompano l'oligopolio a tre Intel/Nvidia/AMD). „ one ring to rule them all. si possono attaccare ad un cockring |
|
|
inviato il 17 Gennaio 2026 ore 19:54
agggiungo: nvidia è così miserabile da mettere 12 giga di memoria sulle sue 5070 lisce. sulle 9070 lisce e a maggior ragione su quella che ho ordinato ce ne sono 16 quindi nvida VA PUNITA. poi se uno sbroda per farsi maltrattare dai produttori, faccia pure il fan |
|
|
inviato il 17 Gennaio 2026 ore 20:08
Non è essere fan o meno, ho avuto GPU matrox, 3dfx, ATI, Nvidia e AMD. Ogni periodo ha avuto vantaggi prezzo/caratteristiche da un produttore ad un altro. La maggior parte delle GPU in circolazione sono sempre state le integrate dove Nvidia ha fatto rare comparse e non certo le discrete (che rispondono a un bisogno del cliente di maggior potenza in qualcosa gioco o software professionale su una specifica libreria che sia). Tutti si augurano che il supporto software/driver diventi più uniforme in futuro. Ora c'è troppo sbilanciamento e si vede bene nella quantità di VRAM che mettono i vari produttori nelle schede. AMD cerca di rendersi più attraente mettendo più memoria, quando la tendenza software è sempre a una maggior compressione/efficienza nell'usare meno memoria possibile. |
|
|
inviato il 17 Gennaio 2026 ore 20:08
come disse Saruman, l'era dei pc assemblati è ormai finita. |
|
|
inviato il 17 Gennaio 2026 ore 20:23
Ahahah |
|
|
inviato il 17 Gennaio 2026 ore 20:57
Mah, ci sarà anche tendenza all'efficienza, ma siamo passati in pochi anni da schede da 4GB che erano sovrabbondanti a schede da 6GB che sono asfittiche. Va bene tutto eh, per carità, però poi una volta che la frittata è fatta, a suon di pacchetti texture da 40GB, database di Deep learning titanici e super mega ray-tracing vari, poi non si può "mettere la pezza" con l'upscaling per lesinare sulla memoria. Primo, perché poi col Deep learning manco funziona la cosa. E secondo, perché non è proprio possibile andare oltre certi limiti. Insomma, è come tentare di chiudere il recinto facendo finta di nulla dopo che l'iper-realismo dei giochi e la crescente complessità dei modelli di Deep learning hanno fatto già scappare i maiali da parecchio, secondo me... |
|
|
inviato il 17 Gennaio 2026 ore 20:57
“ Non è essere fan o meno, ho avuto GPU matrox, 3dfx, ATI, Nvidia e AMD. Ogni periodo ha avuto vantaggi prezzo/caratteristiche da un produttore ad un altro „ il mio era un discorso generico non era riferito a te. io leggo anche forum di informatica. scusate ma la X di fianco a "modifica" non serve a cancellare il post? non mi cancella niente “ Mah, ci sarà anche tendenza all'efficienza, ma siamo passati in pochi anni da schede da 4GB che erano sovrabbondanti a schede da 6GB che sono asfittiche. Va bene tutto eh, per carità, però poi una volta che la frittata è fatta, a suon di pacchetti texture da 40GB e di tracing vari, poi non si può "mettere la pezza" con l'upscaling per lesinare sulla memoria. È come chiudere il recinto dopo aver fatto scappare i maiali, secondo me... „ sono latitato nel mondo dell'HW per un po' di anni ma da quello che vedo adesso condivido il principio anche se non conosco bene i dettagli. Comunque le scelte sulla memoria e sul bus e sulla cache che stanno facendo i produttori di GPU, in particolare nVidia, non sono molto entusiasmanti |
|
|
inviato il 17 Gennaio 2026 ore 21:21
E io che ho una 1080ti presa nel 2017... e la utilizzo, con i suoi limiti, ma rende per quanto sia vecchia. La differenza con la ati sarà così notevole? Giochi e davinci? |
|
|
inviato il 17 Gennaio 2026 ore 21:24
Nvidia sa di avere questo periodo di "vantaggio commerciale" grazie a DLSS/CUDA/IA e come ogni azienda sta cercando di massimizzare i profitti. Non è solo nelle GPU che fanno segmentazione del mercato... Guarda ad esempio nelle stampanti, dove certi funzioni software sono esclusiva dei modelli più costosi. C'è da sperare che prima o poi questi squilibri di mercato si riducano. Nel frattempo useremo quel che riusciamo a prendere (non aiuta nemmeno essere l'unico stato OCSE in cui da 30 anni nonostante l'aumento notevole del profitto medio delle aziende gli stipendi dei dipendenti sono addirittura calati. Dalle altre parti hanno in seguito in parte l'andamento reale dell'economia). |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 257000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |