| inviato il 08 Gennaio 2025 ore 18:24
Quindi, scusate, che alimentatore consigliate per una 5080? 750 W? 850 W? |
| inviato il 08 Gennaio 2025 ore 18:39
Dal sito nvidia 850watt. Poi al solito va visto il resto del pc e un 750 watt buono potrebbe bastare. |
| inviato il 08 Gennaio 2025 ore 18:42
Gianluca il sito mi sembra vecchio, vedi i valori sul sito nvidia che è aggiornato. 4060 e 4060 ti hanno consumi diversi 110 watt vs 160 watt |
| inviato il 08 Gennaio 2025 ore 18:44
“ Hanno mantenuto la stessa quantità perché con il DLSS 4 dovrebbe bastare. „ Correzione: hanno mantenuto la stessa quantità perché nella fascia medio/alta hanno il monopolio totale e possono fare quello che vogliono vendendo a prezzi spropositati. Le 5000 ora come ora imho non hanno alcun senso, come prestazioni grezze il margine di guadagno sarà minimo rispetto alla 4000 che dovrebbe scendere di prezzo (o saltare fuori nell'usato), e il rapporto prezzo/prestazioni praticamente non cambierà. |
| inviato il 08 Gennaio 2025 ore 18:45
dipende molto dal processore che ci abbini. un conto è abbinare un ryzen 7, un altro conto è un ryzen 9hx,oppure in intel un ultra 7 o un ultra 9. perché se la scheda consuma 250w,il processore sotto stress 250w, sono già 500w. aggiungi gli altri componenti, lascia un buon margine.,minimo serve un 750w di ottima qualità. per assurdo i picchi di consumo sono più alti in applicazioni esose tipo i programmi di rendering video, che non con sessioni di gioco. |
| inviato il 08 Gennaio 2025 ore 18:52
Bubu93, Ambito gioco le prestazioni in raster ormai non interessano più a nvidia, hanno puntato ( e indirizzato il mercato) sulle nuove tecnologie. AMD con le 9070 xt vorrebbe seguire. Vediamo cosa succede. Ambito editing, da capire se la nuova architettura migliora o meno le prestazioni. |
| inviato il 08 Gennaio 2025 ore 19:36
poi che nvidia ha braccine corte sulla memoria, e ci specula sulle tecnologie tagliando i modelli porecedenti questo nessuno lo nega. non ha competitors al momento :-( |
| inviato il 08 Gennaio 2025 ore 20:40
Secondo me lil problema è che Nvidia vuole tenere separate le linee Geforce da una parte e quelle per datacenter dall'altra. Le performance AI (misurate in TOPS) di una 4090 superano quelle di una A100, quelle di una 5090 sono nella stessa classe di H100: se avessero pezzature di memoria paragonabili le Geforce invaderebbero il terrritorio delle A100/H100, molto più costose e, credo, redditizie per Nvidia. Le Geforce nascono per uso desktop e principalmente per giocare, ma se non ti curi troppo di vincoli contrattuali e garanzie possono essere utilizzate piuttosto proficuamente nei datacenter per l'AI, come sembra stiano facendo in Cina: il governo USA ha imposto il ban a Nvidia della vendita delle 4090 in Cina perchè teme di perdere il vantaggio competitivo sull'AI, non perchè non vuole che i cinesi giochino agli sparatutto in 4K. |
| inviato il 08 Gennaio 2025 ore 21:11
“ Ambito gioco le prestazioni in raster ormai non interessano più a nvidia, hanno puntato ( e indirizzato il mercato) sulle nuove tecnologie. „ infatti non ha più senso parlare di "G"PU ormai siamo nell'era dell' "AI"PU visto che a pieno regime solo un 10-20% dei pixel visualizzati sono rasterizzati gli altri sono interpolati dall'upscaler e dal multi frame generator. |
| inviato il 09 Gennaio 2025 ore 1:39
“ infatti non ha più senso parlare di "G"PU ormai siamo nell'era dell' "AI"PU visto che a pieno regime solo un 10-20% dei pixel visualizzati sono rasterizzati gli altri sono interpolati dall'upscaler e dal multi frame generator. „ Si, peccato che poi i giochi sono tutti smerdati e pieni di artefatti e input lag grazie al frame generation, se permetti mi tengo il raster che tanto di roba tripla A che valga la pena giocare e che effettivamente richieda quella potenza perché la grafica è bella (e non perché usano Unreal 5 male ottimizzato) ce n'è veramente poca... |
| inviato il 09 Gennaio 2025 ore 7:39
Con il DLSS (upscaler + FG) e Nvidia reflex di artifatti (pochi) e input lag non ne dovresti avere. Ma, alcuni giochi se attivi RT e path tracing senza DLSS difficilmente hai prestazioni decenti. Poi che i giochi nascano male e ci vogliono mesi per metterli in bolla non è una novità. Anche che si perdono pezzi sulle nuove tecnologie, vedi l'ultimo indiana jones. Dipende sempre dal gioco. Adesso cosa hai Bubu93? |
| inviato il 09 Gennaio 2025 ore 9:26
“ Si, peccato che poi i giochi sono tutti smerdati e pieni di artefatti e input lag grazie al frame generation, se permetti mi tengo il raster che tanto di roba tripla A che valga la pena giocare e che effettivamente richieda quella potenza perché la grafica è bella (e non perché usano Unreal 5 male ottimizzato) ce n'è veramente poca... „ certamente un interpolazione per quanto sofisticata difficilmente può dare gli stessi risultati di un elaborazione nativa ma insomma io non dipingerei il quadro a tinte così fosche. il DLSS migliora gen su gen qualità e prestazioni e piaccia o non piaccia in ogni caso è questa la strada tracciata ormai irreversibilmente tanto è vero che anche gli altri produttori come AMD e intel, stano alacremente lavorando su soluzioni simili. |
| inviato il 09 Gennaio 2025 ore 9:29
Amd ha rifatto da zero con il nuovo fsr4 compatibile solo con le nuove 9070. Le vecchie sono tagliate fuori , i clienti saranno felici. |
| inviato il 09 Gennaio 2025 ore 9:35
Il problemuccio di tutte questi begli ammennicoli non è solo lo sbattimento degli sviluppatori di SW che dovranno ottimizzare tutto per farci andare bene il loro prodotto, ma anche nell'obsolescenza più o meno programmata delle iterazioni di questa roba. Io, personalmente, resto convinto che non siano soluzioni sostenibili per il mercato del SW, né in termini di tempo da impiegare per lo sviluppo, né in termini di manutenzione. I giochi sono quasi tutti tempestati di cali di prestazioni e bug relativi all'uso di queste tecnologie, tutte. La gente prima o poi si stancherà degli hype creati sui titoloni per poi trovare una stabilità di gioco solo dopo un anno o più. Così come si stancherà di dover cambiare scheda perché la propria ha i tensor vecchi e i nuovi garantiscono prestazioni migliori in calcoli deep learning e la software house non sviluppa più ottimizzazioni per i vecchi... e così via. |
| inviato il 09 Gennaio 2025 ore 9:47
era impossilbe fare un salto nella qualità dei giochi senza introdurre un game changer come il RT. Ma nvidia si è accorta subito che non si poteva affrontare una simile feature basandosi sulla forza bruta di calcolo. Quindi l'introduzione di una tecnologia come il DLSS è stata inevitabile e volenti o nolenti ha totalmente cambiatoil mercato delle schede grafiche e dei giochi. |
|

Metti la tua pubblicità su JuzaPhoto (info) |