| inviato il 25 Agosto 2024 ore 16:07
Non sono proprio uguali, la rtx 3060 ha 3584 cuda core, la rtx 2060 super 2176, la gtx 1660ti 1536. Già questo basterebbe. Quel sito chissà che confronti effettua. Cmq in ottica futura meglio la penultima serie |
| inviato il 25 Agosto 2024 ore 16:31
Per Lightroom sono capitato tempo fa su questa pagina, sono report di utenti per cui magari non precisi ma rendono l' idea delle prestazioni delle gpu www.fredmiranda.com/forum/topic/1804640/17 |
| inviato il 25 Agosto 2024 ore 17:23
Molto interessante il link, certo che gli Apple M ne escono con le ossa rotte 80/100s di Denoise a foto da 36MP per un M1/M2 base. Più del doppio di una RTX2060 che ha i suoi anni sulle spalle. |
| inviato il 25 Agosto 2024 ore 17:26
Per il Deep Learning la RAM unificata da 8 è decisamente asfittica, anche se è memoria unificata più efficiente della normale. Anche perché lì poi te la devi giostrare con tutto il resto del sistema, essendo unificata, e della roba di sistema che stai usando insieme al task di denoise non puoi swappare niente, per cui hai l'equivalente, quando va bene, di una GPU con 4 dedicati. Che è davvero poco per queste funzioni. Un PC con 8 di RAM e una GPU da 6 avrà sempre più "birra" e spazio, perché gli 8 sono del sistema e i 6 della GPU dedicata. Anche Apple fu costretta ad ammettere che per i creatori di contenuti o utilizzatori frequenti di funzioni come queste i 16 sarebbero stati molto più indicati rispetto al taglio base da 8. Non ho difficoltà ad ammettere che, se dovessi considerare un Mac con memoria unificata (ormai fanno solo quelli) il taglio minimo di RAM che prenderei in considerazione sarebbe il 16GB. Ma forse di più, tenuto conto l'aumento di domanda futura dei programmi e il fatto che l'unificata non è espandibile. Io ci credevo poco, ma sono passato da qualche giorno a 32 (non unificata, ddr4 classica 3200) e la macchina sembra "respirare" meglio: ormai non programma più niente nessuno al risparmio di memoria, è tutto "a sciupare", ne viene consumata più possibile. I kernel sono fatti per swappare molto prima della saturazione, per cui conviene stare sempre più lontani possibile dalla saturazione stessa. |
| inviato il 25 Agosto 2024 ore 17:42
Oltre la ram anche la gpu dei vari Apple va considerata, non sono tutte uguali. Un 40 core gpu non va come un 10 core gpu sia come prestazioni che come consumo. Poi se si paragona ai vecchi Mac con Intel e scheda amd vecchia i vari M sembrano volare. Bastava solo cambiare gpu, ma mi sa non è possibile. |
| inviato il 25 Agosto 2024 ore 17:49
La GPU che io sappia non è mai stata sostituibile nemmeno nei vecchi Mac Intel ... |
| inviato il 25 Agosto 2024 ore 17:53
Dal link pubblicato da Gianpaolo64 sembrerebbe confermato che 2060 super e 3060 sono equivalenti, o sbaglio? |
| inviato il 25 Agosto 2024 ore 17:56
In effetti la differenza lì sarebbe esigua. OT a margine Diavolo se pare ottimizzato male il denoise Deep learning di Adobe.... Nonostante la crescita notevole di hardware dalla serie 20xx alla 30xx, se la differenza fosse solo quella della tabella di quel link ... la cosa sarebbe un po' imbarazzante. Ps Però va detto che se Adobe dovesse ottimizzare e migliorare, il miglioramento lo vedresti sulla 3060, NON sulla 2060. A te la scelta. |
| inviato il 25 Agosto 2024 ore 18:04
Quella tabella mi pare strana come risultati: la 3070 fa 22 secondi, la 3070Ti 34! Non vedo mai benchmark delle AMD su Lightroom, mi interesserebbe sapere come si comportano, ad esempio un RT 7800 XT, che costa relativamente poco, ha 16GB e nei giochi viaggia veloce (ma dei giochi non mi interessa minimamente, anche pechè ho una 3070 che mi basta e avanza). |
| inviato il 25 Agosto 2024 ore 18:06
Qualche dubbio sulle metodologie e uniformità di quei test mi era già venuto in effetti, da qui i condizionali del mio post precedente. |
| inviato il 25 Agosto 2024 ore 18:26
Da prendere con le pinze. Test non standardizzati, quindi alla bontà dell'utente con il resto del pc diverso. Oggi sotto una rtx 3060 non andrei, in ottica futura. |
| inviato il 26 Agosto 2024 ore 18:53
I mac pro xeon prima del Mac "cestino del rusco" avevano la GPU su pcie sostituibile. Ma non sono sicuro se potevi mettere quella che volevi o doveva avere un firmware per Mac a bordo. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |