|
|
inviato il 16 Ottobre 2024 ore 20:09
Anche la 3060 non credo esista da 16GB, o 8GB o 12GB. |
|
|
inviato il 16 Ottobre 2024 ore 22:18
2400Mhz = 4800MT/s le DDR trasferiscono dati su entrambi i fronti del clock, i sw come cpu_z o hwinfo riportano la frequenza |
|
|
inviato il 17 Ottobre 2024 ore 0:47
Sulla GPU è vero. Ho corretto. Sulla RAM incollo quello che leggo. Magari interpreto male.
 E in un'altra finestra dice in effetti: "DDR5-4800 / PC5-38400 DDR5 SDRAM UDIMM, A-Die, 1R, PMIC: Richtek Power" |
|
|
inviato il 17 Ottobre 2024 ore 11:31
“ Sulla RAM incollo quello che leggo. Magari interpreto male. „ E' corretto, 2.400Mhz x 2, quindi 4.800 che è il valore nominale più diffuso. |
|
|
inviato il 17 Ottobre 2024 ore 11:36
Perdonate la mia ignoranza sull'hardware… Quindi ora è tutto chiaro. |
|
|
inviato il 17 Ottobre 2024 ore 17:19
L'inghippo è esattamente nel nome: DDR = Double data rate ovvero due trasferimenti per ogni colpo di clock (fronte di salita e fronte di discesa). Vedi: en.wikipedia.org/wiki/Double_data_rate DDR5-4800 è detta anche PC5-38400: quindi clock memoria a 2400 MHz e, con due trasferimenti a colpo di clock, 4800 MT/s (2400*2) e da qui la denominazione DDR5-4800. Se poi lo andiamo a misurare in bytes otteniamo 4800*8=38400 MB/sec e da qui la denominazione PC5-38400. |
|
|
inviato il 17 Ottobre 2024 ore 23:27
Un suggerimento all'ottima raccolta..... Converrebbe ordinare le righe dal tempo più basso a quello più alto. |
|
|
inviato il 18 Ottobre 2024 ore 0:30
Beh, quello può farlo chiunque scaricando il foglio Excel! |
|
|
inviato il 18 Ottobre 2024 ore 2:14
Ah ok.. Da cellulare mi sembrava che non si potesse modificare il file. |
|
|
inviato il 18 Ottobre 2024 ore 8:09
Direttamente su drive forse no, perché è in visualizzazione, intendevo scaricandolo. |
|
|
inviato il 18 Ottobre 2024 ore 8:20
==> CPU: AMD Ryzen 5 7535HS ==> RAM: 64GB DDR5 (4800) ==> GPU: NVIDIA GeForce 3050 (laptop) ==> Vers. PL: Photolab 8 ==> Denoise usato: Deep Prime XD2s ==> Tempo impiegato: 1 min 23 sec [83 secondi] |
|
|
inviato il 18 Ottobre 2024 ore 8:40
Ci sta anche qualche commento tecnico sui risultati. Erto non posso farlo io… |
|
|
inviato il 18 Ottobre 2024 ore 8:44
A me sembra che ci siano troppe variabili e che si capisca davvero poco (almeno io). Mi srei aspettato, in generale, i mac molto più veloci. E più differenza tra schede video. Sembra strano che una 4090 abbia tempi di poco inferiori alla mia 3050. Detto questo: gran bel thread, grazie. |
|
|
inviato il 18 Ottobre 2024 ore 8:47
Inserito anche quest'ultimo bench e inseriti filtri e ordinamenti in prima colonna: ORDINATO FOGLIO PER TEMPO IMPIEGATO in ordine discendente. Ho anche evidenziato i risultati che mi parevano anomali per la statistica. Ne risulta che in casa Apple, come abbiamo già appurato, DxO deve lavorare sodo, perché ci ha capito veramente poco sullo sfruttamento ottimale dei Neural Engine dei chip M! Riguardo il mondo x86_64, invece questi due bench non tornano per nulla: - Intel i9 13900hx, 32GB DDR5 4800, NVIDIA RTX 4090 laptop ==> 76 s (una 4090, per quanto edizione laptop, dovrebbe avere un tempo leggermente inferiore, con questo hardware, direi sui 40/50s massimi... però è anche vero che è l'unico risultato pervenuto dal plugin Pure Raw! Servirebbero chiarimenti sul come sia stata svolta la prova) - Intel i7 10700, 32GB DDR4 3000mhz, NVIDIA GTX 1660 Super 6GB ==> 314 s (non si allinea affatto ai risultati degli altri benchmark con 1660 super: secondo me sta andando sulla sola CPU!) Tutto il resto direi che forma un corpo di risultati assolutamente già coerente e indicativo!!! |
|
|
inviato il 18 Ottobre 2024 ore 8:58
Potremmo ripetere il test sul sw Adobe |
|

Metti la tua pubblicità su JuzaPhoto (info) |