|
|
inviato il 13 Marzo 2026 ore 17:45
“ biprocessore con un totale di 44 core „ E meno male che parli di core fisici e non hai accennato all'Hyper Threading, altrimenti erano razzi amari. |
|
|
inviato il 13 Marzo 2026 ore 18:22
“ Se sei capace di progettare una CPU single core che ha la potenza di calcolo di 20 core, perchè non lo fai? „ che centra questo commento? e poi chi ha parlato di avere un solo core? non mi sono mai occupato di sviluppo di elettronica dei microprocessori e non ne senso il bisogno. però sono in grado di usare questi strumenti da utente finale, come ingegnere e come appassionato, ed averne un opinione abbastanza consapevole. come in fotografia dove non mi sognerei di progettarmi una fotocamera da solo avendone così tante valide a disposizione. e ripeto .. in fotografia vedo sensori con troppi mpx, e in questi nuovi processori vedo un eccesso di core di cui non so cosa gli utenti se ne facciano: ne l'utente base, ne il videogiocatore, ne il fotografo, ne ingegnere, . ma evidentemente un sano equilibrio tra la le caratteristiche non fa vendere come pompare su questi valori. tutto qua. PS: con il problema non secondario che poi tutto questo ricade sui costi, di tutti |
|
|
inviato il 13 Marzo 2026 ore 18:31
Non vedo dove sia il problema. Se non ti servono tutti quei core compri una CPU con meno. Cosa dovrebbe ricadere sui costi? Il numero di core? Come progettazione no, come produzione nemmeno, anzi due processori con 10 core costano di più di uno con 20 in quanto quest'ultimo ha un solo package. |
|
|
inviato il 13 Marzo 2026 ore 18:59
“ .....però sono in grado di usare questi strumenti da utente finale, come ingegnere e come appassionato, ed averne un opinione abbastanza consapevole. „ Capire come un processore di dieci anni fa, per una serie di accadimenti storici, può essere ancora attuale ha un senso. Quello che scrivi svela una probabile inesperienza sull'argomento che dovrebbe suggerirti una certa cautela negli interventi per evitare di scrivere delle castronerie. |
|
|
inviato il 13 Marzo 2026 ore 23:33
Il parallelismo estremo deve essere sfruttato in maniera certosina dal software, altrimenti non dà vantaggi, e i bench di questa interessante prova non fanno che ribadire in modo lampante questo assioma. Peraltro sono abbastanza convinto che quell'8x di media non sia affatto casuale... La maggior parte dei processori principali in ambito desktop di questo periodo storico ha 8 core performanti, di solito. Solo ultimamente si è sforato questo limite, e non in tutti i modelli/architetture. |
|
|
inviato il 13 Marzo 2026 ore 23:39
Un aneddoto veloce. Mi era preso il pallino di scrivere un programma per il calcolo dei primi e portarlo al limite col Python. Direte voi, l'hanno già fatto in mille, l'hanno fatto mille volte... Grazie al ciufolo, però se le cose non le fai da solo non tocchi con mano, non conosci e non ti diverti. Ma detto questo.... Come normale che sia, picchia e mena con l'algoritmo e arrivo al crivello di Erastotene. Lo mando, delusione... Ci vuole una vita per fare i primi nel miliardo anche col mio buon Ryzen 5 esa-core. Poi mi viene in mente, "ma non ci sarà qualche libreria per spalmare i conti su tutti i core?". Ovviamente si. Risultato? Numero di primi calcolati aumentato di qualche ordine di grandezza, e tempo di elaborazione ridotto a una frazione. In pratica ci voleva meno a saturare la RAM e calcolare che a salvare poi successivamente i primi così calcolati sul file di testo SU DISCO NVME. Così, tanto per dire. |
|
|
inviato il 13 Marzo 2026 ore 23:44
Ps: e attenzione a non sottovalutare nemmeno la specializzazione dei chip. NPU, schede crittografiche, GPU, processori per calcoli specifici della più disparata natura (vedansi gli ZiiP nei mainframe, giusto per scendere un pelino più nel tecnico). I processori general purpose ormai sono solo una delle facce di un complesso dado "D20" (o forse anche più di un D20) nel mondo dell'informatica moderna. E anche per lo sfruttamento dei chip specializzati, si torna lì: ottimizzazione e specializzazione del software a gogò. |
|
|
inviato il 14 Marzo 2026 ore 14:07
“ Peraltro sono abbastanza convinto che quell'8x di media non sia affatto casuale... La maggior parte dei processori principali in ambito desktop di questo periodo storico ha 8 core performanti, di solito. Solo ultimamente si è sforato questo limite, e non in tutti i modelli/architetture. „ Lato Intel siamo fermi a 8, AMD se non erro solo un cluster di 8 core utilizza la V-cache. Diciamo che con questi risultati 8 P core + 12 E core, oppure 12 P core coprono quasi tutti i casi |
|
|
inviato il 14 Marzo 2026 ore 14:24
Amd ha al momento max 8 core su singolo ccd. Nel caso dei ryzen 9 16 core sono 2 ccd accoppiati. Nel caso dei 12 core sono 2 ccd da 6 core ciascuno. Nel caso degli amd x3d solo un ccd utilizza la cache enorme. Ma sta uscendo un modello con doppia cache, una per ogni ccd. Su zen 6 vogliono arrivare a 12 core per ccd, così da migliorare i limiti del 12 core attuale |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 259000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |