|
|
inviato il 25 Gennaio 2026 ore 11:43
Ciao a tutti Intel ha dichiarato che il top di gamma della futura generazione arriverà a 52 core, in tre die: due con la classica combo 8P+16E, poi uno con 4 LPE core. La domanda che mi sono posto è: ma quanto sono sfruttabili tanti core in un ambito produttività personale e applicazioni workstation? Ho messo insieme un sistema biprocessore con un totale di 44 core Xeon, corrispondenti alla generazione 5 di Intel. Sono cloccati a circa 3 GHz ed ognuno ha prestazioni paragonabili ad un efficiency core recente. Ho poi lanciato geekbench, un benchmark che non si focalizza sulla velocità di calcolo, ma simula una serie di applicazioni tipiche di un utilizzo desktop e workstation. Poi ho estrapolato l'efficienza multicore di ogni singola operazione. Immagino che, a seconda della operazione, sia un misto di mulithreading e multiprocessing, ma non saprei come distinguere le due. Qui il risultato: File compression: 582.0 MB/sec - 149.3 MB/sec 3.9x Navigation: 71.6 routes/sec - 7.71 routes/sec 9.3x HTML5 Browser: 236.4 pages/sec - 25.9 pages/sec 9.2x PDF Renderer: 215.3 Mpixels/sec - 28.0 Mpixels/sec 7.7x Photo Library: 148.4 images/sec - 12.3 images/sec 12.1x Clang: 162.9 Klines/sec - 6.10 Klines/sec 26.7x Text Processing: 96.3 pages/sec - 83.6 pages/sec 1.15x Asset Compression: 569.2 MB/sec - 40.6 MB/sec 14x Object Detection: 124.7 images/sec - 12.7 images/sec 9.8x Background Blur: 27.4 images/sec - 5.83 images/sec 4.7x Horizon Detection: 441.3 Mpixels/sec - 51.9 Mpixels/sec 8.5x Object Remover: 734.2 Mpixels/sec - 89.2 Mpixels/sec 8.2x HDR: 241.7 Mpixels/sec - 37.6 Mpixels/sec 6.4x Photo Filter: 63.7 images/sec - 13.9 images/sec 4.6 Ray Tracer: 40.3 Mpixels/sec - 1.22 Mpixels/sec 33x Structure from Motion: 404.1 Kpixels/sec - 41.3 Kpixels/sec 9.8x Overall: 9227 - 1133 8.1x Come potete vedere, solo il ray tracing e la compilazione clang hanno una efficienza buona, in molte applicazioni è difficile che vengano sfruttati più di 10 core, con una media, attestata dal punteggio del benchmark, di 8 core. Si potrebbe obiettare che sia un limite del mio sistema, ma se spulciate fra il database di geekbench noterete che il rapporto fra multi e single thread non supera l'8x. Da questo punto di vista, forse allo stato attuale servirebbe più un processore con 12 perfomance cores, oppure 16 come fa AMD |
|
|
inviato il 25 Gennaio 2026 ore 12:21
Ciao Blade, nei vari articoli che ho letto, Intel rilascerà delle cpu con 28 core specifiche per i giocatori, con meno core ma con frequenze più alte e più cache come gli AMD, quindi ottimi in game e in quei software che non hanno bisogno di molti core. Faranno diverse versioni adatte ai vari scenari. Ambito amd ci sono diversi rumors, di sicuro vogliono mettere 12 core in un solo CCD, cosi avranno un ryzen 9 12 core senza le limitazioni attuali (il 12 core sono 2 CCD da 6 core), e quindi è possible che si salga a 24 core e 48 thread. Si parla anche di architettura ibrida come intel. Vedremo |
|
|
inviato il 25 Gennaio 2026 ore 12:32
Io avevo letto di un Arrow Lake refresh con 12 performance core. Il conto torna perchè un efficiency core occupa 1/4 di spazio di un performance. Da questi risultati, a parità di area io opterei per 10 performance core e 8 efficiency |
|
|
inviato il 25 Gennaio 2026 ore 12:34
28 core ma al solito ibridi, quindi 8 o 12 p-core e il resto E-core oppure i nuovi L-core. avevano parlato anche di solo P-core, ma secondo me non li faranno. per i refresh non saprei, ma da quello che è emerso sembrano al solito uguali ai vecchi con frequenze più alte |
|
|
inviato il 25 Gennaio 2026 ore 12:42
Per i 12 P-Core, Il conto torna perchè un efficiency core occupa 1/4 di spazio di un performance. Da questi risultati, a parità di area io opterei per 10 performance core e 8 efficiency C'è un'altra questione: i 250W sono limitati via software. Se vado oltre il perfomance mode arrivo a 300W, ma senza toccare alimentazione e clock. Poi ci sono i setup di overclock. Modificare i singoli parametri è un delirio. Io allo stato attuale ho impostato un 200s boost custom, nel senso che ho messo a mano a 3.2GHz die2die e NGU, ma con le memorie vado oltre gli 8000MT/s. Performance mode e turbo di default. Credo di avere capito perchè geekbench e CPU-Z riportano 5.5GHz per una CPU e 5.4 per l'altra, poi verifico. |
|
|
inviato il 25 Gennaio 2026 ore 13:15
Per quanto riguarda la dimensione del die, spezzarlo in due permette di avere un margine superiore. Il primo vincolo è dato dagli scarti al bordo. Un wafer è circolare, ma i die sono rettangolari, inoltre, quelli più esterni di solito vengono scartati a prescindere. E' ovvio che avere die più piccoli ti permette di sfruttare di più la superficie del wafer. Immaginiamo che un die con 8 core ti faccia scartare il 5% di superficie, uno con 16 te ne farà scartare più del 10%. Poi c'è la resa. Se fosse un sensore, potresti tollerare tanti fotodiodi fallati, ti basta poi mappare quello a lato. Idem per gli SSD, puoi sempre mappare una cella dummy di backup. Ma per le CPU non è così, una sola difettosità ti fa buttare un die. La difettosità è proporzionale all'area. Quindi se io idealmente ricaverei 1000 die da 8 core da un wafer, con il 5% di scarti di bordo sarei a 950. Ora, se supponiamo che la difettosità causi una resa del 95%, sarei a 902 die, da cui ricaverei 451 processori. Se invece parliamo di 16 core per die, partirei da 500, a cui devo togliere il 10% di bordo, quindi siamo già a 450. Poi ovviamente, essendo l'area doppia, la resa sarà del 90%, quindi avrei 405 processori. In realtà potrei guadagnare un pochino dal fatto che lo spazio fra un die e l'altro sul wafer, necessario per il taglio, è lo stesso, quindi pesa meno con die più grandi. Ma con aree così grandi come quelle delle CPU pesa nulla. Dopodichè, ci sono problemi di design, stress termici e meccanici, packaging, che rendono più difficile integrare aree più elevate. |
|
|
inviato il 12 Marzo 2026 ore 15:43
Ho fatto qualche prova di multiprocessing con x265, sia sul core ultra 265K, sia su due Xeon E-5 2696 V4, cioè il sistema con 44 core di cui ho parlato all'inizio. Fra la applicazioni comuni, x265 è fra quelle che sfruttano meglio il multithreading, ma ha un limite a 16 frame elaborati in contemporanea. Il motivo è dato dal fatto che più frame in contemporanea vengono elaborati, più peggiora la qualità della compressione.. Questo è spiegato nella wiki dell'encoder: “ --frame-threads, -F <integer> Number of concurrently encoded frames. Using a single frame thread gives a slight improvement in compression, since the entire reference frames are always available for motion compensation, but it has severe performance implications. Default is an autodetected count based on the number of CPU cores and whether WPP is enabled or not. Over-allocation of frame threads will not improve performance, it will generally just increase memory use. Values: any value between 0 and 16. Default is 0, auto-detect „ Poi all'interno del singolo frame thread è possibile parallelizzare ulteriormente i calcoli, ma probabilmente con una bassa efficienza. Ho impostato la codifica VBR a 20000Kb/s, ed utilizzato come GUI Fastflix con in modalità software, ed un filmato di test in 4K 60fps. Di seguito la velocità di codifica 23.27fps CPU Core Ultra 265K H265 preset medium 12.95 fps CPU Xeon E5-2696 V4 x2 H265 preset medium Ho poi lanciato due conversioni parallele con il Core Ultra 265K, H265 preset medium, in modo da saturare i core. 16.02fps una conversione, 16.04fps l'altra, per complessivi 32.06fps. Tenendo conto che sono 20 core, ed ipotizzando di sfruttarli tutti con due conversione, si può calcolare che la singola ne sfrutti, se fossero identici (in realtà ci sono 8P-core e 12 E-core) 14.5, confermando il limite di 16. Similmente, ho lanciato quattro conversioni parallele con CPU Xeon E5-2696 V4 x2, H265 preset medium, in modo da saturare i core. 6.88fps una conversione, 7.1fps l'altra, 6.89fps la terza, 6.88fps la quarta per complessivi 27.77fps. Con tre conversioni siamo a 8.97, 8.98, 8.87 per un totale leggermente inferiore di 26.82fps. Tenendo conto che sono 44 core, ed ipotizzando di sfruttarli tutti con quattro conversioni, si può calcolare che la singola ne sfrutti 20.5, un valore leggermente superiore al limite di 13. |
|
|
inviato il 12 Marzo 2026 ore 16:14
se uno deve fare tante conversioni conviene farle in parallelo se hai un multicore oltre i 16 thread. quando hai fatto le 4 conversioni sul dual xeon , tutti i 44 core erano usati e al 100%? cmq ho trovato un altro scenario dove il multicore serve anche nei giochi, compilazione shader. Ci sono giochi che la prima volta possono impiegare anche 20-30 minuti a compilare gli shaders se hai una cpu lenta e con pochi core. microsoft vuole fare la compilazione mentre si scarica il gioco per non perdere tempo. |
|
|
inviato il 12 Marzo 2026 ore 16:30
Blade9722, la tua è un ottima analisi e aggiungo che anche nei software ingegneristici avere così tanti core non serve a nulla e sarebbe meglio averne meno ma singolarmente più prestanti. anzi .. superata un certo livello di parallelizzazione si hanno pure cali di prestazioni per la gestione della parallelizzazione stessa. ho addirittura un caso di calcolo che faccio girare sul portatile i5 perchè gira a singolo core e lì va meglio che nel singolo core dello xeon della workstation di calcolo. ho impressione che i core siano come i mpx delle fotocamera. si aggiungano per dare sensazione che i nuovi prodotti siano migliori dei precedenti, perchè abbiamo ossessione delle quantità... che più grosso è meglio, sempre e cmq. invece in ambito server i tanti core son utili per via della virtualizzazione, ma lì è un'altra storia |
|
|
inviato il 12 Marzo 2026 ore 17:24
Chi ha progettato e costruito Leonardo non la pensa come te. |
|
|
inviato il 12 Marzo 2026 ore 17:44
I core non sono come i megapixel, dipende dal software. |
|
|
inviato il 13 Marzo 2026 ore 15:05
“ ho impressione che i core siano come i mpx delle fotocamera. si aggiungano per dare sensazione che i nuovi prodotti siano migliori dei precedenti, perchè abbiamo ossessione delle quantità... che più grosso è meglio, sempre e cmq. „ Il multi core sul desktop è diventato una necessità nella prima metà degli anni '2000, quando terminò la corsa ai GHz. Per oltre 20 anni alla riduzione della litografia corrispondeva l'aumento delle frequenze operative, ma superati i 90nm non fu più così. Così per aumentare le prestazioni si pensò di sfruttare più core come nei server. Ma nei server lo scenario è diverso: vengono eseguite più applicazioni in contemporanea (multi processing), nei desktop tipicamente se ne lanciano una o due intensive, da qui la necessità di programmarle in modo che svolgano quante più operazioni possibili contemporaneamente. Comunque ci sono anche le CPU manycore come gli Xeon PHI. |
|
|
inviato il 13 Marzo 2026 ore 16:42
le automobili con troppi cavalli le fotocamere con troppi mpx i processori con troppi core e così via ... scambiamo quantità con qualità ... |
|
|
inviato il 13 Marzo 2026 ore 16:54
Se sei capace di progettare una CPU single core che ha la potenza di calcolo di 20 core, perchè non lo fai? |
|
|
inviato il 13 Marzo 2026 ore 17:03
@Gambacciani_FotoInViaggio Non è un confronto corretto quantità con qualità. Qua non c'entra. |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 258000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |