|
|
inviato il 06 Gennaio 2026 ore 10:37
Una volta con 250 € avevi una signora scheda video, adesso è esploso tutto. |
|
|
inviato il 06 Gennaio 2026 ore 10:54
Una cosa che non capisco è perchè CPU-Z mi riporta come range di clock 4.0-54.0 per il 265K, come nell'immagine, ma 4.0-55.0 per il 265KF “ Ma... personalmente rinuncerei tranquillamente all'HT (tanto ormai di core P+E ce ne sono anche troppi) e lo spazio risparmiato lo userei per altro. Se non per core cpu, magari per potenziare NPU/GPU. „ Mmmmh, Intel ai tempi sosteneva che l'incremento dell'area era del 5%, a fronte di un incremento di performance che poteva arrivare fino al 20%. Poi però c'è da considerare che la performance di un P-core è circa il doppio di un E-core, quindi nel K265 avrebbe pesato come 20%*[8/(8+12/2)] =11.4%. Per l'area, un E-core occupa circa 1/4 di un P-core, quindi l'incremento sarebbe 5%*[8/(8+12/4)] =3.6%. Resta da vedere cosa ci puoi mettere in quel 3.6% |
|
|
inviato il 06 Gennaio 2026 ore 11:03
“ Ma... personalmente rinuncerei tranquillamente all'HT (tanto ormai di core P+E ce ne sono anche troppi) e lo spazio risparmiato lo userei per altro. Se non per core cpu, magari per potenziare NPU/GPU. „ Una RTX5070 si trova a 589€, scalando l'inflazione rispetto al 2006 si arriva a 420€. In quell'anno comprai una 8800GTS 640MB, non credo di averla pagata meno. |
|
|
inviato il 06 Gennaio 2026 ore 11:05
Blade ma nei test va a 5.5 o a 5.4 su di gli thread? Forse un bug di cpuz? Hai ultima versione? |
|
|
inviato il 06 Gennaio 2026 ore 11:13
A 5.4GHz fa solo qualche apparizione fugace, OCCT in single thread comunque fa scendere la frequenza a 5.2. Secondo me è un bug di CPU-Z, è riportato un valore diverso fra K e KF EDIT: è sicuramente un bug, Hwinfo riporta 55 per entrambi |
|
|
inviato il 06 Gennaio 2026 ore 12:52
“ ......Se il mercato gaming fosse più grande ci sarebbero ancora GPU discrete a prezzo "domestico", mentre le discrete stanno volando tutte verso prezzi "professionali" se vuoi salire oltre al 1080P „ Il problema infatti è questo, vogliono ormai che nessuno di noi abbia più niente per poter "affittare" e vendere il servizio, senza aver più nulla di personale, potente e che funzioni a sè dall'inizio alla fine. Vedi fine dei supporti fisici per film, giochi, musica, per avere tutto solo in streaming (in abbonamento) e non avere più nulla in mano, con il diritto peraltro (dopo che hai pagato) di togliere e non far funzionare più quello che hai pagato (oltre a non poterlo rivendere). A veder male, adesso, con la ram e ssd consumer arrivati a prezzi da bagarino, secondo me si arriverà in futuro a non POTER più avere un proprio pc personale potente, il tutto per avere la facoltà di farti usare solo il cloud legato ai mega-server per l'AI da vendere.... Rimarranno per un po' solo le console per giocare, e dei piccoli client per lavorare e collegarti a programmi e applicazioni per fare i calcoli in cloud sui mega server dedicati (tutto a pagamento a seconda di cosa ti serve). Per fare qualsiasi cosa dovrai fare 1000 abbonamenti, un po' come i servizi video streaming... Poi (a breve) spariranno definitivamente anche le console, quando la fibra vera o altri sistemi satellitari di connessione internet funzioneranno adeguatamente e per tutti in maniera decente così da poter collegare sempre dei piccolissimi dispositivi-game funzionanti solo in cloud (già ci sono, poi sarà la norma, senza più scelta). “ La scelta di Intel di fare core "economici" ma maggiori in numero TOGLIENDO L HYPERTHREADING - perché non lo citi racconti mezza verità - aveva un senso per favorire applicazioni che richiedono attività più semplici „ non l'ho citato PER FORTUNA, perchè non la reputo certo una cosa positiva, ma al contrario: - per Intel è stata l'unica possibilità di rimanere "in linea" con Amd (per contrastare 16 core di un 3950x , 7950x, ecc.) senza fare una cpu grande come una mattonella e consumare come un condizionatore! Non aveva altra strada! Ora che finalmente e riuscita a scollarsi dai 14nm (++++++++++) infatti torna/tornerà sui suoi passi. |
|
|
inviato il 10 Gennaio 2026 ore 0:35
questi sono i test dei consumi. voglio capire come è possibile che se in single thread gli amd fascia 9 consumano di più del 285k allora la scelta di intel di non avere 16 core uguali era dovuta ai consumi. Non è quello è che ragionevolmente invece di fare 16 core uguali che sono inutili ha cercato di seguire la strada del mondo mobile e al contempo delle schede grafiche per avere più core che fanno calcoli ed evitare l'hyperthreading - peraltro invenzione di Intel - che obbliga a continui cambi di contesto anche se gestiti via hw |
|
|
inviato il 10 Gennaio 2026 ore 5:13
C'è un enorme fetta di persone che diventa matta a guardare in un desktop attaccato alla rete di casa quale CPU gli consuma 20W di meno a pieno carico (e poi magari lo consuma lo stesso aggiungendo due ventole e tre led RGB). Quando di norma oltre il 90% di tempo la CPU sta a carico parziale o quasi completamente scarica. Qui avere gli E core serve solo a tenere bassa temperatura e rumore ventole quando non hai il massimo carico (quasi sempre). Discorso diverso per i portatili, con l'approccio BIGlittle derivato dai cellulari vai a creare un consumo ulteriormente ridotto nei carichi leggeri che ti fa guadagnare un sacco di autonomia. Lo vedo su un portatile con Core Ultra 155H e RTX4060, la differenza di autonomia tra carichi pesanti e lavori leggeri è notevole, almeno 4 volte. |
|
|
inviato il 10 Gennaio 2026 ore 8:27
“ questi sono i test dei consumi. voglio capire come è possibile che se in single thread gli amd fascia 9 consumano di più del 285k allora la scelta di intel di non avere 16 core uguali era dovuta ai consumi. Non è quello è che ragionevolmente invece di fare 16 core uguali che sono inutili ha cercato di seguire la strada del mondo mobile e al contempo delle schede grafiche per avere più core che fanno calcoli ed evitare l'hyperthreading - peraltro invenzione di Intel - che obbliga a continui cambi di contesto anche se gestiti via hw „ Io il core 7 ultra 265K ce l'ho, e quando avvio une encoding h265 da CPU mi sembra vada oltre il 200W, farò un test usando OCCT come monitor che fa le medie. Io uso il preset performance che è quello di default. Comunque Intel dichiara un maximum Turbo Power di 250W, ma 125W di base power. Comunque messa così operativamente in ambito produttività consuma meno dei Ryzen recenti a 16 core |
|
|
inviato il 10 Gennaio 2026 ore 9:36
Una informazione che manca in quel test (almeno non lo vedo) é in single thread usa P core o gli E core, la frequenza raggiunta, e su amd se il pbo è di default, è la frequenza raggiunta. Se il pbo è attivo di default (di solito) la frequenza massima è maggiore di quella standard. |
|
|
inviato il 10 Gennaio 2026 ore 12:16
Ci sono molti modi per far consumare poco sia Intel che Amd, e basta abbassare il tetto massimo che si arriva a consumare anche la metà, perdendo "poche" prestazioni in proporzione. Su Amd si può agire in vari modi, si può scegliere di specificare effettivamente i watt massimi raggiungibili, la temperatura massima (e quindi di conseguenza abbassa le tensioni e i watt raggiungibili), o altro... Il problema è che Intel con i carichi massimi ancora consuma abbastanza rispetto ad Amd. Il mio 9950X3D , con pbo abilitato (quindi diciamo overclock) consuma CON CARICO AL 100% sempre non oltre i 215W (185W senza PBO), ed ha prestazioni (produttività, calcolo, encoding e rendering al 100%) di un Ultra 285K che consuma 250W (meglio della serie 13000-14000, ma ancora 65W in più, che non sono proprio bruscolini...). In gaming non ne parliamo neanche. Se si sta attenti ai tetti massimi, Amd guadagna ancora di più, perchè riesce a perdere meno performance di Intel con parecchi watt ancora in meno. Nel pentolone poi mettiamoci pure che per la prossima generazione vera di Intel (Nova-lake) cambierà di nuovo piattaforma.... Arrow ha venduto pochissimo anche perchè di nuovo non sarà aggiornabile nel tempo. Amd userà ancora il socket AM5 (uscito già dal 2022) probabilmente fino a fine 2027. |
|
|
inviato il 10 Gennaio 2026 ore 12:20
“ Amd userà ancora il socket AM5 (uscito già dal 2022) probabilmente fino a fine 2027. „ Ma poi bisognerà quanto venderanno tutti nel 2026/2027 con il "problemino" prezzi dei componenti che abbiamo ora. Tanto vale rimandare gli aquisti al 2028 se si può aspettare. E in tanti ci proveranno, a quel punto anche AM5 sarà superato. |
|
|
inviato il 10 Gennaio 2026 ore 12:22
Questo adesso non c'entra nulla! Era per dire che dal 2022 a fine 2027 su AMD hai le massime performance possibili cambiando solo il processore. Tra 2 anni si cambia solo quello (e appunto, non altro!)........ E anche quando ci sarà una architettura nuova (con le DDR6), chi non vuole cambiare tutto spende per il processore più veloce possibile (magari usato adeguatamente deprezzato) da mettere su AM5! La stessa piastra madre comprata 6 anni prima! CON PRESTAZIONI PROBABILMENTE RADDOPPIATE (passando da un 16 core ad un 24 con calcolo single core migliorato di 2 generazioni): Zen 6 , sempre su socket AM5 avrà i chiplet con 12 core invece degli 8 attuali. Moltissimi Intellisti questo lo hanno finalmente capito e infatti tantissimi sono passati a AMD nel 2025 (oltre che per le prestazioni). “ voglio capire come è possibile che se in single thread gli amd fascia 9 consumano di più del 285k allora la scelta di intel di non avere 16 core uguali era dovuta ai consumi. Non è quello è che ragionevolmente invece di fare 16 core uguali che sono inutili ha cercato di „ Black Imp ti ripeto che il motivo di Intel di non fare 16 core uguali era perchè con la nanometria che aveva a disposizione delle sue fab (ancora sui 10nm, e ci era arrivata da poco) non poteva fare altrimenti! Sarebbero state cpu che consumavano 500W , con un die ENORME per avere le stesse performance di AMD che con il 3950X a 16 core andava a 140W massimi (già a 7nm)! E' per questo che Intel con gli Ultra , si è fatta "stampare" i suoi "tile" (stessa cosa dei chiplet di Amd) a 3nm da TSMC , perchè le sue fab erano ancora al palo! Adesso sta aspettando che riesca ad affinare i suoi prossimi 1,8nm ma nel frattempo dovrà ancora affidarsi ad altri. |
|
|
inviato il 10 Gennaio 2026 ore 14:34
e appunto stai dicendo una cosa contraddittoria: si è fatta fare gli Arrow Lake ANCHE da TMSC a 2nm processo che ha anche Intel in casa... eppure li ha fatti apposta con core P ed E |
|
|
inviato il 10 Gennaio 2026 ore 15:28
Forse mi sono spiegato male, in casa non aveva nessun processo a 3nm quando è uscito Arrow, neanche oggi. Dai 10nm (usati fino alla serie 14000) sta cercando di arrivare a 1,8nm (ancora non utilizzabili perché devono gettare mi pare l'80% del wafer prodotto), senza processi intermedi. Per questo Arrow usa una parte del die fatta da TSMC. Neanche con Nova Intel sarà pronta con le sue fab. |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 258000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |