|
|
inviato il 27 Dicembre 2025 ore 13:57
“ sicuramente non oggi, perché avrà scorte per coprire un buon quadrimestre del 2026, ma poi se i prezzi non caleranno sarà un bagno di sangue per tutti, perché di questo passo la ram e gli ssd saranno il vero oro, visto l'andamento. „ le scorte c'entrano poco o niente. Anche i negozi che vendono su Amazon e altri negozi hanno (o avevano) delle scorte, ma il prezzo l'hanno aumentato comunque, subito. Un po' come succede con i prezzi della benzina o qualsiasi altra cosa. Secondo me aumenterà (e non di poco) anche Apple, con il prossimo giro di mac (e di iPhone, iPad, etc). |
|
|
inviato il 27 Dicembre 2025 ore 14:05
“ Anche i negozi che vendono su Amazon e altri negozi hanno (o avevano) delle scorte, ma il prezzo l'hanno aumentato comunque, subito. „ C'è una differenza tra Apple e il negozio online che ha aumentato in base all'andamento di mercato, tant'è che il Mac Mini M4 rimane ancora a 599 euro, sono spariti gli M2 a 399 euro perché fondi di magazzino. Ovvio che le scorte centrano, se ho scorte di memorie pagate un tot, posso mantenere il prezzo in linea per un lasso di tempo e coprire più fasce di mercato, se la ram che ieri compravo a 10, oggi la compro a 40, questo influisce sul prezzo finale. Sicuramente Apple nei prossimi mesi e anni a venire avrà un aumento sostanziale di prezzo, ma soprattutto per colpa dell'aumento di questi. |
|
|
inviato il 27 Dicembre 2025 ore 14:26
almeno adesso i costi enormi di ram e dischi su mac hanno un senso |
|
|
inviato il 27 Dicembre 2025 ore 15:55
@Michaeldesanctis grazie per la spiegazione, in effetti ha senso e vedremo se i prezzi saliranno dopo la fine delle scorte “ almeno adesso i costi enormi di ram e dischi su mac hanno un sensoMrGreen „ @Murphy +1 Considerato che la percentuale di entrate per Apple dai computer è bassa, è prevedibile che abbiamo margine per gestire la cosa visto che è un problema per la vendita di computer che devono supportare generazioni in locale. Parlo dei computer di fascia bassa che da 8 sono passati a 16gb. |
|
|
inviato il 27 Dicembre 2025 ore 16:20
“ Parlo dei computer di fascia bassa che da 8 sono passati a 16gb. „ Non penso che il passaggio sia dovuto all'aumento della Ram, perché il mini m4 è uscito un anno fa e i prezzi erano ancora bassi, l'aumento della ram nei Mac è stato dovuto principalmente per aumentare le performance della macchina, datoche l'architettura degli Apple Silicon ne giova molto. Anzi, è più probabile che in futuro Apple, per mantenere i prezzi bassi, potrebbe reintrodurre delle configurazioni da 8 gb. Purtroppo tutto salirà, perché i grandi produttori difficilmente faranno marcia indietro e per costruire nuove linee produttive consumer e mandarle a regime ci vogliono 2-3 anni (pare Teamgroup possa essere una delle aziende pronte a prenderne il posto). “ Considerato che la percentuale di entrate per Apple dai computer è bassa „ Bassa fino ad un certo punto, sono circa l'8% di fatturato annuo della Apple ( che è aumentato rispetto al 2024 ) e visti i suoi numeri restano un contributo consistente e stabile. Se riusciranno a mantenere prezzi accessibili, potrebbero aumentare fetta di mercato, un M4 con 8gb di ram sarebbe comunque una macchina più performante della controparte Intel/AMD su Windows. |
|
|
inviato il 27 Dicembre 2025 ore 16:31
M4 è passato a 16gb per l'uso di AI, quindi non credo che torneranno a 8. Un m4 da 8 gb sarebbe più performante dipende dallo scenario. Vi ricordo che di quegli 8 vanno utilizzati anche dalla gpu. |
|
|
inviato il 27 Dicembre 2025 ore 16:45
Il passaggio a 16gb è stato fatto per aumentare le performance generali, l'AI centra poco, perché la maggior parte di chi compra un Mac Mini difficilmente lo usa con strumenti AI ( che poi ci sono strumenti e strumenti). Per es. un Mac Mini M1 mi elaborava un raw da 24mpx con Pure Raw 2/3 con Deep Prime, sfruttando la NPU, in circa 15 sec. E' tutta questione di ottimizzazione, poi per carichi pesanti si doveva andare con versioni più restanti, ma un M1/M2 con 8gb di ram può assolvere un 90% di utilizzo misto. |
|
|
inviato il 27 Dicembre 2025 ore 17:05
I Mac sono passati a 16gb per l'apple intelligence con modelli in locale e perché mezzo mondo gli faceva notare che 8gb erano pochi anche per una maggiore fluidità. I tempo non dipende dalla ram ma dalla potenza di calcolo(cpu + gpu) , un file è niente. Tornare a 8gb e darsi una zappa sui piedi, perché appena scoppia la bolla non gli puoi dire che adesso ne servono 16 di nuovo. |
|
|
inviato il 27 Dicembre 2025 ore 18:14
Apple Intelligence supporta anche i Mac Mini M1 con 8gb quindi il problema non è quello. I tempi di calcolo dell'uso di AI come gli LLM invece sono influenzati dalla memoria ram, i modelli devo essere caricati tutti in memoria per lavorare bene ( i grandi modelli hanno bisogno di tanta memoria ), poi ovvio che serve la potenza di calcolo. Ovviamente Apple Intelligence, in locale, lavorerà con modelli quantizzati e ottimizzati per gli Apple Silicon, per quanto buoni sono distanti dai modelli di punta come ChatGPT, Claude, Mistral, Gemini. Ma per uso generico, oggi, un Mac Mini M1 con 8gb va ancora bene per la stragrande maggioranza degli utenti, compresi quelli su questo forum. Tornare a 8gb con chip performanti come l'M4 non è una scelta sbagliata, visto che la stragrande maggioranza, probabilmente, usa i mac per inviare email, scrivere testi e visitare sitiweb e forum. |
|
|
inviato il 27 Dicembre 2025 ore 19:15
Ma infatti apple è stata di buon cuore ed ha messo 16gb dove poteva fermarsi a 8gb. A sto punto torniamo a qualche versione vecchia del sistema operativo e ne bastavano 4. “ usa i mac per inviare email, scrivere testi e visitare sitiweb e forum. „ Usano iPad |
|
|
inviato il 27 Dicembre 2025 ore 21:36
“ Se arriva un produttore di chip di memoria che non si lascia trascinare dalla bolla AI e riprende il mercato consumer in mano, „ Ci sta tornando Samsung solo perchè è rimasta con il cerino in mano. Gli altri produttori gli han fregato quote di mercato server/HBM e quindi per non tenere ferme le fabbriche ha "deciso" di fare un po' di DDR consumer in più. “ , poi però segue un'impennata esagerata dei costi di acquisto e la poca disponibilità. E' stata voluta questa situazione, ma la spacciano come una difficoltà a stare dietro alle richieste dei super computer per la IA. Ovviamente non è così semplicistico il discorso „ Il discorso è leggermente più complicato del solito ciclo di aumento/riduzione della produzione... Le memoria HBM per datacenter dell'AI occupano a parità di GB il quadruplo dei wafer di silicio... il quadruplo. Non è che quadruplichi le linee di produzione di tutta la catena in poche settimane. Se non scoppia la bolla, è verosimile avere prezzi assurdi fino al 2028. “ I tempi di calcolo dell'uso di AI come gli LLM invece sono influenzati dalla memoria ram, i modelli devo essere caricati tutti in memoria per lavorare bene ( i grandi modelli hanno bisogno di tanta memoria ), poi ovvio che serve la potenza di calcolo. „ Già ho provato sul portatile con una 4060 da 8GB i modelli proposti dalla nvidia (con il loro "store" ChatRTX) e sono a dir poco ridicoli. Velocità di risposta fulminea, ma qualità pessima. Nonostante ottimizzazione/quantizzazione i modelli che stanno dentro 8 GB di memoria sono imbarazzanti. E da quel che ho letto in giro per avere qualcosa di vagamente simile a quelli online anche con i modelli ottimizzati (che escono con settimane/mesi di ritardo rispetto alla versione iniziale) servono almeno 16GB di memoria dedicata ai calcoli (la maggior parte è ottimizzata per CUDA su GeforceRTX e si trova ancora gran poco per Radeon e i vari NPU/GPU dei vari processori). E senza i modelli compressi/ottimizzati son pochi pure i 32GB delle 5090.... |
|
|
inviato il 27 Dicembre 2025 ore 22:30
“ Già ho provato sul portatile con una 4060 da 8GB i modelli proposti dalla nvidia (con il loro "store" ChatRTX) e sono a dir poco ridicoli. Velocità di risposta fulminea, ma qualità pessima. Nonostante ottimizzazione/quantizzazione i modelli che stanno dentro 8 GB di memoria sono imbarazzanti. E da quel che ho letto in giro per avere qualcosa di vagamente simile a quelli online anche con i modelli ottimizzati (che escono con settimane/mesi di ritardo rispetto alla versione iniziale) servono almeno 16GB di memoria dedicata ai calcoli (la maggior parte è ottimizzata per CUDA su GeforceRTX e si trova ancora gran poco per Radeon e i vari NPU/GPU dei vari processori). E senza i modelli compressi/ottimizzati son pochi pure i 32GB delle 5090.... „ Purtroppo oggi pensare di avere una qualità avvicinabile agli LLM online è più difficile con l'hardware consumer, sia con gli LLM che con i modelli generativi di immagini (qui ci frega il tempo e gli step). Non ho provato chatRTX, ma uso Ollama, che con i modelli giusti può aiutare in alcuni compiti. Ovvio che ci possiamo scordare la potenza in locale di Claude Opus 4,5, OpenAI GPT 5 o Gemini 3 Pro, che però si possono sempre usare come chiamate API da servizi come OpenRouter, dove i costi sono accessibili in certi ambiti. |
|
|
inviato il 29 Dicembre 2025 ore 14:27
“ Black, ma la Cina si fa tutto in casa hardware/software riguardo le AI? Come sono messi? „ sta facendo cpu e gpu ma non si sa che potenza reale hanno e che percentuale di successo ha la produzione. pare siano riusciti a fare reverse engineering delle macchine litografiche . se ci sono riusciti non avranno limiti |
|
|
inviato il 30 Dicembre 2025 ore 18:41
argomento interessante, ho rimandato acquisto di macbook air m4 e, finanze permettendo, di un mac studio per aggiornare un pc fisso del 2018 con 16gb di ram, gpu 1660 super e amd ryzen 5 3600, per curiosità e scusate se OT, volevo provare un utilizzo furbo di LLM in locale ad esempio per rinominare dei file tipo pdf o doc in base al contenuto, ovvero poter eseguire delle operazioni automatiche in tempo minore in confronto a dover aprire il file pdf, capire di cosa si tratta e rinominarlo e tutto questo con risultati validi senza troppi errori. Fatta una prova che non può dirsi sufficiente, ma i risultati sono molto discutibili, chiedo quindi, per eseguire operazioni ripetitive relativamente semplici ma con risparmio di tempo che caratteristiche deve avere un computer per fare tutto in locale? anche il modello llm deve essere adeguato a saper svolgere quel compito. Ok i modelli commerciali hanno maggiori prestazioni, ma l'aspetto privacy e impedire il training con i propri dati lo ritengo prioritario tanto da dedicare un budget ad un computer in grado di svolgere bene questo tipo di compiti. Avete esperienze in operazioni simili? Grazie e scusate OT. |
|
|
inviato il 30 Dicembre 2025 ore 19:18
“ che caratteristiche deve avere un computer per fare tutto in locale? „ Una GPU che supporta CUDA (per ora solo Nvidia, anche se ci sono annunci che aprirà l'ecosistema software alla concorrenza per disincentivare la creazione di alternative nuove) con un milione di GB di VRAM molto veloci e con molta banda dati/bus bit I modelli più semplici funzionano con schede video RTX da almeno 8 GB di RAM, meglio se almeno della serie 30 (ma il salto di qualità lo fai con la serie 50). Ma dalle prove che ho fatto i modelli quantizzati (cioè "compressi", ottimizzati per usare meno memoria video) che stanno dentro gli 8GB sono piuttosto stupidi e poco utili. Per qualcosa che funziona in modo non troppo stupido meglio avere almeno 16 GB di VRAM (quindi meglio schede dalla 5070TI in su). Il miglior compromesso euro/prestazione probabilmente è una RTX3090 da 24GB usata. Chi ci smanetta ne installa anche due per avere ancora più margine di lavoro. Per cose semplici si potrebbe considerare le 4060TI/5060TI solo nelle versioni da 16GB. “ anche il modello llm deve essere adeguato a saper svolgere quel compito. Ok „ C'è ne sono di fatti apposta che nelle funzioni base locali sono gratuiti tipo Hyperlink hyperlink.nexa.ai/ Praticamente è una ricerca locale agli steroidi che esegue comandi testuali sui file in modo simile ai modelli online. Gli selezioni le cartelle da analizzare e lui guarda all'interno dei tipi di file supportati (doc e pdf li legge) e si crea una base dati per eseguire quello che gli chiederai (ci mette parecchio ad analizzare la cartella, se ci sono parecchi file puoi aspettare delle mezzore buone). |
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto.
Con oltre 257000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |