| inviato il 22 Dicembre 2021 ore 22:21
@filo63 dire che un disco nvme ha prestazioni più vicine a una memoria ram che a un ssd (vai a rileggere il tuo post) è un claim del marketing visto che lo storage usato da m1 è un ssd. Per la cronaca io sono un fan della tecnologia e del progresso in generale e non dei brand e mi piace molto la piattaforma m1 che è un processore veloce non tanto in senso assoluto ma rispetto alla quantità di corrente che utilizza. L'efficienza energetica in termini di lavoro svolto per watt è per me un parametro importante. Anche se non lo comprerò mai posso ammirare il lavoro apple senza bermi tutte le ca##ate commerciali. Se a te questo disturba tu goditele pure ma non prendertela tanto sul personale che intel amd e apple sono tutti prodotti di aziende americane mica squadre di calcio della tua città o amici di infanzia. |
| inviato il 22 Dicembre 2021 ore 23:11
MaurizioXP quando scrivi: Se la tua esperienza reale è soddisfacente benissimo vuol dire che non arrivi a saturare la ram e a swappare… è il momento in cui alimenti la risposta personale perché la tua affermazione è superficiale e va verso il nulla, come quelle di che afferma che con 8GB di ram al massimo navighi, leggi la posta e scrivi su word. Spiegami il momento in cui ti accorgi che il tuo computer inizia a fare swap su disco. Senza un'esperienza diretta e personale su quali basi affermi che la memoria unificata degli M1 e successivi è uguale a quella degli x86 Perché ti sei tuffato su un post dal titolo M1 ram piena e hai iniziato a sentenziare quando il problema era un'applicazione di scarsa qualità che appena l'utente la tolta è ritornato tutto come prima? Dov'è tutta questa competenza? Quando il tuo computer swappa rallenta? È così evidente? Perché di lag su questi M1 se ne vedono pochi e se molti utenti testimoniano la possibilità di fare molto con la configurazione base dell'M1 tu cosa porti a testimonianza del contrario. Si va sul personale perché il tono è quello |
| inviato il 22 Dicembre 2021 ore 23:55
@Filo63 “ MaurizioXP quando scrivi: Se la tua esperienza reale è soddisfacente benissimo vuol dire che non arrivi a saturare la ram e a swappare… è il momento in cui alimenti la risposta personale perché la tua affermazione è superficiale e va verso il nulla, „ scusami ma cosa avrei detto di offensivo da scatenare il "prenderla sul personale"? Sto dicendo che se non noti carenze prestazionali evidentemente col tuo uso non metti in crisi il sistema. Chi sto offendendo? penso nessuno no? “ come quelle di che afferma che con 8GB di ram al massimo navighi, leggi la posta e scrivi su word. Spiegami il momento in cui ti accorgi che il tuo computer inizia a fare swap su disco. „ io non ho mai affermato questo e per la cronaca non è vero:a dimostrazione in questo momento ho C1, e altri programmi aperti e 6gb di ram occupata. io ho semplicemente detto che finita la ram swappi e che la quantità di ram che serve dipende solo da quante applicazioni hai aperto e non da magie del sistema operativo/della piattaforma. riguardo allo swap, un pò di swap è fisiologico e del tutto normale ma quando vai in FORTE sofferenza di ram te ne accorgi perchè il sistema rallenta apprezzabilmente. Io però non vivo questo fenomeno da anni perchè ho pc con 16 o 32 gb da molto tempo e non ho mai superato questa quota come allocazione. “ Senza un'esperienza diretta e personale su quali basi affermi che la memoria unificata degli M1 e successivi è uguale a quella degli x86 „ ti rendi conto che un'esperienza di fruitore di una tecnologia non qualifica a parlarne dal punto di vista del funzionamento tecnico interno perchè questo è per te "trasparente"? io ti ho detto semplicemente che la unified memory architecture è un concetto che esiste da una vita (almeno 30 anni) e ti ho presentato i pro e i contro standard di tale approccio. Non è un caso se M1 è un processore molto efficiente energeticamente cosa che fa parte della lista dei pro che ti ho citato (non è solo questo il motivo per cui lo è comunque). “ Perché ti sei tuffato su un post dal titolo M1 ram piena e hai iniziato a sentenziare quando il problema era un'applicazione di scarsa qualità che appena l'utente la tolta è ritornato tutto come prima? Dov'è tutta questa competenza? „ perchè non provi a rileggere i miei interventi togliendo gli occhiali del fanboy? potresti notare che non sto criticando la tua cara apple. “ Quando il tuo computer swappa rallenta? È così evidente? Perché di lag su questi M1 se ne vedono pochi e se molti utenti testimoniano la possibilità di fare molto con la configurazione base dell'M1 tu cosa porti a testimonianza del contrario. Si va sul personale perché il tono è quello „ Non pensi che un M1 con 16gb di ram se utilizzato con carichi di lavoro che utilizzano più di 8gb di memoria sia apprezzabilmente più veloce di un M1 con 8gb di ram costretto a swappare sul molto più lento disco rispetto alla ram? Poi può darsi che ad alcuni utenti bastino le prestazioni del M1 8gb ANCHE se swappa o che il fenonomeno non sia più di tanto apprezaibile in scenari di multitasking non particolarmente intensivo. Io ho solo detto finito la ram swappi e swappi sui disco e che questo vale per tutte le piattaforme. Puoi negare che accada questo? boh non capisco quale sia il problema. Quando mai avrei affermato cosa si può o non si può fare con M1? |
| inviato il 23 Dicembre 2021 ore 7:37
Non c'è nessun problema se non il fatto che tu, e qui ti devi andare a rileggere, sei intervenuto dopo un mio post in cui ho riportato una porzione di articolo scrivendo che era chiaramente una marchetta al marketing di Apple! Cosa c'era scritto? Che con gli M1, Apple swappa su un disco molto performante, utilizzando una logica affinata al punto che quasi non ci si rende conto del fenomeno. Terminava la descrizione con una frase ad effetto ma perfettamente reale: Paragonare i 16 GB di RAM di un MacBook con Intel ai 16 GB di un MacBook con memoria unificata non è possibile: lavorano in modo diverso! La frase attira è d'effetto ma è reale perché è così. Da una parte la distanza tra CPU, GPU e Ram è ridotta a pochi mm e le informazioni incontrano meno resistenza e producono meno calore per compiere i loro “giri”, dall'altra il lavoro che Apple ha fatto sulle api Metal è tale che il modo in cui CPU e GPU usano le informazioni è “uguale” e le informazioni “girano” meno. Apple ha semplicemente ottimizzato una soluzione per renderla ancora migliore e permettere prestazioni molto buone con quantità di ram più basse. Tu mi dai del fanboy e a me va bene, cerchi di fare il tecnico e me la racconti come se io non sapessi cos'è un'area di swap… per inteso agli inizi degli anni 90 lavoravo su delle SGI a base UNIX dove sentivi rullare gli HD per quanto swappavano, ma hai tempi probabilmente lo faceva solo Unix. Guarda che sei tu che ottusamente ti ostini a dire che non è vero che paragonare i 16 GB di RAM di un MacBook con Intel ai 16 GB di un MacBook con memoria unificata non è possibile. Manco fossi un tecnico di Apple! Ti rendi conto? Nell'articolo non c'è nessun paragone con Windows o con Linux, parla solo di Apple con un prima e un dopo. Altri utenti che hanno partecipato al dibattito hanno detto che questo è paragonabile anche a Windows perché nella loro esperienza diretta il modo di gestire la ram è meglio di quella sulle loro PC. Io ci posso credere perché loro hanno un termine di confronto… TU NO!!! Orgoglioso di essere un fanboy di Apple piuttosto che fare come te che non leggi o non capisci perché devi dimostrare che alcune innovazioni anzi miglioramenti non sono possibili. Detto questo… rileggiti bene tutto quello scritto |
| inviato il 23 Dicembre 2021 ore 8:59
Basta così |
| inviato il 23 Dicembre 2021 ore 9:13
Se posso dire la mia, io spezzo una lancia a favore di Maurizio, nel senso che Apple a livello di gestione della ram non si è inventata niente di nuovo (anche perché sono più di 50 anni che si affinano i vari algoritmi di gestione della medesima). Semplicemente ha sviluppato una tecnologia che permette di usare lo swap in maniera praticamente trasparente permettendo quindi all'utente di usare più programmi contemporaneamente di quelli che potrebbero stare nella ram fisica. Come detto per verificarlo basterebbe disabilitare lo swap, a quel punto si vedrebbe subito che la gestione della memoria non fa nessun miracolo. Alla fine 8 o 16 giga sono e restano 8 o 16 giga, con la differenza che su M1 quando finiscono il tutto è ottimizzato per usare lo swap nel modo più efficiente possibile, su altre architetture meno. Ormai con gli nvme in un secondo si caricano o scaricano completamente gli 8 giga di ram su disco. Resta comunque il fatto che M1 è un'architettura molto efficiente che dà quindi un deciso "boost" alle performance. |
| inviato il 23 Dicembre 2021 ore 9:26
Mah... onestamente c'è sempre chi in modo obiettivo ed oggettivo porta argomentazioni conoscendo varie piattaforme e chi invece, purtroppo, per cultura informatica, convinzione, slogan letti resta convinto della sua posizione. Qui nessuno discute sulla bontà della piattaforma che per altro esiste da secoli. Ma sul fatto di credere che su questi M1 la ram sia un miracolo piovuto dal cielo e ne serve di meno. Cosa c'è di così complesso da capire? |
| inviato il 23 Dicembre 2021 ore 9:32
Copio e traduco con Google un intervento volutamente semplificato che spiega con naturalezza le differenze e metto anche il link all'originale per chi avesse voglia di leggerlo completamente. Nota di curiosità il brevetto della memoria unificata è di Apple e ed è del 1996 "La strategia di elaborazione eterogenea non così segreta di Apple Invece di aggiungere core CPU sempre più generici, Apple ha seguito un'altra strategia: hanno iniziato ad aggiungere chip sempre più specializzati facendo alcune attività specializzate. Il vantaggio di questo è che i chip specializzati tendono ad essere in grado di svolgere i loro compiti significativamente più velocemente utilizzando molta meno corrente elettrica rispetto a un core CPU generico. Questa non è una conoscenza del tutto nuova. Per molti anni già chip specializzati come le unità di elaborazione grafica (GPU) sono stati seduti nelle schede grafiche Nvidia e AMD eseguendo operazioni relative alla grafica molto più velocemente delle CPU generiche. Quello che Apple ha fatto è semplicemente fare un cambiamento più radicale verso questa direzione. Piuttosto che avere solo core e memoria generici, l'M1 contiene un'ampia varietà di chip specializzati: Unità di elaborazione centrale (CPU) — il "cervello" del SoC. Esegue la maggior parte del codice del sistema operativo e delle tue app. Unità di elaborazione grafica (GPU): gestisce le attività relative alla grafica, come la visualizzazione dell'interfaccia utente di un'app e i giochi 2D/3D. Unità di elaborazione delle immagini (ISP) — può essere utilizzata per velocizzare le attività comuni svolte dalle applicazioni di elaborazione delle immagini. Processore di segnale digitale (DSP) — gestisce più funzioni matematicamente intensive di una CPU. Include la decompressione dei file musicali. Unità di elaborazione neurale (NPU) — utilizzata negli smartphone di fascia alta per accelerare le attività di apprendimento automatico (IA). Questi includono il riconoscimento vocale e l'elaborazione della fotocamera. Codificatore/decodificatore video: gestisce la conversione efficiente dal punto di vista energetico di file e formati video. Secure Enclave: crittografia, autenticazione e sicurezza. Memoria unificata: consente a CPU, GPU e altri core di scambiare rapidamente informazioni. Questo è parte del motivo per cui molte persone che lavorano su immagini e video editing con i Mac M1 stanno vedendo tali miglioramenti di velocità. Molte delle attività che svolgono possono essere eseguite direttamente su hardware specializzato. Questo è ciò che consente a un Mac Mini M1 economico di codificare un file video di grandi dimensioni senza sudare mentre un costoso iMac ha tutte le sue ventole che vanno a gonfie vele e ancora non riesce a tenere il passo. Leggi tutto su heterogeneous computing: Apple M1 prefigura l'ascesa di RISC-V. In blu si vedono più core CPU che accedono alla memoria e in verde si vede un gran numero di core GPU che accedono alla memoria. Cosa c'è di speciale nell'architettura di memoria unificata di Apple? La "Unified Memory Architecture" (UMA) di Apple è un po 'complicata da avvolgere (ho sbagliato la prima volta che l'ho scritto qui). Per spiegare perché, dobbiamo fare qualche passo indietro. Per molto tempo i sistemi informatici economici hanno avuto la CPU e la GPU integrate nello stesso chip (stesso die di silicio). Questi sono stati notoriamente lenti. In passato dire "grafica integrata" era essenzialmente la stessa cosa che dire "grafica lenta". Questi erano lenti per diversi motivi: Aree separate di questa memoria sono state riservate alla CPU e alla GPU. Se la CPU avesse un pezzo di dati che voleva che la GPU usasse, non poteva dire "qui ho un po 'della mia memoria". No, la CPU doveva copiare esplicitamente l'intero blocco di dati sull'area di memoria controllata dalla GPU. Le CPU non hanno bisogno di molti dati serviti, ma lo vogliono veloce. CPU e GPU non vogliono che la loro memoria venga servita allo stesso modo. Facciamo una stupida analogia alimentare: le CPU vogliono che il loro piatto di dati venga servito molto rapidamente dal cameriere, ma sono totalmente cool con porzioni di piccole dimensioni. Immagina un elegante ristorante francese con camerieri su rollerblade per servirti molto rapidamente. Questo è il modo in cui la tua GPU vuole la loro memoria: porzioni enormi. Più è, più è bello. Le GPU al contrario sono interessanti con il cameriere che è lento a servire i dati. Ma le GPU vogliono porzioni enormi. Inghiottono enormi quantità di dati perché sono enormi macchine parallele, che possono masticare molti dati in parallelo. Immagina un posto di cibo spazzatura americano, dove il cibo impiega un po 'di tempo per arrivare perché stanno spingendo un intero carrello di cibo nella tua area salotto. Con esigenze così diverse, mettere CPU e GPU sullo stesso chip fisico non era una grande idea. Le GPU sedevano lì a morire di fame mentre ricevevano piccole porzioni francesi. Il risultato è stato che non aveva senso mettere potenti GPU su un SoC. Le minuscole porzioni di dati servite, potrebbero essere facilmente masticate da una piccola GPU debole. Il secondo problema era che le GPU di grandi dimensioni producono molto calore e quindi non è possibile integrarle con la CPU senza ottenere problemi a liberarsi del calore prodotto. Quindi le schede grafiche discrete tendono ad assomigliare a quella qui sotto: grandi bestie con enormi ventole di raffreddamento. Hanno una speciale memoria dedicata progettata per servire le schede avide enormi quantità di dati. GeForce RTX 3080 Ecco perché queste carte hanno prestazioni elevate. Ma hanno un tallone d'Achille: ogni volta che devono ottenere dati dalla memoria utilizzata dalla CPU, questo accade su una serie di tracce di rame sulla scheda madre del computer chiamata bus PCIe. Prova a sgranocchiare l'acqua attraverso una cannuccia super sottile. Può arrivare alla bocca velocemente, ma la produttività è totalmente inadeguata. L'architettura di memoria unificata di Apple cerca di risolvere tutti questi problemi senza avere gli svantaggi della memoria condivisa della vecchia scuola. Raggiungono questo obiettivo nei seguenti modi: Non esiste un'area speciale riservata solo alla CPU o solo alla GPU. La memoria viene allocata a entrambi i processori. Entrambi possono utilizzare la stessa memoria. Non è necessaria alcuna copia. Apple utilizza la memoria che serve sia grandi blocchi di dati che li serve velocemente. Nel computer parlare che si chiama bassa latenza e throughput elevato. In questo modo viene rimossa la necessità di essere collegati a tipi separati di memoria. Apple ha ridotto l'utilizzo in watt della GPU, in modo che una GPU relativamente potente possa essere integrata senza surriscaldare il SoC. E i chip ARM producono meno calore, consentendo alla GPU di avere un budget termico più elevato rispetto a una GPU sullo stesso die di silicio di una CPU AMD o Intel. Alcuni diranno che la memoria unificata non è del tutto nuova. È vero che diversi sistemi l'hanno avuta in passato. Ma poi la differenza nei requisiti di memoria potrebbe non essere stata così grande. In secondo luogo ciò che Nvidia chiama Unified Memory non è in realtà la stessa cosa. Nel mondo Nvidia Unified Memory significa semplicemente che esiste software e hardware che si occupa di copiare automaticamente i dati avanti e indietro tra la memoria separata della CPU e della GPU. Quindi, dal punto di vista dei programmatori, Apple e Nvidia Unified Memory possono sembrare uguali, ma non è lo stesso in senso fisico. C'è ovviamente un compromesso in questa strategia. Ottenere questa memoria ad alta larghezza di banda (grandi porzioni) richiede una piena integrazione, il che significa che si toglie ai clienti l'opportunità di aggiornare la propria memoria. Ma Apple cerca di ridurre al minimo questo problema rendendo la comunicazione con i dischi SSD così veloce, che essenzialmente funzionano come una memoria vecchio stile” Originale debugger.medium.com/why-is-apples-m1-chip-so-fast-3262b158cba2 |
| inviato il 23 Dicembre 2021 ore 9:43
Sì ma alla fine della fiera non dice nulla sulla gestione della memoria da parte del sistema operativo (che è quello di cui si discute) ma semplicemente che grazie alla memoria unificata le prestazioni dell'accoppiata CPU+GPU ne beneficiano. Ma non c'è scritto che grazie alla memoria unificata in 8 giga faccio girare quello che su x86 gira in 32, anche se può essere vero che un M1 con 8gb può avere delle performance globali superiori ad un x86 con 32, ma questo perché è l'architettura che è più performante non la gestione della memoria. E' come dire che una Ferrari da strada con gomme normali va meglio di una Mercedes da strada con gomme strafighe e imputare la cosa alle gomme dicendo che la Ferrari le gestisce meglio e le fa rendere di più e non al resto. Ripeto per l'ennesima volta: disabilitate lo swap e poi vedete che non c'è memoria unificata che tenga. |
| inviato il 23 Dicembre 2021 ore 9:45
Se gestisse meglio la memoria lo farebbe anche su Intel no, visto che il sistema operativo attuale è funzionante sulle stesse piattaforme. E se facesse miracoli nella gestione, photoshop, fcp etc etc non arriverebbero ad occupare quantità immani di ram/swap per funzionare. Su. Se la ram fosse gestita in modo diverso, non avrebbero messo opzioni da 64gb sui nuovi m1 pro e max. Perchè farlo se tanto non serve? |
| inviato il 23 Dicembre 2021 ore 9:54
I miei studi sono del tutto antitetici all'informatica e, benché usi il computer quotidianamente dai tempi di windows 3.0 e del DOS, resto un vero ignorante in materia. Però, da utente, e ragionando pragmaticamente, sono in grado di constatare i progressi con gli anni raggiunti in questo campo (tanta potenza in più per l'utente, ma anche softwares sempre più esigenti di risorse). Detto ciò posso dire, da utente convertitosi a Mac dal 2016 (ho iMac 2016, MacBook Pro 2018 e ora MacMini M1), ignorante senz'altro, ma comunque attento, che questo nuovo MacMini (io ho quello con ram a 16 e disco da 500Mb) con il software dedicato gira in maniera significativamente più fluida e veloce, soprattutto con i software dedicati anche aperti in contemporanea (io uso LR, PS, C1, Affinity, Topaz, DxO, i 5 plugin di ON1 e Nick Collection). Ci sarà di meglio, sicuramente anche nel mondo Windows, ma ho preso il MacMini ad un prezzo (circa 1200 euro) competitivo e inusuale per la tradizione Apple e verificare che viaggia in questa maniera mi appaga in quanto soddisfa le mie esigenze di fotoritocco. Quanto all'avviso di memoria esaurita che fornisce CleanMyMac di cui ha parlato chi ha dato inizio a questa discussione mi è bastato togliere la spunta dalle preferenze e non ne ho più ricevuti; del resto il MacMini non si è mai arenato anche tenendo aperti diversi software (ad es. da C1 o LR transito a PS e lì creo parecchi livelli, utilizzo i plugin che più mi aggradano, il pannello di Tony Kuiper, salvo e ritorno nel catalogo di LR o C1). Altro non mi interessa e vivo felice. |
| inviato il 23 Dicembre 2021 ore 9:55
“ Ripeto per l'ennesima volta: disabilitate lo swap e poi vedete che non c'è memoria unificata che tenga. „ Cris però non è così banale secondo me Ripeto, finché ho tenuto il tool, del quale non ricordo il nome, anche in fase di stress (applicazioni aperte, musica, schede del browser e Deep Prime in esportazione) la RAM non si è mai saturata oltre il 70%, sempre prendendo con le pinze la correttezza della valutazione del tool, che non so fino a che punto sia certificata. Sai bene che non è solo una questione di grandezza del serbatoio ma anche di velocità di svuotamento Se ho 32GB di RAM ma lo scambio di informazioni tra questa e il processore avviene lentamente rischio di saturarla di più di una unificata da 8gb in cui le informazioni passano praticamente instantaneamente. |
| inviato il 23 Dicembre 2021 ore 10:00
@Rcris esatto e gli nvme pciexpress li usano SIA i PC SIA gli m1. Peraltro gli NVME montati su M1 viaggiano su 2000-2600 mb/s quando ad esempio un banale SSD m2 970 EVO PLUS da 1TB che costa 128€ (quanto costa 1 TB su M1?) nel mondo PC viaggia sui 3000-3500 mb/s ed è un modello pciexpress 3 non 4 che sono ben più veloci è stata citata una geforce 3080: ricordo che questa da sola ha 10 gb di ram di tipo GDDR6X e con bus 320bit mentre la GPU del M1 condivide 8-16gb di ram con la CPU e una memoria LPDDR4 con bus 128bit. La ram della 3080 trasferisce i dati a 760.3 GB/s mentre quella di M1 a 68,25 GB/s che è uno dei punti che dicevo degli svantaggi di una uma: la ram della gpu viaggia in base ai limiti della CPU che in genere è più lenta rispetto a quanto può fare una GPU discreta: anche una comune 1650 mobile fa 128.1 GB/s con delle DDR5 da 128 bit. Quindi negli scenari dove la velocità della GPU è importante una architettura UMA è in genere penalizzata. Ma la 3080 è una scheda che come caratteristiche termiche, costo e potenza di calcolo non ha senso paragonarla a una piattaforma come M1. |
| inviato il 23 Dicembre 2021 ore 10:04
Look ti do ragione sul fatto che la gestione a livello hardware possa portare a prestazioni migliori però, facendo un esempio stupido, è come avere una damigiana da 8 litri: quando è piena è piena. Che poi ci sia un meccanismo praticamente trasparente che sposta parte del liquido altrove e continua a riempire la damigiana facendoti sembrare che ci possano stare più di 8 litri è un altro discorso. |
| inviato il 23 Dicembre 2021 ore 10:10
“ Se gestisse meglio la memoria lo farebbe anche su Intel no, visto che il sistema operativo attuale è funzionante sulle stesse piattaforme. E se facesse miracoli nella gestione, photoshop, fcp etc etc non arriverebbero ad occupare quantità immani di ram/swap per funzionare. Su. „ Gianpietro, su tutti gli spiegoni più o meno fatti bene pongono l'accento sulla differenza tra un Mac con Intel ed uno con M1 perché il tutto si ottiene tra soluzioni hardware e soluzioni software. L'OS è lo stesso ma non ottiene lo stesso risultato perché non può accedere alle stesse risorse hardware che sono i vari NPU, ISP etc. e l'UMA. “ Se la ram fosse gestita in modo diverso, non avrebbero messo opzioni da 64gb sui nuovi m1 pro e max. Perchè farlo se tanto non serve? „ Nessuno dice che all'aumentare della Ram le prestazioni non migliorano!!! Il fatto è che mettendo più ram e più chip e altri ammennicoli la dimensione del computer e le temperature da dissipare cambiano per cui non puoi metterli in un MacBook Air Se ti ricordi quando hanno presentato il mio MBP Max con alimentatore da 140W lo confrontavano con macchine con 3-400W di alimentazione, il Pro ne ha 96W , l'Air ne ha 30 di Watt |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 252000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |