JuzaPhoto utilizza cookies tecnici e cookies di terze parti per ottimizzare la navigazione e per rendere possibile il funzionamento della maggior parte delle pagine; ad esempio, è necessario l'utilizzo dei cookie per registarsi e fare il login (maggiori informazioni).
Proseguendo nella navigazione confermi di aver letto e accettato i Termini di utilizzo e Privacy e preso visione delle opzioni per la gestione dei cookie.
Puoi gestire in qualsiasi momento le tue preferenze cookie dalla pagina Preferenze Cookie, raggiugibile da qualsiasi pagina del sito tramite il link a fondo pagina, o direttamente tramite da qui:
Concordo wazer. AMD ha delle cpu che consumano meno di 30 watt e vanno meglio di molti Intel che consumano di più. Anche con le nuove cpu intel fa fatica ad abbattere i consumi.
“ Ho gia messo Linux Mint su un pc, prima o poi cederò anche sugli altri. „
Da una decina di anni io vado di dual boot, Mint da una parte e Win (ridotto al minimo possibile) dall'altra. Non sono un fanatico di Linux, ma per un utilizzo domestico è perfetto. Volendo le applicazioni ci sarebbero anche, ad esempio Darktable o Rawtherapee come camera chiara al posto di Lightroom. Purtroppo non sono mai riuscito a farmeli piacere.
Come dicevano, Photoshop scala male con schede piuttosto potenti. Detto questo, se uno vuole spendere poco, io consiglierei la 4060 liscia. Se però usate anche la suite Topaz, dove si devono provare i diversi settaggi, avere una scheda potente permette un bel guadagno di tempo (e divertimento!). Oggi e ancor più domani la GPU avrà sempre più un ruolo determinante, per cui io non risparmierei troppo su questo elemento.
Sono d'accordo con molte delle cose che sono state dette e in disaccordo con altre. In ordine sparso, scusandomi per l'OT (pero' vedo che questi argomenti interessano a molti):
- Linux non è utilizzato in ambito aziendale Vero per le aziende piccole/piccolissime a bassa tecnologia, sempre meno vero man mano che ci si sposta verso la regione dell'alta/altissima tecnologia, dove (in ambito aziendale, non solo scientifico) si usa prevalentemente Linux e le sue varianti. Ad esempio quando Microsoft fa il training di GPT-4 sulla sua piattaforma MS Azure AI non usa di certo Windows MS Windows per me irrinunciabile solo per Office (LibreOffice e simili non sono per me valide alternative) e - per rimanere nel nostro campo - per photo/ e video/editing.
- le nuove generazioni di CPU non sono salti quantici rispetto alle precedenti Le nuove architetture Arm per windows (e Linux) mi aspetto lo siano, se valutate non sulla performance ma su performance/consumo (nascono per il secondo obiettivo e non per il primo)
- le nuove NPU non servono a niente, hanno potenze di gran lunga inferiori alle GPU Le Arm di cui sopra arrivano a 40 TOPS di sola NPU. Le Nvidia Jetson (SoC per il real-time sganciato dal cloud computing, ad esempio per la robotica autonoma) arrivano a 200 TOPS e oltre con consumi di 40 W. Vuol dire ad esempio che riescono a fare l'inferenza di un modello LLM come Llama2 70b con > 4 tokens al secondo, la velocità convenzionale dell'inglese letto a velocità normale. Voglio dire: con 40 W hai una macchina capace di parlare con te, in stile Hal 9000 Ok, lo fanno grazie a un HW onboard che chiamano NVDLA e non NPU, ma poco cambia
- le GPU sono essenziali per l'AI lo sono ora, e io sono stato uno di quelli che hanno sempre "picchiato" su questo fatto, anche quando c'era nel forum chi diceva perentoriamente che "i SW di fotoritocco non sono videogame e quindi le GPU non servono a niente". In futuro chissa', potrebbe non essere piu' cosi' proprio per l'avvento delle NPU (o in qualunque altro modo verranno chiamate). Alla fine ricordiamoci che le varie Nvidia GeForce nascono per i videogame e solo in un secondo tempo sono state adattate (con grande successo) all'AI. Le NPU nascono per l'AI e basta, libere dal fardello di videogame e visualizzazione grafica.
- Ok illecitnom, che ce ne frega a noi di tutto questo dal punto di vista pratico? Solo una cosa: chi deve cambiare PC Windows/Linux per fare girare anche applicazioni AI (ad esempio il noise reduction in fotografia), se puo' aspetti: non dico anni, basta la fine di quest'anno. Potrebbero esserci delle belle sorprese ;-)
Linux è giustamente utilizzato per il computing e il networking ma, in aziende di qualsiasi dimensione, non può essere utilizzato in ambito di produzione e gestione, per evidente mancanza di applicazioni.
I clienti delle aziende in cui ho lavorato non hanno mai chiesto se i nostri applicativi girassero su Linux.
Forse non siamo un campione significativo, ma copriamo tutto il pianeta e tutte le dimensioni aziendali…
Capisco e condivido quello che scrivi Leopizzo, non era mia intenzione sminuire l' operato di tante aziende, italiane e non, che operano e bene nel settore del SW gestionale, amministrativo e della produzione: mi scuso se ho dato questa impressione. Volevo solo rimarcare l' esistenza anche di un settore hi-tech, in Italia purtroppo non così presente, ma molto importante oggi
Ecco se vuoi far girare in locale LLM la ram è il collo di bottiglia più importante delle schede video; con la 4070 e i suoi 12 GB non posso permettetmi le 70B ma devo limitarmi alle 8B, con i relativi problemi. Se davvero il futuro fosse ARM avrei un motivo valido per fare l'upgrade, compreso il consumo ovviamente.
> Ecco se vuoi far girare in locale LLM la ram è il collo di bottiglia più importante delle schede video
Confermo. Quella Nvidia jetson che ho citato arriva a 64GB ma nella versione rugged che vorremmo comperare al lavoro costa 4000 €. Sono hw ancora difficilmente alla portata dei normali privati. D'altronde le caratteristiche delle GeForce sono ancora dettate dai videogiochi, secondo me è improbabile che arrivino a quei numeri di RAM. Ora però che ci sono gli LLM chissà che non si comincino a fare acceleratori hw dedicati per fare l'inferenza locale
@Wazer, mi sembra di ricordare che tu fai girare stable diffusion in locale (corretto ?) Per ora non ci sono alternative consumer a GPU Nvidia muscolose, prossimamente chissà...
“ Wazer, mi sembra di ricordare che tu fai girare stable diffusion in locale (corretto ?) Per ora non ci sono alternative consumer a GPU Nvidia muscolose, prossimamente chissà... „
Si ricordi bene e mi "accontento" dei 26 it/s prodotti con la 4070s
Per chi fosse interessato alle potenzialità dell'HW a basso consumo (edge devices) per fare girare modelli linguistici ridotti e interagire con utenti umani, immagini e il mondo circostante:
In un odei miei ultimi interventi avevo detto di avere aspettative sugl Arm per windows/Linux in arrivo. In realtà sembra che entro la fine dell'anno ci saranno novità molto interessanti anche sul fronte x86. Qui AMD: www.notebookcheck.it/AMD-Ryzen-AI-9-HX-370-si-comporta-alla-pari-con-R Anche Intel sembra stia procedendo bene. Gli Arm Nvidia invece sembra arriveranno l'anno prossimo
Ciao a tutti! Torno a riscrivere in questa discussione per aggiornarvi..magari potrà essere utile a qualcuno.. Alla fine non ho comprato più una nuova scheda video (3060 12gb come mi era stato suggerito) perché mi sono lasciato tentare da un'occasionissima di un notebook:
Il denoiseAI ci mette 20 secondi per una foto da 24mpx (Sony A7III) A fronte dei 28minuti del mio PC fisso è come se avessi vinto il superenalotto
Che cosa ne pensi di questo argomento?
Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista.