| inviato il 17 Febbraio 2025 ore 18:30
Io l'ho scoperto soltanto da poco tempo e credo che la maggior parte della gente neanche lo sappia che l'intelligenza artificiale è addirittura famelica come consumo di energia necessaria a farla funzionare. "Secondo una ricerca, entro il 2027 i data center che alimentano l'AI potrebbero consumare tra 85 e 134 terawattora di energia all'anno, equivalente addirittura al consumo di intere nazioni come l'Argentina o i Paesi Bassi." Lo sapevate? |
| inviato il 17 Febbraio 2025 ore 18:45
Sarà l'ostacolo principale la fame di energia per lo sviluppo della AI |
| inviato il 17 Febbraio 2025 ore 18:52
La follia... avanza... |
| inviato il 18 Febbraio 2025 ore 9:19
Anche le fonderie consumano un sacco di corrente, le chiudiamo? |
| inviato il 18 Febbraio 2025 ore 9:28
come sempre io guardo al nostro campo di applicazione, senza entrare in dinamiche su massimi sistemi. le generazioni di photoshop che hanno cambiato le abitudini della maggior parte dei fotografi non esperti in post produzione ma costano moto in termini di CO2 e lo sono anche per soddisfare la fretta degli utenti quando lanciano un filtro. chi invece usa. on1 photo raw lavora per le generazioni offline, deve avere un attimo più di pazienza ma consuma una frazione della energia impiegata da adobe. nella sostanza la prima causa dell'aumento di consumi siamo noi e l'uso pratico che ne facciamo. il futuro sostenibile della intelligenza artificiale passa dalla gestione offline all'utente, nei limiti di impatto ambientale che la produzione di nuovo hardware capace di sostenerne il computo. è un cane che si morte la cosa da solo, perché per lavorare offline devi avere macchine potenti e tanta ram ma credo che sulla distanza essere autonomi nel computo sia la risposta a; problema ecologico ma anche a quello della privacy (che non è una tema della discussione) quindi io ritornerei alle nostre personali responsabilità ed abitudini giornaliere e vedere se si può iniziare a risparmiare energia da lì. |
| inviato il 18 Febbraio 2025 ore 10:25
@Phsystem: si', io lo sapevo da molto tempo, però con l'AI ci lavoro. E' comunque un'ottima segnalazione che dovrebbe fare pensare tutti noi e spingerci all'autolimitazione nell'uso dell'AI generativa, evitando gli utilizzi futili, del tutto non necessari (del tipo "genera un'immagine di un cane vestito con uno smoking rosa che va sullo skateboard, con uno sfondo in cui si vede la torre eiffel avvolta dalla vegetazione in un tipico paesaggio post-atomico"). Dovremmo anche evitare di fare tutto su chatGPT e simili: ad esempio le ricerche in rete si fanno meglio (e sono anche piu' affidabili e controllabili) se fatet con strumenti classici come i motori di ricerca (ad es. Google). Segnalo anche che il discorso riguarda principalmente l'AI generativa, che è costata molto in fase di addestramento e anche in fase di inferenza (la generazione delle risposte alle richieste degli utenti) gira per lo più su cluster remoti, molto energivori; riguarda meno gli usi fotografici tipo denoise, che girano su computer locali. Infine, l'introduzione di modelli di AI generativa recenti, come DeepSeek, un uso più accurato delle tecniche di programmazione e una migliore organizzazione delle piattaforme di calcolo stanno mitigando il problema, che comunque rimane. |
| inviato il 18 Febbraio 2025 ore 10:51
Ottimo commento, molto costruttivo e soprattutto educativo. |
| inviato il 18 Febbraio 2025 ore 11:20
Sembra che quella cinese sia molto meno esigente nel consumo di energia. |
| inviato il 18 Febbraio 2025 ore 11:23
MA QUANTO INQUINANO 'STI INFLUENCER? UNO STUDIO HA RILEVATO CHE L'IMPATTO DI CARBONIO DELLE PUBBLICAZIONI DIGITALI DI UN INFLUENCER CON 3 MILIONI DI FOLLOWER TRA LE DIVERSE PIATTAFORME È DI 1072 TONNELLATE DI ANIDRIDE CARBONICA ALL'ANNO, L'EQUIVALENTE DI 481 VIAGGI ANDATA E RITORNO TRA PARIGI E NEW YORK – ADESSO LE INFLUENCER CHE FANNO FINTA DI ESSERE SENSIBILI ALLE TEMATICHE AMBIENTALI DOVRANNO METTERSI CON LA CALCOLATRICE ALLA MANO SE VOGLIONO EVITARE DI ESSERE COLTE IN FALLO DAI FOLLOWER… Dagospia. E' in stampatello non perché sto alzando la voce.E' un semplice copia ed incolla dal sito. Che si fa? Silenziamo gli influencer? |
| inviato il 18 Febbraio 2025 ore 11:27
Beh, tutto quanto riguarda l'elettronica è energivoro, senza scomodare la AI basti pensare ai datacenter dei cloud, alle fabbriche di chip. Si parla di centinaia di GWh/anno (l'equivalente di cittadine di 50/70k abitanti). Ovviamente tutti gli attori coinvolti hanno come obbiettivo il consumare meno (se non altro per abbassare i costi delle bollette) ma se aumentano le attività alla fine aumenta il fabisogno di energia. |
| inviato il 18 Febbraio 2025 ore 12:08
Michelangelo non sono del tutto sicuro che una generazione locale sia più efficiente di una generazione in datacenter, mi verrebbe da dire il contrario perché in DC si possono usare HW specializzati molto più efficienti e condivisi su più utenti. |
| inviato il 18 Febbraio 2025 ore 12:27
@Daniele.giovanardi: questa è un'osservazione estremamente interessante la cui risposta non è per nulla scontata. Per i grandi modelli di AI generativa, tipo GPT, Geminit, etc., il problema non si pone perchè nessuno di noi ha a casa sua una struttura di calcolo cosi' potente da fare girare questi modelli, anche solo per l'inferenza. Si potrebbero pero' fare girare in locale modelli piu' piccoli, tipo i famosi modelli "distillati" di DeepSeek (non il modello grande a cui possiamo accedere via web). Servirebbero comunque GPU da decine di migliaia di euro, almeno un'A100 Nvidia. In teoria i modelli top di gamma delle GPU consumer (come le 4090 o le nuove 5090) hanno potenza comparabile ad una A100, quello che è completamente insufficiente è la quantità di memoria VRAM (con 12, 16 o 24 GB non fai niente se usi una sola GPU). Vantaggi e svantaggi dell'AI generativa su cloud, come facciamo tutti ora, o "on premises" (cioè su macchine locali) va studiata e verificata alla luce dei nuovi modelli linguistici (LLM), DeepSeek e non solo. Alle giuste considerazioni che hai fatto aggiungo anche la possibilità di fare "batching": quando GPT riceve una richiesta non la processa singolarmente ma ne mette assieme un certo numero (batch) che poi fa processare in un colpo solo dall'LLM. Per motivi tecnici di cui non è il caso di parlare qui questa scelta è molto più efficiente rispetto al trattamento della singola richiesta, come quello che potrei fare eventualmente io su un mio ipotetico computer di casa. |
| inviato il 18 Febbraio 2025 ore 13:14
Scusate, mi autocorreggo: GPT risponde real-time alla singola richiesta, il batching per GPT riguarda il caso di un utente che fa richieste multiple nello stesso prompt. Il batching viene utilizzato nell'addestramento, quando si usa GPT tramite API (da qui il mio fraintendimento) o in altri casi particolari. Mentre rimane vero che il trattamento di batch di richieste rispetto alla singola richiesta è molto vantaggioso (per come sono fatte le GPU), c'è il problema della latenza e di noi utenti che vogliamo risposte real-time e non saremmo disposti ad aspettare neanche 1 o 2 secondi per accumulare il batch di richieste da parte dell'LLM Scusate per l'equivoco :-( |
| inviato il 18 Febbraio 2025 ore 15:01
Se consideriamo che circa il 70% di ciò che si consuma e produce potrebbe esser superfluo nella migliore delle ipotesi, e perfino inutile o dannoso nella peggiore, il risparmio di energia è cosa fatta. |
Che cosa ne pensi di questo argomento?Vuoi dire la tua? Per partecipare alla discussione iscriviti a JuzaPhoto, è semplice e gratuito!
Non solo: iscrivendoti potrai creare una tua pagina personale, pubblicare foto, ricevere commenti e sfruttare tutte le funzionalità di JuzaPhoto. Con oltre 251000 iscritti, c'è spazio per tutti, dal principiante al professionista. |

Metti la tua pubblicità su JuzaPhoto (info) |