L’AI generativa e le emissioni di CO2 – una prima riflessione
Nel momento di maggiore interesse mediatico nei confronti delle criptovalute, molto si è detto relativamente al loro consumo energetico e al conseguente impatto sul clima. L’attività di mining – ovvero l’estrazione e la verifica delle valute digitali attraverso la risoluzione di complessi problemi crittografici – è infatti estremamente energivora e, per di più, è concentrata in Cina dove il mix energetico è fortemente sbilanciato verso le fonti non rinnovabili: secondo gli ultimi dati del National Bureau of Statistics of China oltre il 56% dei consumi di energia deriva da produzione da carbone, mentre solo meno del 26% da fonti sostenibili.
L’impatto dell’AI sulle emissioni
Per quanto riguarda l’Artificial Intelligence, il discorso è analogo. I data center e i server che supportano l’AI richiedono un’enorme quantità di energia per funzionare e raffreddarsi adeguatamente e, spesso, questa energia proviene da fonti non rinnovabili ad alto contenuto di carbonio. Inoltre, l’uso intensivo di risorse energetiche per l’elaborazione dei dati e l’apprendimento automatico richiede l’utilizzo di supercomputer e di cluster di server ad alte prestazioni, che hanno, a loro volta, un elevato impatto ambientale per la loro costruzione e smaltimento.
La discussione non è, per il momento, arrivata ad essere così mainstream come lo è divenuta per le criptovalute perché, probabilmente, siamo ancora nella fase in cui l’entusiasmo per ciò che è in grado di produrre l’AI generativa è tale che non badiamo troppo a come, in termini energetici, si è arrivati a tale risultato.
In questo contesto ho trovato molto interessante gli articoli di Kasper Groes Albin Ludvigsen e di Chris Pointon i quali hanno stimato l’impatto, in termini di emissioni di CO2 dell’addestramento e dell’utilizzo di ChatGPT. Quest’ultimo sembrerebbe costato, in termini di emissioni di carbonio, circa 78.468 kg CO2eq, che è pari a circa 700.000 chilometri in auto: due volte dalla Terra alla Luna.
Per l’utilizzo di ChatGPT il calcolo si complica ancora di più in quanto mancano alcune informazioni cruciali, come la localizzazione dei server. Inoltre, dato il continuo aumento del numero di utenti di questo servizio, diventa arduo mantenerlo aggiornato.
La morale che se ne ricava è, comunque, che si tratta di numeri impressionanti soprattutto perché stiamo parlando di un solo servizio, sebbene il più popolare al momento, di AI generativa. Con il crescente avvento di servizi concorrenti – quelli su Google su tutti, senza dimenticare la discesa in campo di giganti come Adobe per l’imaging – e la loro integrazione nelle attività più disparate, il tema e la discussione deve diventare di assoluta rilevanza presso il grande pubblico.
Al momento non ci sono soluzioni magiche in grado di risolvere in maniera semplice e definitiva tale problema, quello che però sicuramente si può (e si deve) fare è iniziare a lavorare su due diversi fronti.
Il primo fronte è quello della localizzazione delle risorse computazionali andando a privilegiare, pur con tutti i vincoli tecnici esistenti, l’installazione dell’ hardware necessario a far girare tali servizi in luoghi in cui il mix energetico sia già orientato a privilegiare le fonti più sostenibili. Inoltre, in una visione ottimistica del futuro, l’AI – e più in generale la localizzazione delle infrastrutture tecnologiche energivore – potrebbe essere il volano con cui sviluppare zone del mondo – l’Africa in primo luogo – in cui vi è grande abbondanza di fonti energetiche rinnovabili non sviluppate. Chiaramente questa visione passa attraverso massicci investimenti volti a costruire una duplice rete – elettrica e digitale – in grado di supportarla.
Il secondo fronte è legato alla ricerca e allo sviluppo di algoritmi e tecniche di AI più efficienti dal punto di vista energetico. Ciò potrebbe includere l’ottimizzazione delle architetture neurali, la riduzione della complessità computazionale e l’implementazione di strategie di apprendimento che richiedano meno dati per raggiungere prestazioni comparabili. Inoltre, è importante incoraggiare la collaborazione tra gli esperti di AI e gli specialisti dell’efficienza energetica per creare soluzioni innovative che riducano l’impatto ambientale dell’AI.
La consapevolezza di questi problemi e l’impegno per trovare soluzioni sostenibili sono fondamentali per mitigare gli impatti negativi dell’AI sull’ambiente che deve essere sviluppata e utilizzata in modo responsabile, considerando l’efficienza energetica come un requisito fondamentale per garantire un futuro sostenibile.
Il percorso è appena iniziato e non sappiamo, ancora, che strade dovremo percorrere: l’importante, per restare nella metafora del cammino, è partire con il piede giusto.
PS – ritengo che l’AI può dare e darà un suo contributo alla risoluzione del problema ambientale. Ne ho parlato qualche giorno fa in un primo articolo su questo argomento parte della serie AI Basics.
Pingback: AI e Sviluppo Sostenibile in Africa con Google - 00lab
Pingback: Ancora Su AI Generativa E Emissioni Di CO2 - 00lab