L’intelligenza artificiale, come una moderna incarnazione di Prometeo, dona all’umanità il fuoco di una potenziale conoscenza sconfinata, di un’automazione mai vista prima, promettendo rivoluzioni in ogni campo, nonché una nuova era dell’umanità.
Ma, come ci ammonisce il mito greco, dietro ogni dono rubato agli Dei e dato agli uomini, si cela un’ombra sinistra: nel caso dell’AI un’impronta ecologica, un fardello di energia ed inquinamento che minaccia la salute del pianeta, rischiando di vanificare tutti gli sforzi messi in atto in questa direzione.
Può l’intelligenza artificiale essere essa stessa limitata dalla propria intelligenza e consumare, sempre più velocemente, il mondo in cui viviamo?
Indice degli argomenti
Data center e consumo energetico dell’AI
Al centro di questo problema si collocano i data center, imponenti infrastrutture che ospitano i server necessari per far sì che ognuno di noi possa godere dei servizi che quotidianamente utilizziamo, dalle applicazioni lavorative ai social network.
E, ovviamente, necessari per addestrare ed eseguire i complessi modelli di AI.
Giganti digitali, paragonabili a città in miniatura, consumano quantità gargantuesche di energia per elaborare i dati di cui noi abbiamo bisogno e dei quali tutto il sistema si alimenta, ma anche per essere mantenuti a temperature corrette di funzionamento, attraverso sistemi di raffreddamento ad altissima intensità energetica.
L’intelligenza artificiale sta guidando una corsa globale allo sviluppo di data center sempre più grandi, che, secondo quanto affermato dal CEO di Nvidia, Jensen Huang, raddoppieranno in scala nei prossimi 5 anni, ma la cui costruzione presenterà nuove ed importanti sfide.
Un esempio è il progetto di Blackstone in Northumberland, Inghilterra, nato per essere uno dei più grandi campus d’Europa. Un progetto dal valore di circa 13 miliardi di dollari che evidenzia, se ancora necessario, quanto sia enorme l’appetito per l’AI e quanta fame abbia l’AI di risorse.
L’ascesa dell’AI generativa, richiedendo strutture sempre più vaste, porterà a un crescente aumento del consumo di elettricità, e di acqua, che diventeranno di fatto cruciali per determinare i limiti di crescita dell’intelligenza artificiale.
L’impronta ambientale dell’AI generativa
All’atto pratico, l’utilizzo dell’AI generativa, porta un incremento sostanziale nella richiesta di elettricità necessaria.
Pensiamo ad una ricerca di testo su Chat GPT ed una ricerca su Google: utilizzare Chat GPT richiede dieci volte più energia.
Generare un’immagine utilizzando un modello di AI potrebbe richiedere tanta energia quanta ne consuma mantenere acceso uno smartphone per mezza giornata. Secondo una ricerca Goldman Sachs, l’AI è destinata a portare un aumento del 160% della domanda di energia nei datacenter entro il 2030, nonostante i potenziali progressi che si potrebbero verificare nell’efficientamento energetico.
L’Europa, in particolare, dovrà affrontare una sfida estremamente significativa, in quanto i data center europei avranno bisogno di energia pari al consumo attuale di Portogallo, Paesi Bassi e Grecia messi insieme, e per prepararsi a questo aumento di domanda, l’Unione dovrà investire più di un trilione di dollari nella rete elettrica.
Oltre all’energia, l’acqua rappresenta una risorsa fondamentale per il funzionamento dei data center, in quanto essi ne richiedono enormi quantità per il raffreddamento, mettendo sotto pressione le risorse idriche locali, soprattutto in aree già colpite da scarsità di acqua.
L’estrazione e il consumo di acqua possono danneggiare gli ecosistemi circostanti, alterando gli equilibri e riducendone la disponibilità sia per uso agricolo che per gli esseri umani.
Si stima che 5-10 prompt di Chat GPT consumino mezzo litro di acqua, mentre una ricerca su Google ne richieda mezzo millilitro. Secondo la Cornell University la domanda globale di AI potrebbe essere responsabile nel 2027 di un prelievo di acqua compreso tra 4,2 e 6,6 miliardi di metri cubi, che lo rende maggiore del prelievo totale annuo della Danimarca e a metà di quello del Regno Unito.
Serve una pianificazione sostenibile
Senza una pianificazione sostenibile, questa proliferazione potrebbe portare ad un accaparramento delle risorse idriche, con conseguenze negative sia per l’ambiente che per le comunità locali.
Rimane fondamentale, quindi, che si mantenga un approccio sostenibile alla gestione delle risorse, efficientamento delle tecnologie di raffreddamento, riciclo dell’acqua o l’adozione di fonti alternative (ad esempio acqua piovana o acqua di mare desalinizzata).
Anche l’hardware per l’AI ha un costo ambientale
L’impronta ecologica dell’intelligenza artificiale non si limita, però, solo ai data center, in quanto la produzione dell’hardware necessario, come ad esempio GPU, ha un costo ambientale estremamente significativo.
L’estrazione di materie prime, la fabbricazione dei componenti e il trasporto dei prodotti finiti richiede enormi quantità di risorse, nonché emissioni di gas serra e inquinamento.
Senza dimenticare l’obsolescenza programmata e la rapida evoluzione tecnologica che portano ad una frequente sostituzione dell’hardware, creando rifiuti elettronici molto spesso impossibili da riciclare e difficili da smaltire.
Un processo di produzione e consumo continuo che contribuisce in maniera determinante all’impronta di carbonio del settore tecnologico e che mette ancora una volta a rischio il futuro del nostro pianeta.
Più i modelli di AI migliorano, maggiore sarà la fame di dati
L’AI, nel suo paradosso prometeico, si nutre di dati per apprendere e migliorare: più dati vengono ingeriti, più sofisticati divengono i modelli, maggiore è la fame di dati.
Questa spirale potenzialmente senza fine, apprendimento e consumo, riporta alla mente l’antico simbolo dell’Uroboro, il serpente che si morde la coda, che rappresenta in questo caso un circolo vizioso in cui la sete di informazioni dell’intelligenza artificiale alimenta una crescente domanda di potenza di calcolo, che a sua volta si traduce in un aumento esponenziale del consumo energetico e dell’impatto ambientale.
La quantità di dati di addestramento necessaria per i modelli di machine learning varia in base a numerosi fattori, come ad esempio il tipo di problema, la complessità del modello, la tolleranza agli errori e la qualità dei dati.
Sebbene non esista una regola universale, la cosiddetta 10 Times Rule suggerisce di avere almeno dieci esempi per ogni caratteristica o variabile predittiva nel modello. Raccomandazione che non si applica a modelli complessi come le reti neurali profonde, che richiedono molti più dati, ma che in ogni caso può darci l’idea della quantità di informazioni inimmaginabili per l’addestramento, equivalenti a decine di migliaia, se non milioni, di libri.
L’elaborazione di questi dati richiede una infrastruttura di calcolo composta da migliaia di server ad alte prestazioni che consumano risorse come se fossero delle piccole città. E man mano che i modelli diventano più complessi, la fame di dati e risorse cresce in maniera esponenziale.
Se questo ciclo di autoalimentazione sia sostenibile a lungo termine, ad oggi non è dato sapere, ma ciò che è certo è che l’impronta di carbonio dell’AI abbia già raggiunto livelli allarmanti, contribuendo in maniera reale al cambiamento climatico e mettendo a dura prova le risorse del pianeta.
Continuare in questa direzione, o peggio ridurre l’impatto delle politiche ambientali, può veramente trasformare l’AI in questo Uroboro digitale che divora le risorse della Terra, mettendo a repentaglio il suo stesso sviluppo, la sostenibilità ed in ultima analisi il futuro di tutti noi.
L’opportunità di un futuro sostenibile per l’AI non è perduta
L’intelligenza artificiale, pur promettendo un futuro radioso, potrebbe quindi trasformarsi in un’arma a doppio taglio.
Tuttavia, l’opportunità di un futuro sostenibile per l’AI non è perduta. Diviene fondamentale adottare un approccio responsabile e consapevole, investendo maggiormente in tecnologie più efficienti e fonti di energia rinnovabili, in quanto l’ottimizzazione di hardware e software, unita allo sviluppo di algoritmi più efficienti, può ridurre drasticamente il consumo energetico globale.
Alimentare i data center con energia pulita proveniente da fonti rinnovabili è un ulteriore passo per ridurre l’impronta di carbonio, insieme alla promozione di un’economia circolare attraverso il riutilizzo, la riparazione e il riciclo dell’hardware, allo scopo di ridurre la produzione di rifiuti elettronici e il consumo di risorse preziose.
Infine, la trasparenza e la responsabilità, rendendo pubblici i dati sull’impatto ambientale dell’AI e promuovendo pratiche aziendali corrette, devono essere fondamentali per sensibilizzare l’opinione pubblica e spingere verso l’adozione di soluzioni più sostenibili.
L’AI, proprio come il fuoco di Prometeo, è un dono potente. Sta ad ognuno di noi utilizzare questa tecnologia in maniera responsabile, mitigando l’impatto ambientale e garantendo che il suo sviluppo non avvenga a spese di chi abiterà il pianeta dopo di noi.
Solo in questo modo potremo godere appieno del potenziale dell’intelligenza artificiale, per il bene dell’umanità, senza cadere nella trappola dell’Uroboro digitale.