Proprio ieri abbiamo riportato la notizia delle Nazioni Unite, che chiedono che l’IA riceva la stessa attenzione dedicata al cambiamento climatico nel dibattito pubblico. Le preoccupazioni immediate riguardano il potenziale dell’intelligenza artificiale di alimentare la disinformazione, generare deepfake, causare massicce perdite di posti di lavoro e amplificare i pregiudizi algoritmici.
Ma ci sono anche timori legati all’ambiente. Le tecnologie di intelligenza artificiale, in particolare quelle basate su reti neurali complesse come il machine learning e il deep learning, richiedono immense risorse computazionali, che comportano un elevato consumo di energia.
Ad esempio, l’addestramento di grandi modelli linguistici implica l’uso di data center con migliaia di server e processori specializzati, che funzionano ininterrottamente per mesi. Questi processi consumano grandi quantità di elettricità e generano molto calore, che necessita di sistemi di raffreddamento potenti per evitare il surriscaldamento delle apparecchiature.
L’indagine del Washington Post
A supporto delle preoccupazioni delle Nazioni Unite, arriva l’indagine del Washington Post, che ha messo in luce i costi ambientali legati all’uso di LLM come ChatGPT. Secondo il rapporto, ogni risposta fornita dai chatbot consuma notevoli quantità di acqua ed energia.
Dalla sua introduzione nel 2022, circa un quarto degli americani ha utilizzato ChatGPT ma pochi sono consapevoli del costo ambientale nascosto dietro ogni interrogazione. Un recente studio, condotto in collaborazione con ricercatori dell’Università della California di Riverside, ha cercato di quantificare il consumo di risorse del modello linguistico GPT-4 di OpenAI, rilasciato nel marzo 2023.
I dati mostrano che per elaborare una semplice email di 100 parole, i server che ospitano ChatGPT richiedono un notevole dispendio di energia e acqua per mantenere le apparecchiature raffreddate.
Il costo in acqua
Ogni richiesta a ChatGPT viene processata dai server presenti nei data center, che generano una grande quantità di calore durante le operazioni. Per evitare il surriscaldamento, vengono utilizzati sistemi di raffreddamento ad acqua che trasportano il calore verso torri di raffreddamento esterne.
Tuttavia, la quantità di acqua ed energia impiegata varia a seconda della localizzazione dei data center e delle risorse disponibili. In aree dove l’elettricità è più economica o l’acqua è scarsa, si utilizza infatti l’elettricità per raffreddare i data center.
Anche in condizioni ideali, quindi col raffreddamento ad acqua, i data center sono tra i maggiori consumatori di risorse idriche nelle città in cui operano; quelli che invece usano sistemi di raffreddamento elettrico possono aumentare le bollette energetiche locali e mettere sotto pressione la rete elettrica.
Ad esempio, il data center di Microsoft ha consumato 700.000 litri d’acqua solo per addestrare il modello GPT-3. Meta invece ha utilizzato ben 22 milioni di litri d’acqua per l’addestramento del suo modello AI open source LLaMA-3.
Il costo in energia
I data center richiedono grandi quantità di energia per attività come il cloud computing, e l’IA ha aumentato ulteriormente questo carico. In zone calde, i data center utilizzano molta elettricità per il raffreddamento, soprattutto se costruiti in zone con scarse risorse idriche. In Virginia settentrionale, dove si trova la più alta concentrazione di data center al mondo, ci sono state numerose proteste per l’alto consumo energetico (oltre che per l’impatto estetico) dei data center.
A West Des Moines, Iowa, zona particolarmente ricca di data center, i registri del dipartimento idrico hanno rivelato che strutture gestite da aziende come Microsoft consumano circa il 6% dell’acqua totale del distretto.
Dopo una lunga battaglia legale, il giornale Oregonian ha costretto Google a rendere noti i consumi idrici dei suoi data center a The Dalles, a circa 130 km da Portland; i documenti hanno mostrato che quasi un quarto dell’acqua della città viene utilizzata da queste strutture.
E la sostenibilità aziendale?
La sostenibilità aziendale si riferisce alle pratiche e alle strategie adottate dalle aziende per operare in modo responsabile nei confronti dell’ambiente, della società e dell’economia. L’obiettivo è creare valore a lungo termine, bilanciando la crescita economica col rispetto delle risorse naturali e il benessere delle comunità.
In pratica, le aziende che adottano politiche di sostenibilità cercano di minimizzare il loro impatto ambientale, ridurre le emissioni di carbonio, ottimizzare l’uso di risorse come acqua ed energia, e promuovere l’equità sociale. Questo, ovviamente, fino a che i profitti non suggeriscono approcci più pragmatici.
Il crescente impiego dell’intelligenza artificiale ha infatti cambiato drasticamente il panorama energetico dei Big Tech, che però insistono nel promettere di ridurre l’impatto ambientale adottando sistemi di raffreddamento più efficienti.
I dati però mostrano che, nel 2023, Google ha visto un aumento del 48% della sua impronta di carbonio a causa dei data center e dell’AI, e ha reintegrato solo il 18% dell’acqua consumata, un risultato ben lontano dagli obiettivi fissati per il il 2030.
Con l’evoluzione dell’intelligenza artificiale, i costi ambientali legati all’utilizzo di chatbot come ChatGPT sembrano dunque destinati a crescere. La sfida per l’industria tecnologica sarà allora quella di trovare soluzioni sostenibili che bilancino l’innovazione con la tutela delle risorse naturali.


