Quanta energia costa usare l’intelligenza artificiale?

da | 20 Set 2024 | IA

Tempo di lettura: 3 minuti

Proprio ieri abbiamo riportato la notizia delle Nazioni Unite, che chiedono che l’IA riceva la stessa attenzione dedicata al cambiamento climatico nel dibattito pubblico. Le preoccupazioni immediate riguardano il potenziale dell’intelligenza artificiale di alimentare la disinformazione, generare deepfake, causare massicce perdite di posti di lavoro e amplificare i pregiudizi algoritmici.

Ma ci sono anche timori legati all’ambiente. Le tecnologie di intelligenza artificiale, in particolare quelle basate su reti neurali complesse come il machine learning e il deep learning, richiedono immense risorse computazionali, che comportano un elevato consumo di energia.

Ad esempio, l’addestramento di grandi modelli linguistici implica l’uso di data center con migliaia di server e processori specializzati, che funzionano ininterrottamente per mesi. Questi processi consumano grandi quantità di elettricità e generano molto calore, che necessita di sistemi di raffreddamento potenti per evitare il surriscaldamento delle apparecchiature.

L’indagine del Washington Post

A supporto delle preoccupazioni delle Nazioni Unite, arriva l’indagine del Washington Post, che ha messo in luce i costi ambientali legati all’uso di LLM come ChatGPT. Secondo il rapporto, ogni risposta fornita dai chatbot consuma notevoli quantità di acqua ed energia.

Dalla sua introduzione nel 2022, circa un quarto degli americani ha utilizzato ChatGPT ma pochi sono consapevoli del costo ambientale nascosto dietro ogni interrogazione. Un recente studio, condotto in collaborazione con ricercatori dell’Università della California di Riverside, ha cercato di quantificare il consumo di risorse del modello linguistico GPT-4 di OpenAI, rilasciato nel marzo 2023.

I dati mostrano che per elaborare una semplice email di 100 parole, i server che ospitano ChatGPT richiedono un notevole dispendio di energia e acqua per mantenere le apparecchiature raffreddate.

Il costo in acqua

Ogni richiesta a ChatGPT viene processata dai server presenti nei data center, che generano una grande quantità di calore durante le operazioni. Per evitare il surriscaldamento, vengono utilizzati sistemi di raffreddamento ad acqua che trasportano il calore verso torri di raffreddamento esterne.

Tuttavia, la quantità di acqua ed energia impiegata varia a seconda della localizzazione dei data center e delle risorse disponibili. In aree dove l’elettricità è più economica o l’acqua è scarsa, si utilizza infatti l’elettricità per raffreddare i data center.

Anche in condizioni ideali, quindi col raffreddamento ad acqua, i data center sono tra i maggiori consumatori di risorse idriche nelle città in cui operano; quelli che invece usano sistemi di raffreddamento elettrico possono aumentare le bollette energetiche locali e mettere sotto pressione la rete elettrica.

Ad esempio, il data center di Microsoft ha consumato 700.000 litri d’acqua solo per addestrare il modello GPT-3. Meta invece ha utilizzato ben 22 milioni di litri d’acqua per l’addestramento del suo modello AI open source LLaMA-3.

Il costo in energia

I data center richiedono grandi quantità di energia per attività come il cloud computing, e l’IA ha aumentato ulteriormente questo carico. In zone calde, i data center utilizzano molta elettricità per il raffreddamento, soprattutto se costruiti in zone con scarse risorse idriche. In Virginia settentrionale, dove si trova la più alta concentrazione di data center al mondo, ci sono state numerose proteste per l’alto consumo energetico (oltre che per l’impatto estetico) dei data center.

A West Des Moines, Iowa, zona particolarmente ricca di data center, i registri del dipartimento idrico hanno rivelato che strutture gestite da aziende come Microsoft consumano circa il 6% dell’acqua totale del distretto.

Dopo una lunga battaglia legale, il giornale Oregonian ha costretto Google a rendere noti i consumi idrici dei suoi data center a The Dalles, a circa 130 km da Portland; i documenti hanno mostrato che quasi un quarto dell’acqua della città viene utilizzata da queste strutture.

E la sostenibilità aziendale?

La sostenibilità aziendale si riferisce alle pratiche e alle strategie adottate dalle aziende per operare in modo responsabile nei confronti dell’ambiente, della società e dell’economia. L’obiettivo è creare valore a lungo termine, bilanciando la crescita economica col rispetto delle risorse naturali e il benessere delle comunità.

In pratica, le aziende che adottano politiche di sostenibilità cercano di minimizzare il loro impatto ambientale, ridurre le emissioni di carbonio, ottimizzare l’uso di risorse come acqua ed energia, e promuovere l’equità sociale. Questo, ovviamente, fino a che i profitti non suggeriscono approcci più pragmatici.

Il crescente impiego dell’intelligenza artificiale ha infatti cambiato drasticamente il panorama energetico dei Big Tech, che però insistono nel promettere di ridurre l’impatto ambientale adottando sistemi di raffreddamento più efficienti.

I dati però mostrano che, nel 2023, Google ha visto un aumento del 48% della sua impronta di carbonio a causa dei data center e dell’AI, e ha reintegrato solo il 18% dell’acqua consumata, un risultato ben lontano dagli obiettivi fissati per il il 2030.

Con l’evoluzione dell’intelligenza artificiale, i costi ambientali legati all’utilizzo di chatbot come ChatGPT sembrano dunque destinati a crescere. La sfida per l’industria tecnologica sarà allora quella di trovare soluzioni sostenibili che bilancino l’innovazione con la tutela delle risorse naturali.

POTREBBE INTERESSARTI

pentagono
, • ⏱ 2 min

Il Pentagono vuole l’IA senza limiti sulle reti classificate

OpenAI ha già accettato di rimuovere restrizioni, Anthropic oppone resistenza. In gioco c’è chi decide i confini etici dell’IA in scenari operativi.

Mustafa Suleyman
• ⏱ 3 min

Microsoft ‘rompe’ con OpenAI: “Puntiamo all’autosufficienza nei modelli IA”

Dopo la ristrutturazione di ottobre, Mustafa Suleyman annuncia l’intenzione di diversificare gli investimenti e di accelerare sullo sviluppo interno. E conferma...
Arthur Mensch Mistral
, • ⏱ 3 min

Mistral cavalca la sovranità digitale europea e moltiplica i ricavi per 20

Oltre 100 grandi clienti aziendali, data center propri e proiezione verso 1 miliardo di ricavi entro fine 2026. Ma con Microsoft e Nvidia tra i soci, quanto è davvero...
Elon Musk Starbase SpaceX
, • ⏱ 3 min

Musk vuole fabbricare satelliti IA sulla Luna (con una catapulta gigante)

Durante una riunione aziendale, Musk ha descritto una fabbrica lunare per satelliti IA, lanciati da un “mass driver”. La mossa arriva mentre xAI e SpaceX si...
Ryan Beiermeister OpenAI
• ⏱ 3 min

OpenAI licenzia la dirigente che si era opposta ai contenuti erotici in ChatGPT

Ryan Beiermeister, del team product policy, aveva sollevato dubbi interni sulla capacità di separare gli adolescenti dai contenuti adulti. Che OpenAI inserirà in...
Anthropic Super Bowl
, • ⏱ 2 min

Big Tech al Super Bowl: dietro gli spot sull’IA, un’offensiva reputazionale

OpenAI, Anthropic, Google, Amazon e Meta hanno portato l’intelligenza artificiale nell’evento più visto d’America. Rivelando involontariamente quanto...
Apple Car Play
, • ⏱ 3 min

Apple Car Play: presto potremo conversare coi chatbot mentre guidiamo

Per la prima volta Apple permetterà ai conducenti di parlare mentre guidano coi chatbot di terze parti, come ChatGPT e Gemini.

olimpiadi milano cortina alibaba
• ⏱ 3 min

Alibaba porta l’IA cinese alle Olimpiadi di Milano Cortina 2026

Alibaba Cloud implementa chatbot multilingue e assistenti operativi per i Giochi Invernali, segnando il debutto di un large language model cinese nelle Olimpiadi.

Fidji Simo OpenAI Frontier
• ⏱ 3 min

OpenAI promette “flotte di agenti” con la nuova piattaforma Frontier

Annunciata a giorni dal crollo di Wall Street, la piattaforma punta a orchestrare agenti di qualsiasi azienda. Ma la retorica collaborativa nasconde una competizione...
Sundar Pichai. CEO di Google
, • ⏱ 3 min

Pichai non risponde su Apple e Siri: il silenzio è emblematico

Durante la conference call sui risultati del quarto trimestre, Sundar Pichai preferisce il silenzio alle spiegazioni. Il futuro della pubblicità nell’IA resta un...
Share This