Europa e oltre

La grande necessità di elettricità ed acqua per il funzionamento dell’intelligenza artificiale

Il datacenter di Prism, dove vengono tenuti i dati rubati agli europei

ChatGpt, la richiesta di risorse naturali è fuori controllo

Una nuova ricerca segnala l’eccessivo consumo di acqua ed elettricità nei data center delle aziende proprietarie

Una bottiglia d’acqua per ogni email di 100 parole scritta da ChatGpt: questo il prezzo che deve pagare l’ambiente per il funzionamento corretto dei chatbot AI. A rivelarlo è un nuovo studio condotto dal Washington Post in collaborazione con i ricercatori dell’Università della California di Riverside, che hanno analizzato la quantità di risorse naturali che servono a ChatGpt per espletare le sue funzioni più elementari. “Ogni richiesta su ChatGpt passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta”, scrive il WP precisando che i server generano calore per eseguire i calcoli necessari.

Proprio per questo, all’interno dei data center che li ospitano vengono utilizzati sistemi ad acqua per raffreddare le apparecchiature e mantenerle in funzione: secondo Shaolei Ren, professore associato, l’acqua trasporta il calore generato dai server in torri di raffreddamento, così da aiutarlo a uscire dall’edificio. In quelle aeree in cui le risorse idriche sono relativamente scarse, invece, si predilige l’uso dell’elettricità, al fine di raffreddare le strutture con sistemi simili a grandi condizionatori. Questo significa che la quantità di acqua ed elettricità richieste per l’elaborazione di una singola risposta dei chatbot AI dipende dall’ubicazione del data center, oltre che dalla vicinanza dell’utente alla struttura.

Il consumo di acqua ed elettricità aumenta

In Texas, per esempio, ChatGpt consuma appena 235 millilitri di acqua per generare un’email di 100 parole. Mentre, quando un utente fa la stessa richiesta al chatbot da Washington, vengono consumati ben 1408 millilitri – quasi un litro e mezzo – per ogni email. Quanto al consumo di energia elettrica, secondo il Washington Post, per un’email di circa 100 parole ChatGpt richiede la stessa quantità necessaria a far funzionare più di una dozzina di lampadine a led per circa un’ora. E se solo un decimo degli americani usasse ChatGpt per scrivere un’email una volta a settimana per un anno, l’il processo consumerebbe la stessa quantità di energia che ogni singola famiglia di Washington consuma in 20 giorni. Una cifra notevole che non passa inosservata.

A peggiorare la situazione, poi, c’è l’ubicazione delle strutture che ospitano i server. Se un data center si trova in una regione calda e gestisce il raffreddamento tramite sistemi di condizionamento, è evidente che ci voglia molta elettricità per mantenere i server a una temperatura bassa. Allo stesso modo, se le strutture utilizzano il raffreddamento ad acqua e si trovano in aree soggette a siccità, rischiano di impoverire la zona di una preziosa risorsa naturale. Secondo alcuni documenti condivisi dal quotidiano Oregonian, per esempio, i data center di Google a The Dalles, a circa 80 miglia a est di Portland, consumano quasi un quarto di tutta l’acqua disponibile nella città. E Meta, invece, ha avuto bisogno di 22 milioni di litri d’acqua per addestrare il suo ultimo modello Llama 3.1. E la situazione non farà altro che peggiorare, di pari passo con l’evoluzione dell’intelligenza artificiale e dei chatbot.

Chiara Crescenzi | wired.it  |  20.09.2024

0:00
0:00