Quando si parla di Intelligenza Artificiale spesso l’entusiasmo è a “mille”, se ne elencano i vantaggi, si cerca di capire come usarla al meglio, nascono nuove professioni (come i prompt designer) e le stesse aziende fanno di tutto per inserirla nel flusso di lavoro.
E se i benefici possono essere diversi – purché sia trattata come uno strumento e non come un fine – quello di cui si parla davvero poco è l’impatto ambientale dell’Intelligenza Artificiale.

Quanto inquina chiedere a Chat GPT di scrivere un’e-mail al posto nostro? Quanto chiedere a Google Bard di tradurre testi dall’italiano allo spagnolo e il fare continue domande affinché affini la traduzione (solo per fare qualche esempio)?

Cerchiamo di capirne di più in questo articolo, anche se prima di addentrarci nel tema, è necessario fare una doverosa premessa: non abbiamo ancora informazioni certe perché molte compagnie non rivelano la base dati su cui addestrano i vari modelli né tendono a dare informazioni molto precise sull’impronta ambientale.

Perché l’Intelligenza artificiale inquina?

L’AI inquina perché i suoi strumenti sono alimentati da GPU, acronimo che sta per Graphic Processing Unit che in italiano potremmo tradurre con “unità di elaborazione grafica”. Senza entrare troppo nel dettaglio, la GPU si occupa di elaborare i dati digitali in arrivo da altre periferiche e da varie componenti del computer e di decodificarli in modo che siano compatibili. Si tratta, quindi, di chip complessi che permettono, per dirla in altre parole, di gestire i miliardi di calcoli al secondo necessari per alimentare le piattaforme di AI.

Tra gli studiosi che si occupano di analizzare l’impatto ambientale dell’Intelligenza Artificiale c’è la ricercatrice Sasha Luccioni, che ha spiegato in un articolo su Ars Technica, magazine di Condé Nast, come i modelli di Intelligenza Artificiale siano diventati più complessi pertanto richiedano più tempo per l’addestramento, “Il che significa che necessitano anche di più GPU; che costano di più e che poche organizzazioni sono in grado di addestrarle”.

La complessità di questi modelli è data dai parametri, da quelle connessioni interne, cioè, che consentono loro di imparare dei “percorsi” in base all’addestramento ricevuto.
Luccioni fa notare che più sono i parametri più il modello è potente e dà risultati che lo sono altrettanto.

“Per i modelli linguistici di grandi dimensioni (LMM) come ChatGPT, siamo passati da circa 100 milioni di parametri nel 2018 a 500 miliardi nel 2023 con il modello PALM di Google”, scrive nell’articolo aggiungendo anche che “la teoria alla base di questa crescita è che i modelli con più parametri dovrebbero avere prestazioni migliori, anche su compiti per i quali non sono stati inizialmente addestrati, sebbene questa ipotesi rimanga ancora non dimostrata”.

Quanto inquina l’Intelligenza Artificiale?

E quindi: in che modo inquina l’AI e quanto? Tra i primi fattori di inquinamento c’è sicuramente il consumo d’acqua.

Come dimostra lo studio Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models” (che possiamo tradurre con “Rendiamo l’Intelligenza Artificiale meno “assetata”, scoprire e affrontare l’impronta segreta sul consumo d’acqua dei modelli IA”), addestrare modelli come GPT-3 significa utilizzare, nel caso dei moderni data center statunitensi di Microsoft, 700mila litri d’acqua dolce pulita. Qualcosa che equivale a produrre, scrivono i ricercatori, 370 auto BMW o 320 Tesla. Un consumo che sarebbe addirittura triplicato se questo avvenisse nei data center asiatici di Microsoft.

Al di là del fatto che i numeri finora elencati sono stime visto che, come dicevamo prima, le aziende tendono a non diffondere dati in merito, nel loro studio i ricercatori ci pongono davanti al fatto che il consumo idrico dell’AI è un aspetto tutt’altro che trascurabile. Il reperimento dell’acqua è infatti una delle sfide più urgenti al mondo a causa della crescita rapida della popolazione, dell’esaurimento delle risorse idriche e dell’invecchiamento delle infrastrutture idriche. Sarebbe importante quindi affrontare, per le varie aziende che si occupano di Intelligenza Artificiale, anche qual è la propria impronta idrica.

Per quel che riguarda il consumo di energia e la CO2, stando a un altro studio, l’addestramento di GPT-3 ha consumato 1.287 MWh e ha portato a emissioni di oltre 550 tonnellate di anidride carbonica equivalente, simili a un volo tra New York e San Francisco di andata e ritorno per 550 volte. Se, però, come dicevamo prima, i modelli diventano man mano più complessi e richiedono più parametri come è il caso di GPT-4 che ha richiesto 570 volte più parametri rispetto alla versione precedente, questo comporta un maggiore consumo di energia.

Perché è importante una riflessione a tutto tondo

Come si evince, non bisogna solo pensare a come addestrare al meglio questi strumenti, ma fare una seria riflessione sull’impatto che hanno sull’ambiente. E questo richiede che allo stesso tavolo si siedano non solo gli esperti di tecnologie, ma anche sociologi, scienziati, economisti.

Ma non solo: bisogna cercare di sensibilizzare le persone e diffondere una cultura di consapevolezza rispetto all’AI. Finora il dibattito – giusto e corretto, ovviamente – è stato su come usarla, se prenderà il posto dell’uomo oltre a tutte le connotazioni etiche che ne sono derivate. Per quel che riguarda l’inquinamento ambientale, si è trattato, e si tratta tuttora, di discussioni solo tra esperti.

E invece è cruciale sensibilizzzare le persone, per evitare che “giochino” con questi strumenti e li usino quando non è necessario. Far capire qual è il consumo idrico, energetico e di CO2 dell’AI non è facile perché si tratta di qualcosa che non è visibile a occhio nudo. A differenza di un’automobile, i cui effetti dell’inquinamento sentiamo non appena ci passiamo vicino o se siamo in strade particolarmente trafficate, l’impronta ambientale dell’IA non lascia tracce. Ed è per questo, se ci pensiamo, che può essere ancora più pericolosa.


Leggi anche…