Ogni volta che chiediamo a un sistema di intelligenza artificiale di generare un testo o un’immagine sembra accadere qualcosa di quasi immateriale.
In realtà dietro quella richiesta si attivano enormi infrastrutture digitali, server ad altissime prestazioni e data center che lavorano ininterrottamente per elaborare dati. Il risultato appare in pochi secondi sullo schermo, ma il consumo energetico necessario per arrivarci è molto meno visibile.
Quanto consumano davvero le richieste all’intelligenza artificiale
Le piattaforme di AI generativa funzionano grazie a giganteschi data center distribuiti nel mondo. Queste strutture ospitano migliaia di processori specializzati, progettati per eseguire calcoli complessi in tempi molto brevi. Ogni richiesta fatta a un sistema di AI, anche la più semplice, attiva una catena di operazioni che coinvolge hardware ad altissimo consumo energetico.
Secondo diverse analisi citate dall’International Energy Agency, i data center globali rappresentano oggi circa l’1–1,3% del consumo elettrico mondiale. È una percentuale che può sembrare limitata, ma equivale all’intero fabbisogno energetico di paesi industrializzati di medie dimensioni. Con la diffusione dell’intelligenza artificiale il quadro potrebbe cambiare rapidamente.
Alcuni studi stimano che una singola richiesta complessa a un modello generativo possa richiedere fino a dieci volte l’energia di una normale ricerca su internet. Questo non significa che ogni interazione sia estremamente energivora, ma indica chiaramente che il salto tecnologico porta con sé anche un aumento del carico sulle infrastrutture digitali.
Il ruolo dei data center nell’economia digitale
I data center sono diventati il cuore dell’economia digitale contemporanea. Non servono solo per l’intelligenza artificiale, ma anche per cloud computing, streaming video, piattaforme social e servizi finanziari online. L’arrivo dell’AI generativa ha però introdotto un livello di intensità computazionale che pochi anni fa non esisteva.
Per addestrare modelli avanzati servono settimane di calcoli continui su migliaia di GPU. Anche dopo la fase di addestramento, ogni richiesta degli utenti continua a richiedere potenza di calcolo significativa. È qui che entrano in gioco gli investimenti miliardari delle grandi aziende tecnologiche, che stanno costruendo nuove infrastrutture proprio per sostenere questa domanda crescente.
Secondo stime pubblicate da analisti del settore energetico, il consumo dei data center potrebbe raddoppiare entro il 2030 se la diffusione dell’intelligenza artificiale continuerà con l’attuale velocità. Per questo molte aziende stanno cercando di alimentare queste strutture con fonti rinnovabili o di migliorare l’efficienza dei sistemi di raffreddamento.
Il paradosso della tecnologia invisibile
Per l’utente finale tutto questo resta quasi invisibile. Aprire un’app, generare un’immagine o ottenere una risposta da un chatbot richiede pochi secondi e sembra non avere alcun impatto fisico. Eppure ogni operazione coinvolge server distribuiti in diverse parti del mondo, sistemi di raffreddamento industriali e reti di trasmissione dati ad altissima capacità.
Questo non significa che l’intelligenza artificiale sia necessariamente insostenibile. Molti ricercatori sottolineano che la tecnologia può anche contribuire a migliorare l’efficienza energetica di interi settori, dalla logistica alla gestione delle reti elettriche. Tuttavia il dibattito sul suo costo energetico sta diventando sempre più centrale.
La crescita dell’AI generativa sta cambiando il modo in cui produciamo contenuti digitali, ma sta anche rendendo evidente quanto l’infrastruttura che sostiene internet sia concreta e materiale. Dietro ogni immagine generata o ogni risposta automatica c’è una rete globale di macchine che lavorano senza sosta, e il vero peso di questa rivoluzione tecnologica potrebbe diventare chiaro solo nei prossimi anni.

