Sempre più oggi sentiamo parlare del consumo energetico dei data center e serve superare una narrazione semplicistica. I data center non sono “macchine che consumano energia per fare calcoli inutili”, ma infrastrutture che trasformano energia in valore: servizi digitali, conoscenza, produttività, competitività economica e sociale. Strumenti come l’intelligenza artificiale generativa, le piattaforme cloud o i servizi digitali avanzati vengono spesso accusati di generare un danno ambientale, senza però considerare l’intera catena del valore che producono e i benefici concreti per persone, imprese e sistemi Paese.
Crescita dei consumi e valore dei servizi digitale
Il punto centrale è che l’energia consumata non è fine a sé stessa, ma abilita servizi che prima non esistevano o che oggi vengono erogati in modo molto più efficiente. A parità di servizio, l’efficienza dei data center è enormemente migliorata nel tempo: se i consumi assoluti crescono è perché cresce in modo esponenziale la quantità e la qualità dei servizi offerti. È un fenomeno analogo a quello vissuto in passato con le telecomunicazioni o con la digitalizzazione dei media: la tecnologia è diventata indispensabile per la sostenibilità economica e competitiva dei modelli di business e dei Paesi.
Dal punto di vista tecnologico, l’evoluzione è evidente. In passato sistemi di calcolo molto meno potenti occupavano intere stanze; oggi potenze di calcolo enormi sono concentrate in singoli rack, con densità che superano i 120–140 kW. Questo porta a una conseguenza fisica inevitabile: la gestione del calore diventa un elemento critico. L’aria non è più sufficiente e il raffreddamento a liquido diventa la soluzione necessaria per evitare il surriscaldamento e supportare la continuità operativa.
Dalla singola macchina all’approccio Unit of Computing
Quando si parla di “unit of computing”, non ci riferiamo più al singolo server, ma all’insieme integrato di infrastruttura: alimentazione elettrica, raffreddamento, distribuzione, controllo e spazio IT. In questo contesto si inserisce l’architettura Vertiv OneCore, che non è semplicemente un data center modulare, ma un approccio progettuale che parte dal bisogno computazionale e vi realizza intorno l’intera infrastruttura.
Vertiv One Core consente di ridurre drasticamente i tempi di progettazione e realizzazione, che nei data center tradizionali possono arrivare a 24–30 mesi, un orizzonte incompatibile con l’evoluzione dell’hardware AI. NVIDIA, ad esempio, introduce nuove generazioni di prodotti in cicli di pochi mesi: costruire un data center con tecnologie già superate significa nascere obsoleti. Vertiv One Core risponde al problema con soluzioni prefabbricate e integrate: moduli di potenza, UPS, batterie, busbar, raffreddamento e distribuzione vengono realizzati e testati in fabbrica, riducendo complessità, errori e tempi di installazione in sito.
Densità computazionale e sfida del raffreddamento a liquido
Un elemento chiave dei data center moderni è la distribuzione dell’energia e del raffreddamento sopra i rack, tramite sistemi ad alta capacità (busbar e reti di fluido secondarie). Questo approccio è necessario per gestire correnti elevate e flussi termici molto intensi, e richiede livelli di precisione e affidabilità paragonabili a quelli della Formula 1. Anche la manutenzione cambia radicalmente: intervenire su rack che contengono hardware del valore di milioni di euro richiede competenze specialistiche e processi completamente diversi rispetto ai data center raffreddati ad aria.
Il raffreddamento a liquido introduce un ulteriore vantaggio strategico: il recupero del calore. Il calore prodotto dalle GPU è un “calore nobile”, che esce a temperature intorno ai 50 °C, quindi direttamente utilizzabile per il riscaldamento di edifici o reti di teleriscaldamento. In Italia il recupero è oggi applicato soprattutto all’interno degli edifici, ma a livello europeo e internazionale si guarda sempre più all’integrazione con le reti urbane. Questo però richiede prossimità geografica, infrastrutture adeguate e collaborazione con enti pubblici e gestori delle reti.
Efficienza energetica, recupero del calore e scenari futuri dei data center
Le dimensioni dei data center stanno crescendo rapidamente: in Francia si pianificano infrastrutture da centinaia di megawatt fino ad arrivare, nel prossimo decennio, a data center da 1 gigawatt, vere e proprie “città energetiche”. In questo contesto l’Europa appare più lenta rispetto agli Stati Uniti, non per mancanza di competenze, ma per priorità di investimento, complessità normative e tempi autorizzativi più lunghi.
Un ruolo sempre più centrale sarà ricoperto dal Digital Twin, non solo in fase di progettazione, ma soprattutto nella fase operativa. Il gemello digitale, alimentato da dati in tempo reale (IoT), permette di simulare scenari, analizzare guasti, prevedere criticità e ottimizzare la gestione dell’infrastruttura. L’obiettivo non è solo sapere cosa è successo, ma perché è successo, arrivando a tracciare il comportamento dei flussi energetici e termici all’interno del sistema. È un cambio di paradigma che trasforma il monitoraggio in un vero servizio di continuità.
In conclusione, Vertiv, ritiene sia estremamente importante continuare a investire su tre pilastri fondamentali: power ad alta densità, liquid cooling e digital twin/AI per la gestione operativa. Si tratta di investimenti che l’azienda ha già avviato quando il mercato non era ancora maturo e che oggi risultano perfettamente allineati con l’esplosione dell’AI e delle infrastrutture ad altissima densità. L’approccio è quello di “vivere nel futuro” per garantire che le soluzioni implementate oggi siano già pronte per le esigenze di domani, mantenendo in Europa competenze tecnologiche strategiche che rappresentano un valore da preservare.


