Il mercato italiano dei data center è in crescita, pur con un ritardo rispetto ad altri Paesi europei, dovuto all’arrivo tardivo degli hyperscaler e all’importanza crescente della sovranità dei dati oltre che per importanti rallentamenti burocratici. Tuttavia, l’Italia si sta rapidamente avvicinando ai grandi investimenti internazionali, con un mercato vivace e in espansione.
Negli ultimi 20 anni infatti la tecnologia si è fortemente evoluta passando da basi tecnologiche fino a sistemi avanzati con data center in grado di supportare i paradigmi dell’intelligenza artificiale.
“L’impatto della crescita dell’intelligenza artificiale sulle infrastrutture è paragonabile ad una persona che, passando dal camminare al voler correre una maratona, ha bisogno di nuove risorse: non basta più solo bere acqua, servono scarpe idonee, un’adeguata preparazione, integratori ed abbigliamento tecnico performante. Allo stesso modo nel mondo tecnologico dove in passato bastava aumentare gradualmente la capacità dei sistemi, oggi la domanda è per potenze dieci volte superiori rispetto a pochi anni fa” ha spiegato Stefano Mozzato, vice president marketing EMEA di di Vertiv.
Nei primi anni 2000 infatti, un rack di server consumava circa 20 kW, equivalente all’energia di dieci asciugacapelli accesi alla massima potenza. Oggi invece si arriva a consumi di oltre 120 kW per rack, un livello praticamente ingestibile con il tradizionale raffreddamento ad aria.
Per questo motivo, si è adottato il raffreddamento a liquido che ha una capacità termica superiore dell’area, permettendo così di rimuovere più rapidamente il calore generato da CPU e GPU. Si stima infatti una riduzione del consumo energetico globale: il risparmio è tra il 30–40% e fino anche al 10–15% di miglioramento nel PUE. Inoltre i nuovi data center con raffreddamento a liquido raggiungono temperature più alte (40-50°C), rendendo più facile il riutilizzo del calore. In futuro si potrebbe pensare di utilizzare questo calore per usi civili, come il teleriscaldamento.
Il raffreddamento a liquido cambia però radicalmente il modo in cui i data center vengono progettati e gestiti. A differenza del raffreddamento ad aria, che è relativamente semplice, il raffreddamento a liquido richiede tubi per il passaggio del fluido e sistemi di distribuzione complessi per bilanciare il flusso di raffreddamento. Queste infrastrutture necessitano quindi competenze specializzate per l’installazione e la manutenzione, oltre a una pianificazione accurata.
“Di recente è nata una falsa percezione riguardo al consumo di acqua da parte dei data center: in realtà, la maggior parte di essi non utilizza acqua per il raffreddamento. Alcuni data center situati negli Stati Uniti e in Europa adottano sistemi di raffreddamento adiabatici che impiegano acqua, ma in Italia ne esistono soltanto due, e anche questi stanno gradualmente riducendo il loro utilizzo” ha aggiunto Stefano Mozzato facendo poi riferimenti agli effettivi consumi dei data center.
Se da una parte l’AI richiede molta energia per l’elaborazione, dall’altra aiuta anche ad ottimizzare i consumi. L’energia consumata per la gestione dei dati è infatti giustificata dal valore aggiunto che genera, e spesso è meno impattante di soluzioni tradizionali.
Implementazione e gestione
Oggigiorno il funzionamento dei data center moderni non si limita alla semplice installazione di server, ma implica una gestione precisa e professionale, soprattutto quando si parla di impianti con decine di migliaia di GPU, come quelli utilizzati per le cosiddette “fabbriche di intelligenza artificiale”. Questi ambienti operano come vere e proprie catene di montaggio di dati, combinando byte e informazioni per generare contenuti complessi.
In tali contesti, dal punto di vista tecnico, la distribuzione dell’alimentazione elettrica è un aspetto critico. Non si tratta di semplici cavi, ma di sistemi complessi come le busbar, che gestiscono potenze di decine di megawatt. Un malfunzionamento anche minimo potrebbe bloccare l’intero centro dati, rendendo necessarie soluzioni tecnologiche avanzate e affidabili.
“La costruzione e la gestione infrastrutture complesse non nasce da scelte improvvisate o recenti, ma deve derivare da anni di progettazione e sviluppo come ha fatto Vertiv: investimenti continui in ricerca e sviluppo, acquisizioni strategiche di aziende e sistemi di distribuzione elettrica testimoniano un percorso iniziato oltre un decennio fa, volto a sostenere il crescente fabbisogno di potenza e affidabilità richiesto dall’intelligenza artificiale e dalle tecnologie digitali moderne” ha sottolineato Stefano Mozzato.