Le previsioni di Gartner per il 2026 parlano chiaro: con una spesa globale di 80 miliardi di dollari in infrastrutture cloud sovrane, il settore sta entrando in una fase estremamente. Per i responsabili IT la sfida non è più soltanto tecnologica; a guidare la crescita sono oggi priorità strategiche come il controllo dei dati, la resilienza operativa e la gestione del rischio. Pianificare il cloud, dunque, non significa più solo “ottimizzare”, ma compiere scelte ponderate su costi, capacità e posizionamento dei carichi di lavoro.
I recenti risultati dei grandi provider come AWS confermano che la domanda di cloud pubblico resta solida e destinata a crescere ulteriormente dall’avvento dell’IA. La capacità si espande, i servizi si moltiplicano e gli investimenti restano significativi. Questa espansione impone ai leader tecnologici nuove riflessioni. Con carichi di lavoro legati all’intelligenza artificiale sempre più esigenti in termini di memoria e potenza di calcolo, i vecchi presupposti della scalabilità elastica e dei costi prevedibili iniziano a vacillare. Questo accade soprattutto al di fuori delle piattaforme hyperscale, dove la volatilità dei prezzi e i colli di bottiglia nell’approvvigionamento sono più immediati.
Questa pressione è alimentata dalla velocità impressionante con cui la domanda di IA sta passando dalla fase di sperimentazione a quella di produzione. Secondo le analisi di Omdia, nel terzo trimestre del 2025 la spesa globale per le infrastrutture cloud ha raggiunto i 102,6 miliardi di dollari – un incremento del 25% su base annua — spinta dalle imprese che hanno iniziato a scalare i carichi di lavoro legati all’AI nei loro principali sistemi. Come evidenziato da una ricerca di Deloitte, l’intelligenza artificiale non è più limitata a singole applicazioni ma sta diventando uno strato fondamentale dell’intero stack tecnologico aziendale. Questo cambiamento aumenta drasticamente la richiesta di carichi di lavoro ad alta intensità di memoria e calcolo, stravolgendo i presupposti su cui CIO e CTO hanno basato fino ad oggi le proprie previsioni di costi, scalabilità e disponibilità.
L’incertezza sui costi e sulle forniture, creando attriti inaspettati, che i CIO devono gestire, proprio in quei programmi nati per semplificare i processi aziendali. Il risultato? Progetti che subiscono ritardi, budget rivisti in corso d’opera e infrastrutture legacy che restano attive più a lungo del previsto perché le alternative cloud non sono al momento sostenibili o disponibili. Il problema non riguarda solo l’aumento della spesa ma anche un divario sempre più profondo tra le ambizioni tecnologiche delle imprese e ciò che l’infrastruttura sottostante può realisticamente supportare.
Per gran parte dell’ultimo decennio, la strategia dominante è stata la migrazione costante verso il cloud pubblico. Tuttavia, con i carichi di lavoro legati all’IA che pongono richieste incessanti a memoria e potenza di calcolo, tale modello va riconsiderato. I CIO devono saper distinguere tra i processi elastici che traggono beneficio dalla flessibilitò degli hyperscaler, quelli che richiedono un controllo più rigoroso su costi o residenza dei dati e quelli che necessitano di flessibilità per essere spostati rapidamente al variare delle condizioni. Questo scenario sta spingendo le aziende verso un approccio più selettivo, capace di bilanciare cloud pubblico, infrastrutture private e modelli ibridi per gestire costi, performance e rischi.
In termini pratici, i CIO non possono più considerare la collocazione dei carichi di lavoro come una decisione architettonica “una tantum”. È necessaria una visione chiara di quali sistemi siano realmente elastici, quali sensibili ai costi e quali critici per il business. Ciò richiede un esame più attento dei requisiti di memoria e calcolo, previsioni più realistiche sulla volatilità dei prezzi e piani di emergenza per gestire ritardi o carenze di risorse. Evitare architetture rigide (il cosiddetto vendor lock-in) che vincolano i carichi di lavoro a un singolo ambiente è fondamentale: le aziende che ottengono i risultati migliori sono quelle capaci di riequilibrare i carichi, posticipare le richieste non essenziali e proteggere i sistemi critici nei momenti di scarsa capacità o picchi di costo.
In questo scenario, le architetture ibride emergono come la via più pragmatica per molte aziende. Il cloud pubblico continua a essere la scelta migliore per una scalabilità rapida, picchi di capacità improvvisi o accesso a servizi AI gestiti. Al contempo, l’infrastruttura privata offre maggiore prevedibilità su costi, performance e disponibilità per i sistemi critici o ad alta intensità di memoria. I modelli ibridi permettono ai CIO di unire questi punti di forza, posizionando i carichi di lavoro dove è più opportuno e mantenendo la capacità di adattarsi al variare delle condizioni. Se gestito correttamente, questo approccio permette di creare un modello operativo coerente, dove lle scelte infrastrutturali seguono le priorità di business e non viceversa.
Naturalmente, il modello ibrido non è di per sé una panacea. Anche i progetti di cloud privato risentono delle pressioni del mercato globale, in particolare per quanto riguarda la carenza di memoria, i tempi di consegna e i costi. I vincoli hardware non svaniscono semplicemente spostando i carichi di lavoro fuori dalle piattaforme degli hyperscaler. La differenza è che i modelli ibridi offrono alle aziende un maggiore controllo sulla gestione di tali limiti. Diversificando la domanda, pianificando i rilasci in sequenza e mantenendo la capacità di spostare i carichi al variare delle condizioni, i CIO ottengono un margine di manovra che una strategia basata su una singola piattaforma raramente consente. L’obiettivo è evitare che questi vincoli si trasformino in un unico punto di vulnerabilità.
Per i CIO, la strategia cloud è ormai inseparabile dalla gestione del rischio. Le decisioni infrastrutturali influenzano sempre più l’esposizione finanziaria, la resilienza operativa e la conformità con le normative. Di conseguenza, la pianificazione del cloud deve diventare parte integrante della governance aziendale, richiedendo un allineamento più stretto tra IT, uffici finanziari e consigli di amministrazione.
Guardando al futuro, l’intelligenza artificiale continuerà a trainare la domanda mentre i vincoli legati a memoria, potenza di calcolo, energia e catene di fornitura persisteranno. In un simile contesto, i leader tecnologici di successo saranno coloro che sapranno pianificare tenendo conto dell’incertezza, mettere in discussione i propri presupposti per adattarsi a un mercato in continua evoluzione. Il cloud è ormai una presenza fissa nelle aziende moderne; ciò che cambia è il livello di attenzione e di governance necessario per gestirlo e sostenere la crescita senza esporre l’azienda a rischi non necessari.


