Il 2025 ha messo in luce la fragilità di molte strategie di virtualizzazione e il fatto che molte organizzazioni si trovino bloccate all’interno di processi non più ottimali per loro. Anni di crescita incrementale hanno portato i CxO ad accumulare tecnologie che oggi risultano improvvisamente costose da gestire, difficili da dismettere e sempre più lontane dal ritmo di cambiamento imposto da AI e modernizzazione digitale, a causa del loro DNA ancora radicato nel passato. L’inizio del 2026 vedrà aumentare la pressione per disaccoppiare i carichi di lavoro critici dagli hypervisor legacy, alimentata dall’aumento dei costi di rinnovo, dalle preoccupazioni per la concentrazione dei servizi nelle mani di pochi provider e da una maggiore attenzione alla resilienza operativa. Non sarà solo una spinta a modernizzare le macchine virtuali per guadagnare efficienza, ma la migrazione delle VM potrà essere considerata come un meccanismo strategico per ridurre il debito tecnico, recuperare il controllo architetturale e creare una piattaforma capace di supportare sia i carichi di lavoro attuali sia quelli futuri. Se si incentrerà il cambiamento sui rinnovi, ci si accorgerà presto che il problema sta nel modello operativo, non nella tecnologia.
Coesistenza dei carichi di lavoro di AI e delle VM tradizionali
Nel 2025 la maggior parte delle imprese ha gestito virtualizzazione e AI come ambiti separati, sia operativamente sia architetturalmente. All’inizio del 2026 quella separazione diventa insostenibile: le organizzazioni vogliono eseguire fianco a fianco carichi di lavoro mission‑critical e inferenza AI ad alta intensità di dati, senza duplicare l’infrastruttura né creare strutture operative parallele. Questo richiede un approccio alla virtualizzazione che riconosca le VM sia come obiettivo di consolidamento sia come parte di un livello di esecuzione più ampio per l’AI, spingendo i team di piattaforma a garantire una gestione del ciclo di vita, un’osservabilità e una governance coerenti per entrambe le tipologie di applicazioni. In questo caso il cambiamento non è tecnico: è soprattutto culturale. Le aziende dovranno integrare le discipline operative dell’AI direttamente nelle piattaforme che gestiscono i carichi di lavoro esistenti, invece di creare nuovi silos per accoglierle.
Consolidamento delle piattaforme e spinta a ridurre il debito tecnico
La tendenza osservata nel 2025 — piattaforme che si moltiplicano più rapidamente di quanto i team riescano ad assorbirle — rischia di arrivare a un punto di rottura nel 2026. La continua revisione dei budget, le aspettative di sovranità e la carenza di ingegneri qualificati stanno convergendo in un mandato chiaro: semplificare l’esistente o trovarsi ad affrontare una fragilità costante. Virtualizzazione e modernizzazione delle applicazioni saranno sempre più considerate strumenti per unificare, non solo per migrare. Le organizzazioni stanno ora cercando attivamente di consolidare gli ambienti di esecuzione, ridurre i passaggi di consegna e allineare i modelli operativi tra applicazioni legacy e cloudnative. Avrà successo chi considererà la progettazione della propria piattaforma come una trasformazione organizzativa, non come un semplice aggiornamento dell’infrastruttura, investendo in competenze, ingegneria di piattaforma e governance tanto quanto nella tecnologia. In caso contrario, il rischio è quello di aumentare ulteriormente la complessità proprio quando il costo per gestirla diventa insostenibile.
Competenze, modelli operativi e modernizzazione per la resilienza
Nel 2026, una chiave del successo per le organizzazioni sarà la capacità di riconoscere che la modernizzazione riguarda persone, responsabilità e diritti decisionali almeno quanto il codice e la capacità di calcolo. I programmi di virtualizzazione, nati per ridurre il capex tramite il consolidamento dei server, sono oggi guidati dall’opex e puntano soprattutto a garantire resilienza operativa e piattaforme affidabili. Questo cambiamento richiede team più autonomi, più vicini ai carichi di lavoro che supportano, con una responsabilità sul ciclo di vita che va ben oltre la fase iniziale di rilascio. Le organizzazioni che impostano una governance efficace, dotano i team degli strumenti per gestire carichi integrati di virtualizzazione e AI e includono l’exit planning nella strategia di piattaforma non solo gestiranno le pressioni su costi e resilienza, ma le trasformeranno in una leva per riconquistare agilità strategica.
Cosa eseguire dove, come e perché
Nel 2025 la domanda più ricorrente per i team di piattaforma sembrava semplice: «cosa eseguire dove, come e perché?». In realtà sta diventando la decisione strategica che definirà il 2026. Con carichi di lavoro in crescita, aspettative di resilienza più stringenti e costi in aumento, le scelte infrastrutturali non sono più una mera pianificazione tattica: il posizionamento dei carichi si allinea all’intento di business, alla tolleranza al rischio e alla gravità dei dati. Ci si aspetta un passaggio dalle strategie «cloud first» o «onprem di default» a modelli di implementazione situazionali che, per ogni carico, valutano latenza, sovranità, flessibilità di uscita e maturità operativa. Il «come» conta quanto il «dove»: le organizzazioni standardizzeranno sempre più l’orchestrazione e la gestione del ciclo di vita tra gli ambienti, per evitare silos operativi e carichi di lavoro isolati. E, in modo decisivo, il «perché» si concentrerà sulla realizzazione del valore e sulla resilienza: i consulenti stanno già mettendo in discussione se i carichi di lavoro giustifichino il costo di un’infrastruttura premium, se richiedano davvero adiacenza alle GPU o semplicemente la prevedibilità di una loro disponibilità, e se rafforzino o erodano l’autonomia operativa di lungo periodo. Chi integrerà questo processo decisionale nella strategia di piattaforma, anziché nella pianificazione dei singoli progetti, si muoverà più rapidamente ed eviterà un debito architetturale che altrimenti potrebbe richiedere anni per essere affrontato con successo.
A cura di Ed Hoppitt, EMEA Director – Value Strategy, App and Cloud Platforms, Red Hat


