I sistemi virtuali non sono protetti in maniera adeguata. Il dato emerge dal sesto Symantec Disaster Recovery Study, ricerca annuale realizzata dallo specialista di sicurezza, che ha messo in luce come l’utilizzo di molteplici strumenti per gestire i dati è causa di difficoltà per i responsabili dei data center. In particolare, il 58% degli intervistati (oltre 1.700 It manager di grandi aziende in 18 Paesi) ha dichiarato che l’aver riscontrato problemi nella protezioni di applicazioni mission-critical, in ambienti fisici e virtuali, rappresenta una sfida per la propria azienda.
L’analisi evidenzia che quasi la metà (44%) dei dati presenti sui sistemi virtuali non viene sottoposta a regolare backup e solo un intervistato su cinque usa tecnologie di replication e failover per proteggere gli ambienti virtuali. Gli intervistati hanno, inoltre, indicato che il 60% dei server virtuali non è incluso nel piano di disaster recovery. Nel 2009, la quota si fermava al 45%.
Per il 50% dei rispondenti, poi, le applicazioni mission-critical girano sulla nuvola, fattore che genera preoccupazione nei due terzi degli interpellati dal punto di vista della sicurezzza. In ogni caso, per il 55% l’impegno più grande dal punto di vista del cloud computing e dello storage è la capacità di controllare i failover e di rendere le risorse altamente disponibili.
Nell’82% dei casi, il backup viene eseguito solo una volta a settimana se non meno frequentemente. Risorse limitate, carenza di capacità storage e utilizzo insufficiente di soluzioni di protezione più avanzate ed efficienti sono elementi che frenano il rapido sviluppo degli ambienti virtuali. Il 50% degli intervistati impiega metodi avanzati (clientless) per ridurre l’impatto dei backup sulle macchine virtuali.
Lo studio mostra, inoltre, come il tempo necessario per eseguire un recovery dopo un’interruzione di servizio duri il doppio del tempo rispetto alle aspettative degli intervistati e che, negli ultimi 12 mesi, le aziende hanno subito in media quattro incidenti con conseguenti interruzioni di servizio.
Tra le cause più frequenti che hanno portato a fenomeni di downtime negli ultimi cinque anni spiccano l’upgrade del sistema, interruzioni di corrente, guasti e cyber attacchi.
Solo il 26% delle imprese intervistate, infine, ha condotto delle valutazioni sull’impatto effettivo dovuto a un’interruzione di corrente o a un guasto.