Ridurre l’incertezza in un mondo virtuale

Più si conosce, più si può essere sicuri

La sicurezza, nella sua accezione più semplice, si riduce nel comprendere la propria esposizione, nel cercare di mitigarla rispetto ai potenziali rischi e nel risolvere i problemi che emergono o che vengono comunque evidenziati. E’ un processo abbastanza chiaro, se si sa come affrontare le sfide che sorgono, ma nella realtà molte organizzazioni non comprendono realmente i propri livelli di esposizione o le funzionalità di sicurezza che sono a loro disposizione. Questi aspetti, spesso oscuri, rappresentano potenziali minacce, che creano parecchie preoccupazioni ai CIO.

Con il 50% dei carichi di lavoro dei server attualmente virtualizzati (una percentuale che continua a crescere), la sicurezza negli ambienti virtuali è un problema costante per tutte le organizzazioni. Anche se le minacce alla sicurezza in un ambiente virtuale non sono più pericolose rispetto alle infrastrutture tradizionali, ad essere differente è il modo in cui le aziende trattano queste preoccupazioni.

Uno dei principali vantaggi della virtualizzazione è rappresentato dalla velocità e dalla flessibilità con cui gli utenti possono creare macchine virtuali. Questo punto di forza si trasforma però in una criticità di sicurezza quando i nuovi workload non possono essere tracciati e gestiti, proprio per la velocità della loro implementazione. Con un numero di workload virtuali sempre maggiore, con diversi livelli di sicurezza e sempre più mobili, diventa sempre più importante affrontare le problematiche di sicurezza associate alla virtualizzazione.

Una grande azienda internazionale con cui siamo recentemente entrati in contatto ha scoperto l’esistenza nella propria architettura IT di migliaia di macchine virtuali finora del tutto ignote. Questo scenario sarebbe stato impensabile, o del tutto impossibile, in un ambiente non virtuale. La presenza di una virtualizzazione non gestita è endemica nelle aziende di grandi dimensioni. Gli sviluppatori che cercano di trarre vantaggio dai modelli di virtualizzazione e open hybrid cloud possono creare ambienti e portarli online rapidamente; ma altrettanto rapidamente possono abbandonarli, spesso lasciandoli dimenticati e “dormienti”.

Spesso si imputa all’amministrazione dei sistemi la colpa di rallentare i processi di business. Grazie alle disponibilità di funzionalità di self-service, si è visto un incremento del numero di persone all’interno di un’azienda che ordinano servizi IT. Per il business questo può sembrare un vantaggio, perché permette tempi di risposta più rapidi, ma spesso in questo caso il focus non è necessariamente sulla creazione di ambienti sicuri, nella convinzione errata che gli amministratori IT o i responsabili dei sistemi possano comunque mantenere tutto sotto controllo.

Queste “zone d’ombra” rappresentano reali minacce per i professionisti della sicurezza IT, per il semplice motivo che non si può gestire ciò che non si conosce. Il problema non è solo relativo al mondo open source, ma riguarda anche ogni ambiente proprietario. Uno degli approcci più adottati per risolverlo è quello di utilizzare un Virtualization Manager per la gestione degli ambienti virtualizzati e fare in modo che le regole di sicurezza e compliance possano essere controllate su tutte le piattaforme di virtualizzazione di cui sia stato effettuato il provisioning.

I fornitori di sistemi proprietari vi diranno che l’open source è difficile da controllare perché tanti differenti elementi possono influenzarne il codice. Tuttavia il vantaggio di utilizzare l’open source per la virtualizzazione sta nella sua totale trasparenza: con più persone che possono accedere al codice, è più difficile che gli errori si insinuino nell’ambiente di produzione. Lo sviluppo avviene nelle community specializzate e questa conoscenza va a vantaggio dell’intero ecosistema. Con migliaia di occhi che possono esaminare il codice, bug ed errori possono essere identificati ed eliminati più rapidamente.

In un mondo ideale, la sicurezza dovrebbe essere integrata nell’architettura IT fin dall’inizio, lasciando all’azienda la definizione dei processi di compliance. Tuttavia, avere i processi giusti per garantire che le esposizioni ai rischi vengano evidenziate non è per forza una cosa comune. Costruire partendo dalla base pone problematiche importanti, perché gli sviluppi da zero non sono la norma, anzi. La gran parte delle architetture IT infatti si sono evolute nel tempo: la vera sfida è rappresentata dalla decisione da parte di un’azienda di abbracciare la virtualizzazione e migrare i suoi processi.

Nel caso di implementazioni incrementali, si trovano già complessi sistemi proprietari e quindi i CIO devono tener presenti una varietà di questioni di sicurezza quando devono implementare risorse virtuali. Innanzitutto, il fatto che l’host/hypervisor debba esser considerato un’area primaria di attenzione, perché rappresenta spesso un single point of failure per le macchine ospiti ed i loro dati. Anche le risorse ed i sistemi possono essere difficili da tracciare e mantenere; assieme alla rapida implementazione dei sistemi virtuali deriva una maggiore necessità di gestione delle risorse, con livelli sufficientemente elevati di patching, monitoraggio e manutenzione.

La virtualizzazione in sé non elimina nessuno dei rischi tradizionali di sicurezza presenti in un ambiente IT: è l’intero stack a dover essere reso sicuro, e non solo il layer di virtualizzazione. Può anche esserci una carenza di conoscenze tra il personale, lacune nelle competenze e/o un’esperienza insufficiente da parte dello staff tecnico. Questo può rappresentare una possibile porta d’accesso rispetto alle vulnerabilità, mentre risorse come lo storage possono essere distribuite, e dipendere, da più macchine distinte. Questo può condurre ad ambienti sempre più complessi ed a sistemi gestiti e manutenuti in modo insufficiente.

Per affrontare il percorso verso la virtualizzazione e poi proseguire verso un mondo basato sull’hybrid cloud e su più hypervisor, due considerazioni sono fondamentali dal punto di vista della sicurezza. Innanzitutto, si dovrebbe decidere, per quanto possibile, di utilizzare per le proprie implementazioni una piattaforma di base progettata in partenza con grande attenzione per la sicurezza. L’open source basato su una tecnologia come SELinux offre in questo senso grande valore immediato, bloccando l’hypervisor e isolando le macchine virtuali. Secondariamente, si dovrebbe riacquistare una visione sull’implementazione virtuale, per comprendere i rischi reali correlati. Una tecnologia di gestione delle attività nel cloud, come Red Hat CloudForms, può aiutare ad indirizzare i propri processi e le proprie policy di sicurezza, sia su VMware che su OpenStack, ed ottenere nuovamente una visuale completa dei propri ambienti.

In tema di sicurezza, più si conosce, più si può essere sicuri. Avere a disposizione una vista ed un controllo completo della propria infrastruttura IT riduce gli elementi di incertezza ed aiuta i CIO a dormire sonni più tranquilli.

 

Frederik Bijlsma, EMEA Cloud Business Unit Manager, Red Hat