Cloud

A cura di Maurizio Canton, CTO, TIBCO Software Emea

All’interno delle aziende, negli ultimi dieci anni, la componente IT è sempre stata responsabilità primaria del CIO (Chief Information Officer) e dei suoi riporti. L’obiettivo di questa organizzazione è sempre stato quello di creare un’infrastruttura molto solida e affidabile in termini di piattaforma IT, con una focalizzazione su progetti medio/grandi (ESB, ERP, sistemi HR e via dicendo). Di fatto, questa situazione ha però creato problemi all’interno delle società, dando vita a un ambiente IT da un lato molto solido, ma dall’altro estremamente complesso per quanto riguarda i cambiamenti. Con l’avvento della Digital Economy, dell’IoT, della “democratizzazione” dell’IT con DevOps (cioè la collaborazione tra sviluppatori di software e addetti alle operations) e con le LOB (Line of Business) che adesso controllano parte del budget IT, si è venuta a creare un’esigenza di agilità e velocità nella sperimentazione di nuove soluzioni, senza dover per forza attendere l’aiuto del personale specializzato IT. Ne consegue che, mentre l’organizzazione IT è ancora focalizzata sulla parte Core (progetti ESB, ERP, HR ecc.), le LOB puntano maggiormente su soluzioni Edge (cioè periferiche), dove l’utilizzo di nuove tecnologie quali Cloud, Container, API, Cloud Ibrido, SaaS e IoT consentono loro di implementare soluzioni di business veloci e non costose. Il vantaggio di questo tipo di soluzioni è quello di permettere alle LOB di testarle velocemente sul mercato e, nel caso, “fail fast” (cioè raggiungere rapidamente la conclusione che quanto è stato scelto non funziona) senza spendere troppe energie, tempo e risorse.

IoT e volumi di dati

Parlando di IoT, ci sono due punti fondamentali da tenere in considerazione. Il primo riguarda la connettività e il volume dei dati: quando si parla di IoT, si cita sempre il numero di dispositivi che saranno online nel 2030 o 2050. Si tratta di numeri che variano da analista ad analista e vanno da 30 miliardi di dispositivi fino a 50, 70, 120. La sensazione che se ne ricava è che nessuno abbia realmente idea di quanti device saranno effettivamente collegati in una certa data. A causa della quasi totale “ottusità” (cioè non-intelligenza) dei singoli dispositivi, questo può creare o meno problemi di connessione e gestione, oltre che di sicurezza. I problemi di connessione e gestione sono superabili, ne sono convinto, con l’avvento di reti sempre più intelligenti e sistemi di gestione sempre più sofisticati. Il volume e la qualità dei dati preoccupano invece un po’ di più, in quanto la maggioranza dei dati spediti da questi dispositivi non verrà mai utilizzata, poiché sono “inutili” dal punto di vista delle informazioni che contengono. Per esempio, un rivelatore di temperatura di una pompa idraulica continuerà a emettere un valore in gradi centigradi e questo valore non ha alcun utilizzo valido, almeno fino al momento in cui la temperatura comincia a salire e si deve attivare un allarme. Tutti i dati precedenti sono, in teoria, “inutili”, ma con le architetture IoT tali dati vengono comunque inviati a un server nel cloud o on-premises e impacchettati da qualche parte in un database. A questo punto, immaginiamo di fare la stessa cosa con 50 miliardi di dispositivi e tutte le altre applicazioni mondiali nel cloud e on-premises.

È per questo che TIBCO Flogo crea l’edge computing per il cloud, dando la possibilità di gestire questi dati e il processo di analisi collegato laddove il device risiede, generando solo le informazioni importanti e così eliminando tutti i rischi di intasamento dei dati e delle connessioni, scongiurando la necessità di reti di computer ad altissime prestazioni e di database enormi. Qualsiasi device, anche il più piccolo, con Project Flogo ha adesso la capacità di processo e l’intelligenza per gestire i dati on-premises (cioè nel punto dove il dispositivo è installato) e segnalare solo le anomalie necessarie. Va da sé che, essendo il device più “intelligente”, può essere anche protetto al meglio con librerie di sicurezza e algoritmi che utilizzano TIBCO Flogo come sistema operativo di processo.

I perché del cloud ibrido

Per comprendere quello che accade a livello di business, oggi si può agire con la Augmented Intelligence, un modo per avere una visibilità intelligente proprio di questi aspetti, sia per le persone che per i dispositivi. Utilizzando la porzione di big data disponibile, si cerca di capire il comportamento del business, delle persone (clienti, partner, pubblico con i social media) e delle macchine in generale (app, computer, reti IoT ecc.), per creare dei modelli di riferimento (utilizzando il modello TERR, TIBCO Enterprise Runtime for R, o altri) di questi comportamenti e averli disponibili in memoria. Attraverso lo streaming analytics si riesce poi ad analizzare in tempo reale quanto sta accadendo in riferimento ai modelli creati precedentemente. Così, si ha la possibilità di capire in anticipo quello che sta per succedere e prendere le necessarie contromisure o azioni correttive. Una procedura molto efficace nel caso, per esempio, della manutenzione preventiva, nella gestione dell’IoT, nel fornire un servizio personalizzato a ciascun cliente, nel gestire ritardi, cancellazioni, perdita e consegna dei bagagli (airline disruption) per le compagnie aeree, per il risk management e la fraud detection nell’ambiente bancario e finanziario in generale. Scegliendo un’infrastruttura di cloud ibrido, le imprese sono attirate dall’opportunità di sfruttare sia il cloud pubblico che quello privato, e lo fanno sulla base del presupposto logico di poter ottenere il meglio di entrambi i mondi. Il rischio può essere quello di creare nel cloud dei silos che intrappolando dati fondamentali per il business. Dall’altra parte, spostando l’architettura cloud da un modello centralizzato a uno edge si ottiene una distribuzione migliore e un’infrastruttura meglio equipaggiata per risolvere guasti e interruzioni nei sistemi, che potrebbero generare costi importanti.