AWS Summit 2021

Si sta svolgendo online in questi giorni l’edizione 2021 dell’AWS Summit per l’area Europa, Middle East e Africa, un format completamente digitale per scoprire le ultime novità a livello di strategia e di prodotti del cloud provider ma soprattutto un ricco programma di formazione con oltre 200 sessioni e attività completamente gratuite.

Ad aprire i lavori, il 9 giugno, sono stati Darren Hardman, Vice President e General Manager di AWS UK & Ireland e Dorothy Li, Vice President, AWS Business Intelligence & Analytics.

Fil Rouge della prima giornata, animata anche dalle testimonianze dirette di clienti come Flying Whales, Arcelik Global e DFL Digital Sports, è stato il tema della flessibilità, vero punto di forza di AWS, un fornitore di cloud votato al cliente e ai suoi bisogni, ma anche capace di essere sempre innovativo e orientato da una strategia sul lungo termine.

Il 2020 è stato un anno particolarmente sfidante ed è servito a farci capire un messaggio chiarissimo: il business deve essere flessibile e agile per adattarsi in fretta alle esigenze in continua mutazione dei clienti. AWS cloud conta già centinaia di migliaia di clienti mensili attivi in Europa, Middle East e Africa ed è in continua ascesa proprio grazie alla sua capacità di permettere al business dei clienti di reiventarsi in maniera continua a seconda delle esigenze ìconsentendo di scalare quando c’è necessità di fronte a dei cambiamenti che sono imprevedibili. La flessibilità e l’elasticità sono alla base dell’azione di AWS fin dal giorno della sua nascita e sono due dei sei principi su cui si è basato e continua a basarsi Amazon EC2, lanciato nel 2006, insieme alla sicurezza e all’affidabilità, alla convenienza e alla facilità di utilizzo.

 AWS nel mondo delle applicazioni

La flessibilità su cui si basa AWS permette agli sviluppatori di avere a propria disposizione un tool di strumenti che sia effettivamente adatto alle loro esigenze e al tipo di applicazioni che devono creare o che devono gestire. Il cloud di AWS garantisce la possibilità di creare quello che è necessario fornendo ai clienti la flessibilità di cui hanno bisogno.

“Che si tratti di calcolo o storage, di data base o machine learning, di strumenti per gli sviluppatori o IoT: in ognuna di queste categorie con AWS avete a disposizione molte più funzionalità ed opzioni che altrove” sottolinea Hardman, che poi ha approfondito il discorso di come le opzioni di calcolo date da AWS offrano ai clienti gli strumenti giusti per le loro effettive esigenze per focalizzarsi anche sui servizi di machine learning per l’analisi dello storage, che offrono opzioni flessibili per ottenere dai dati il massimo valore possibile. Focus anche sulle soluzioni ibride che offrono ai clienti la flessibilità per portare i workloads ovunque serva.

Hardman ha poi passato in esame le tre modalità di calcolo oggi possibili: istanze, container e calcolo serverless basato su eventi, tutte offerte da AWS all’insegna della massima flessibilità e frutto dei continui processi di innovazione del fornitore di cloud.

A livello di istanze EC2 ad esempio i problemi legati alla virtualizzazione del software sono stati risolti con il lancio di Nitro, col quale sono state rimosse dal server principale le funzioni di virtualizzazione spostandole sul chip di Nitro portando ad un incremento delle prestazioni e a una riduzione dei costi e permettendo un rilascio continuo e rapido di nuove istanze. D’altronde Amazon ha investito molto nei chip in silicio, con Nitro ma non solo: ricordiamo Graviton2 e i chip per il machine learning (AWS Inferentia e AWS Trainium).

A livello di container (e l’80% dei container nel cloud oggi si trova su AWS) Amazon Web Services propone il servizio Amazon EKS che consente agli ingegneri che già conoscono l’ecosistema Kubernetes di iniziare a lavorare da subito su AWS. AWS supporta dal 2014 con il lancio di Amazon ECS lo sviluppo dei container in modo nativo consentendo di gestire i container usando API nello stesso modo in cui si gestiscono anche le risorse AWS. Un passo ulteriore in avanti è stato fatto con il lancio di AWS Fargate che supporta nell’esecuzione dei container senza dover gestire server o cluster all’insegna della massima semplicità.

Per il computing serverless basato su eventi invece AWS propone Lambda per la creazione di applicazioni senza preoccuparsi di dover gestire i server o i container. Lambda è stato lanciato nel 2014 integrandolo con Amazon SE e DynamoDB offrendo servizi realizzati su misura.

Machine Learing e AI per liberare il potere dei dati

Dorothy Li si è invece focalizzata sulla parte di Analytics e Business Intelligence perché oggi le aziende devono diventare data-driven e solo basandosi sulla raccolta e analisi dei dati è possibile prendere le decisioni più corrette in tempo quasi reale per far continuare a crescere il business. I dati sono infatti un asset prioritario perché creano valore ma per fare questo devono essere classificati e messi a disposizione di chi li ha bisogno con analisi basate sul machine learning e l’intelligenza artificiale.

Il primo step per diventare un’azienda data driven, sottolinea Li, è quello di migrare a un’infrastruttura cloud moderna per poi liberare i dati e renderli accessibili a chi ne ha bisogno, sfruttando appunto la potenza di machine learning e intelligenza artificiale.

La soluzione AWS per coloro che vogliono migrare a un servizio gestito di database è composta da Amazon RDS o Amazon Aurora, un database relazionale MySQL e PostgreSQL compatibile, creato per il cloud, che combina le performance di database commerciali di fascia alta con la semplicità e il rapporto costo-efficacia dei data base open source. Una soluzione migliore potrebbe essere quella di migrare ad un database a costo ridotto e più capace e AWS offre diverse opzioni per i clienti con un database migration service.

Una volta migrata l’infrastruttura per liberare il potere dei dati per prendere decisioni migliori in tempi rapidi occorre che i dati non siano più organizzati in silo ma in veri e propri data lake per sfruttare poi machine learning e AI. Anche qui AWS ha soluzioni per la costruzione di un data lake, a partire da Amazon S3. Amazon RedShift invece è l’unico cloud data warehouse che consente di eseguire query a livello di exabyte, per cui di recente sono state lanciate nuove funzionalità.

Passando a parlare di machine learning e intelligenza artificiale più in senso stretto anche qui AWS offre una proposta flessibile. In AWS si pensa al machine learning come a uno stack in cui ogni livello si basa su quello sottostante e nell’aumentare i livelli dello stack si lavora per ridurre la complessità e semplificare l’uso di ML e AI per un’integrazione anche con le applicazioni proprietarie. L’obiettivo di AWS è quello di creare nuovi tool nell’intero workflow di machine learning che consentano di sviluppare e gestire modelli di machine learning su larga scala. Per quanto riguarda i servizi di intelligenza artificiale possiamo ricordare Amazon Kendra.

Focus sull’Italia

Per l’Italia invece, Carlo Giorgi, Managing Director AWS Italy, ha parlato di una presenza sempre più importante del cloud provider sul nostro territorio culminata lo scorso anno con l’apertura della Region Italiana, che garantisce, tra le altre cose, che i dati del cliente risiedano sul territorio italiano se non è lui stesso a chiedere di spostarli. L’impegno in questo periodo si rivolge molto verso il tema della sostenibilità sia livello di Amazon che a livello di AWS e proprio in Italia si sta lavorando alla costruzione di due parchi fotovoltaici per alimentare in modo green l’infrastruttura AWS nel nostro Paese. L’obiettivo è quello di arrivare a zero emissioni di carbonio entro il 2040.