HPE pensa alle esigenze operative dell’exascale computing

Con il National Renewable Energy Laboratory del Dipartimento statunitense di Energia ha avviato un progetto di R&D su AI Ops

Per migliorare efficienza energetica, sostenibilità e resilienza dei data center, HPE ha avviato un progetto di R&D su AI Ops che prevede una collaborazione pluriennale con il National Renewable Energy Laboratory del Dipartimento statunitense di Energia.

Obiettivo: sviluppare tecnologie di intelligenza artificiale (AI) e machine learning (ML) per l’automazione e il perfezionamento dell’efficienza operativa – compresi resilienza e consumi energetici – nei data center per l’era dell’exascale.

L’iniziativa rientra nella mission del NREL quale leader mondiale nelle tecnologie per l’efficienza energetica e le energie rinnovabili, per la creazione e implementazione di nuovi approcci alla riduzione dei consumi di energia e all’abbattimento dei costi operativi.

Nello specifico, all’interno della collaborazione triennale è prevista l’introduzione di tecniche di monitoraggio e analytics predittive all’interno dei sistemi di alimentazione e raffreddamento dell’HPC Data Center situato presso l’Energy Systems Integration Facility (ESIF) del NREL.

HPE e NREL dispongono di dati raccolti in oltre cinque anni per un totale di più di 16 terabyte provenienti dai sensori presenti nei supercomputer NREL, Peregrine ed Eagle, e nella propria facility per addestrare i modelli di rilevamento delle anomalie allo scopo di prevedere e prevenire i problemi prima che si verifichino.

Attenti a parametri come PUE, WUE e CUE

La collaborazione affronterà anche il futuro dei consumi di acqua ed energia all’interno dei data center, consumi che solamente negli Stati Uniti raggiungeranno rispettivamente i 73 miliardi di kWh e 174 miliardi di galloni (circa 660 miliardi di litri d’acqua) entro il 2020. HPE e NREL si concentreranno sul monitoraggio dei consumi energetici per ottimizzare l’efficienza e la sostenibilità misurata da parametri come PUE (Power Usage Effectiveness), WUE (Water Usage Effectiveness) e CUE (Carbon Usage Effectiveness).

I primi risultati ottenuti dai modelli basati sui dati storici sono riusciti a prevedere o identificare con successo eventi già accaduti in passato all’interno del data center NREL, dimostrando quanto possa essere promettente l’impiego dell’analytics predittiva nei data center del futuro.

Il progetto AI Ops è scaturito dal lavoro di ricerca e sviluppo di HPE nell’ambito di PathForward, un programma sostenuto dal Dipartimento statunitense dell’Energia per accelerare la roadmap tecnologica nazionale in direzione dell’exascale computing, che rappresenta il prossimo grande balzo nel campo dei supercomputer. HPE si è resa conto della necessità di sviluppare capacità di automazione e AI per poter gestire e ottimizzare gli ambienti data center exascale. Applicare operazioni basate su AI a un supercomputer exascale – che lavorerà a velocità un migliaio di volte superiori rispetto a quelle dei sistemi attuali – permetterà di rendere le operazioni efficienti dal punto di vista energetico e migliorare le caratteristiche di resilienza e affidabilità per mezzo di capacità automatiche e smart.

Il progetto si avvarrà di software e librerie open source come TensorFlow, NumPy e Sci-kit per sviluppare algoritmi di machine learning.

Il progetto si concentrerà sulle seguenti aree:

  • Monitoraggio: raccolta, elaborazione e analisi di enormi volumi di dati relativi a IT e facility da fonti diverse prima dell’applicazione degli algoritmi ai dati in tempo reale.
  • Analytics: tecniche di big data analytics e machine learning saranno utilizzate per analizzare i dati da diversi tool e dispositivi all’interno di tutto il data center.
  • Controllo: saranno applicati algoritmi per permettere alle macchine di risolvere i problemi autonomamente oltre che per automatizzare intelligentemente attività ripetitive ed effettuare manutenzione predittiva sia sull’IT sia nella struttura del data center.
  • Operazioni di data center: AI Ops evolverà per diventare un tool di convalida per le attività CI (Continuous Integration) e CD (Continuous Deployment) delle funzioni IT base presenti nella struttura di un data center moderno.

HPE prevede di dimostrare ulteriori funzionalità in futuro con l’ampliamento del sistema HPE High Performance Cluster Management (HPCM) in maniera tale da poter effettuare tutte le procedure di provisioning, gestione e monitoraggio di cluster scalabili fino a 100.000 nodi a velocità superiori. Altri test previsti comprendono l’esplorazione dell’integrazione di HPE InfoSight, un tool di gestione AI-driven basato su cloud che monitora, raccoglie e analizza dati relativi all’infrastruttura IT. HPE InfoSight viene adoperato per prevedere e prevenire probabili eventi mantenendo lo stato di salute complessivo delle prestazioni di un server.

Come riferito in una nota ufficiale da Mike Vildibill, vice president dell’Advanced Technologies Group di HPE: «Abbiamo la passione di sviluppare nuove tecnologie che impatteranno sulla prossima era dell’innovazione con l’exascale computing e le relative esigenze operative. Siamo convinti che il nostro percorso verso lo sviluppo e i test AI Ops con NREL, uno dei nostri partner storici più innovativi, permetterà al settore di creare e mantenere data center per supercomputing più efficienti e smart continuando a scalare potenza e prestazioni».

Per Kristin Munch, manager del Data, Analysis and Visualization Group del National Renewable Energy Laboratory (NREL): «La nostra collaborazione tocca la ricerca nelle aree della gestione dei dati, della data analytics e dell’ottimizzazione AI/ML per gli interventi sia manuali sia autonomi nelle operazioni dei data center. Siamo entusiasti di collaborare con HPE in questa iniziativa pluriennale e contiamo di poter creare le condizioni per un data center smart e avanzato dopo averne dimostrato le tecniche nel nostro data center attuale».