• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    • Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba
    • Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky
    • Cloud italiano: tra sovranità digitale e competitività
    • Storage intelligente: la chiave di volta per i data center moderni
    • TeamViewer ONE: la piattaforma unificata che rivoluziona il Digital Workplace
    • Design responsive: ecco perché è diventato un must in tutti i settori
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»HPC e AI: tre visioni sul futuro da E4 Computer Engineering

    HPC e AI: tre visioni sul futuro da E4 Computer Engineering

    By Redazione LineaEDP13/02/20257 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Secondo Giordano Mancini di E4 Computer Engineering, il settore HPC e AI si suddivide in tre aree principali, che descrive nel dettaglio

    HPC

    In questo articolo, Giordano Mancini, CTO E4 Computer Engineering parla del futuro del mondo HPC e AI. Il CTO individua e analizza le tre aree chiave che plasmeranno il futuro del settore: Realistica, Alternative emergenti e Fantascienza.

    Buona lettura!

    Realistica, alternativa, fantascientifica. Tre visioni sul futuro di AI e HPC

    Niels Bohr, uno dei padri della meccanica quantistica, pare che una volta abbia detto: “Le previsioni sono molto difficili, soprattutto se riguardano il futuro”.

    Non potrei essere più d’accordo…

    Ciononostante, mi sono permesso di identificare alcune possibili linee di sviluppo, incentrate soprattutto sul mondo HPC e AI e suddivise in tre aree: Realistica, Alternative emergenti e Fantascienza.

    Realistica

    L’efficienza energetica e l’impronta di carbonio influenzeranno HPC e AI

    L’HPC è un settore ad alta intensità energetica. I più recenti supercomputer presenti in Top500 consumano tra i 20 ed i 30 MW e Il consumo totale di elettricità dei data center potrebbe raggiungere più di 1.000 TWh entro il 2026 (fonte: AIE). Questa energia deve essere prodotta in impianti le cui dimensioni incideranno sulla rete energetica locale sfidando le tecniche di ottimizzazione e riuso del calore che sono state sviluppate nel corso degli anni. Su scala più ridotta, i costi di adozione delle infrastrutture HPC nelle aziende e nella ricerca saranno sempre più connessi ai vincoli posti dalle tecnologie attuali e future. Questo cambia il modo in cui gli utenti HPC accedono alle risorse: se in precedenza il” time to solution” e il “problem size” erano gli unici criteri, la possibilità di prevedere l’impatto energetico di un determinato calcolo in condizioni diverse e la possibilità di allocarlo su risorse diverse anche in base a considerazioni energetiche sarà sempre più comune. Ciò richiede l’impiego di strumenti di monitoraggio in grado di sfruttare l’A per comprendere la natura delle anomalie. Il progetto ExaMon, ad esempio, è uno strumento di questo tipo che fornisce indicazioni rapide per decisioni tempestive e controllo ottimale, integrando tecniche avanzate di data engineering e innovazioni nel data processing. I dati generati sono facilmente analizzabili con ML e AI.

    Le risorse disaggregate e la gestione dinamica delle risorse saranno ampiamente adottate

    La gestione dinamica delle risorse e l’uso di soluzioni disaggregate e componibili sono essenziali per ottimizzare le prestazioni e l’efficienza dei sistemi HPC e AI. La disaggregazione unisce le prestazioni e la specializzazione del bare metal alla flessibilità e all’adattabilità della virtualizzazione e dell’astrazione. La crescente eterogeneità e la natura dinamica dei calcoli eseguiti sulle infrastrutture HPC richiedono metodi dinamici e in grado di adattarsi a diverse esigenze per l’allocazione delle risorse e un sistema flessibile ed efficiente dal punto di vista energetico.  Nelle infrastrutture informatiche federate, ciò può supportare meccanismi avanzati di tolleranza ai guasti, tra cui processi di ripristino automatizzati e riallocazione delle risorse, nonché il reindirizzamento delle applicazioni tra i centri.

    Su scala più ampia, il futuro sarà probabilmente rappresentato dai tessuti fotonici, dati i vantaggi che offrono in termini di latenza, capacità di scalare e potenza.

    Mixed precision HPC

    Il futuro del calcolo scientifico FP64 si trova di fronte a sfide, poiché l’hardware dà sempre più priorità alla precisione mista per l’efficienza energetica e le prestazioni soprattutto per l’inferenza in ambito AI. Gli acceleratori moderni, come le GPU e le TPU, ottimizzano i formati a bassa precisione (ad esempio, FP16, FP8) per i carichi di lavoro dell’intelligenza artificiale, riducendo il supporto per la tradizionale doppia precisione (FP64). Questo cambiamento rappresenta un rischio per i campi scientifici che richiedono calcoli ad alta precisione, come le simulazioni, la modellazione climatica e la fisica quantistica. Per colmare questo divario sono necessari nuovi algoritmi che sfruttino la precisione mista senza compromettere l’accuratezza. Le tecniche di compensazione degli errori e le strutture di precisione adattive sono soluzioni emergenti. Tuttavia, garantire la riproducibilità, la stabilità e l’affidabilità dei risultati scientifici rimane un ostacolo critico in questa transizione.

    Alternative emergenti (ovvero oltre la legge di Moore)

    Le reti neuromorfiche diventeranno una realtà

    I processori e gli acceleratori tradizionali basati su semiconduttori per l’HPC e l’AI continueranno a essere utilizzati perché rappresentano un ottimo compromesso in termini di costi, efficienza, prestazioni, disponibilità, disponibilità dell’intero stack, ecc. Ma questi componenti incontreranno molto presto dei limiti fisici per la miniaturizzazione e diversi ostacoli potrebbero limitare qualsiasi ulteriore evoluzione.

    Credo assisteremo presto a progressi significativi nelle applicazioni reali dell’informatica neuromorfiche, un paradigma ispirato alla struttura e al funzionamento delle reti neurali biologiche, che imita la capacità del cervello umano di elaborare le informazioni in modo efficiente, adattivo e a basso consumo energetico. L’informatica neuromorfa sta per diventare una tecnologia matura, basata su architetture hardware progettate per emulare i neuroni e le sinapsi, come le reti neurali spiking (SNN), che elaborano grandi insiemi di dati ed eseguono operazioni come le moltiplicazioni matriciali, che sono fondamentali per gli algoritmi di intelligenza artificiale.

    L’elaborazione in memoria (PIM), in-memory (IMC) e near-memory (NMC) raggiungerà la maturità

    Le soluzioni PIM con IMC o NMC potrebbero avere un impatto drammatico sul panorama dell’accelerazione dell’intelligenza artificiale. È prevedibile che anche la tecnologia delle memorie non volatili 3D, come NAND e NOR Flash, possa essere sfruttata per il PIM, con il potenziale di ottenere una memoria densa, altamente efficiente dal punto di vista energetico, a basso costo e con prestazioni di alto livello per gli acceleratori di inferenza. In questo senso, l’ascesa delle architetture RISC-V ha aperto le porte a un modo più conveniente di creare un’interfaccia di questo tipo, sfruttando inizialmente la personalizzazione dell’Isa. All’orizzonte si profilano sempre più progetti basati su istruzioni personalizzate RISC-V. E4 ha costruito il primo cluster RISC-V in Europa dedicato all’HPC (Monte Cimone)

    La nano memoria ceramica sconvolgerà il mercato

    Un problema centrale a lungo termine nell’informatica è la disponibilità di dati per lunghi periodi di tempo, poiché HDD e SSD richiedono sostituzioni periodiche; come potremo accedere ai dati di oggi tra 50/100 anni? Un altro problema è l’energia necessaria per far girare i dischi meccanici o per far funzionare quelli a stato solido. Un’alternativa molto interessante è la nano memoria ceramica. In linea di massima, si tratta di incidere un nanostrato di ceramica per memorizzare i dati in modo analogo a quello che sarebbe un “nano codice QR”. La tecnologia è destinata a raggiungere nei prossimi anni un costo dei supporti inferiore a 1USD per TB e sarà in grado di operare in condizioni estremamente difficili con una durata prevista dagli esperimenti di invecchiamento di centinaia di anni.

    Fantascienza

    L’informatica basata sulla biologia e sulla chimica attirerà interesse e finanziamenti

    Il DNA computing è una tecnologia innovativa che combina l’informatica con la biologia molecolare e utilizza il parallelismo naturale delle strutture del DNA per eseguire compiti di calcolo. Il DNA computing è molto promettente: in teoria, un singolo centimetro cubo può contenere oltre 10 trilioni di molecole di DNA, ciascuna in grado di eseguire un calcolo simultaneamente e di memorizzare fino a 10 terabyte di dati. Queste prestazioni metterebbero il DNA computing in competizione con il Quantum Computing per problemi non facilmente affrontabili con il calcolo classico (basato sul silicio), potenzialmente a una frazione dei costi energetici, non dovendo lavorare a temperature prossime allo zero assoluto. Tuttavia, per arrivare a una valutazione preliminare della sua idoneità per l’HPC e l’AI, è necessario affrontare diverse sfide e limitazioni. Tra queste sfide, la scalabilità e l’efficienza delle reazioni molecolari rappresentano un ostacolo importante: all’aumentare del numero di molecole di DNA partecipanti, la specificità e l’efficienza di queste reazioni possono deteriorarsi, rendendo difficile la scalabilità del circuito. Esistono limitazioni anche per quanto riguarda la velocità e l’efficienza: attualmente i “calcoli” sono più lunghi di ordini di grandezza rispetto al silicio.

    L’anno in corso inaugura un’era di sfide e opportunità senza precedenti nel panorama dell’HPC e dell’AI. La crescente domanda di potenza di calcolo si confronterà con la necessità di soluzioni sostenibili ed efficienti dal punto di vista energetico, aprendo la strada a tecnologie innovative come le infrastrutture disaggregate. Allo stesso tempo, nuovi paradigmi di calcolo come l’informatica neuromorfa e l’elaborazione in memoria promettono di rivoluzionare il modo in cui elaboriamo le informazioni.

    di Giordano Mancini, CTO E4 Computer Engineering

    E4 Computer Engineering Giordano Mancini Hpc intelligenza artificiale (AI)
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Elisabetta Franchi: A Convention of Fashion and Imagination in Mold

    20/05/2025

    Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba

    20/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025

    Ransomware contro le PMI: le azioni preventive da adottare

    15/05/2025

    Commvault e CrowdStrike ampliano la partnership per la Cyber Recovery

    15/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.