• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Intelligenza Artificiale: nuova alleata degli operatori del customer service
    • AWS lancia nuove soluzioni per sviluppare competenze AI
    • AI e latenza: perché il futuro passa dall’edge computing
    • Il 2026 è l’anno dello “Tsunami Digitale”: cosa ci aspetta?
    • Red Hat Enterprise Linux: disponibili adesso le versioni 10.1 e 9.7
    • Digital Friction: il rischio nascosto della produttività aziendale
    • Broadcom potenzia VMware Cloud Foundation
    • CO.DE racconta il suo percorso di crescita a IT’S Week 2025
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»AI e latenza: perché il futuro passa dall’edge computing

    AI e latenza: perché il futuro passa dall’edge computing

    By Redazione LineaEDP14/11/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Marco Zacchello, Equinix: “Per massimizzare il potenziale dell’AI, le aziende devono puntare su infrastrutture distribuite e ridurre la distanza dei dati”

    AI

    Nell’articolo che condividiamo di seguito, Marco Zacchello, Global Principal – Global Solution Architecture EMEA Equinix, mostra come un’infrastruttura edge interconnessa consente di ottimizzare la distribuzione e l’aggregazione dei dati, favorendo un approccio ibrido e distribuito all’Intelligenza Artificiale (AI).

    Buona lettura!

    Latency Tax: come l’elaborazione centralizzata ostacola l’AI

    La velocità e la prossimità di elaborazione dei dati al punto in cui vengono generati e utilizzati stanno diventando sempre più cruciali. L’avvento di nuovi casi d’uso dell’AI, come i veicoli a guida autonoma, il monitoraggio continuo della salute e le analisi delle frodi in tempo reale, insieme alle crescenti preoccupazioni su privacy e sovranità, amplifica ulteriormente l’importanza di prossimità e velocità.

    Ciò fa sì che un numero crescente di aziende riconosca il valore delle soluzioni edge all’interno della propria architettura IT.

    I limiti dei modelli centralizzati

    Oggi, le aziende che puntano su modelli centralizzati, come il cloud o i data center on-premise, si stanno scontrando con i limiti di questi approcci nel gestire i carichi di inferenza AI sensibili alla latenza.

    Nel cloud, il controllo sui dati è limitato, con conseguenti difficoltà di conformità e costi crescenti dovuti al trasferimento delle informazioni dentro e fuori dalle piattaforme. I data center proprietari invece, pur offrendo un maggiore controllo, non eliminano il problema: la latenza resta elevata, la rete può risultare congestionata e la loro scalabilità non è sempre in grado di reggere il ritmo di crescita del volume dei dati.

    In entrambi i casi, la distanza che i dati devono percorrere tra il punto di generazione e quello di elaborazione rappresenta un ostacolo, con impatti significativi su tempi, prestazioni e costi complessivi, tanto da assorbire una parte rilevante dei budget destinati all’AI.

    La soluzione migliore è quindi adottare un approccio distribuito all’AI, in cui alcune fasi chiave del flusso di lavoro, come l’inferenza dell’AI, il fine-tuning e alcune attività di addestramento specifiche, vengono gestite nell’edge, mentre altre, come l’addestramento dei Large Language Models (LLM), si svolgono in data center centralizzati. Questo approccio richiede lo sfruttamento di un’infrastruttura ibrida interconnessa che integri hub digitali all’edge.

    Perché la latenza è importante per l’AI

    La latenza rappresenta uno degli aspetti più critici per le applicazioni di AI, poiché determina la velocità con cui i dati vengono acquisiti, elaborati e trasformati in azioni o decisioni. In pratica, essa dipende dal tempo necessario per trasferire i dati dall’oggetto che li genera al nodo di inferenza, dal tempo che quest’ultimo impiega per processarli con il modello addestrato e, infine, dal tempo di risposta verso il dispositivo o il sistema che deve agire.

    La bassa latenza è particolarmente rilevante per l’inferenza perché può influire negativamente sulla user experience, sui costi aziendali e persino sulla vita e sulla sicurezza delle persone.

    Basti pensare ai veicoli a guida autonoma che devono reagire istantaneamente a un ostacolo imprevisto; ai sistemi di ambulanze connesse che utilizzano nodi edge per elaborare i parametri vitali in tempo reale durante il trasporto; alle aziende energetiche e di servizi pubblici che devono reagire rapidamente ai cambiamenti meteorologici; e ai casi di automazione industriale  in cui i modelli AI all’edge analizzano istantaneamente i dati dei sensori e delle telecamere per individuare difetti o anomalie. In tutti questi casi, le organizzazioni non possono permettersi la latenza che comporta l’elaborazione centralizzata o basata sul cloud.

    L’inferenza dell’AI deve essere gestita nell’edge

    A differenza dell’addestramento dell’AI, che non è particolarmente sensibile alla latenza, l’inferenza deve avvenire in prossimità dei dati. Distribuendo nodi di inferenza nelle diverse sedi operative, le aziende possono infatti implementare modelli specializzati, come i Domain Specific Language Model (DSLM), che essendo capaci di operare su set di dati più ristretti, possono essere addestrati più rapidamente.

    Inoltre, l’AI all’edge riduce i costi di banda e migliora la privacy, trasmettendo solo i risultati essenziali. In ambito medico questi modelli possono supportare la diagnosi attraverso l’analisi di immagini; negli aeroporti, abilitano analisi in tempo reale per la sicurezza; mentre nell’automazione industriale, possono eliminare i ritardi dell’elaborazione e garantire che le decisioni vengano prese in tempo reale.

    Un’infrastruttura edge interconnessa

    Nuove tecnologie di rete, come il Remote Direct Memory Access (RDMA), stanno emergendo come elementi rivoluzionari poiché permettono lo scambio diretto di dati tra le memorie di sistemi diversi senza passare per la CPU, riducendo drasticamente la latenza e migliorando la produttività complessiva. Inoltre, se combinata con l’edge computing, questa tecnologia consente di ottimizzare la distribuzione e l’aggregazione dei dati, favorendo un approccio ibrido e distribuito all’AI.

    Nell’era dell’intelligenza basata sui dati, l’edge computing è pertanto un must, specie per il successo dell’AI, che dipende in ultima analisi dalla collaborazione tra addestramento centralizzato e inferenza locale. Per raggiungere questo obiettivo serve un’infrastruttura edge interconnessa, nelle sedi giuste, vicino alle fonti dei dati e agli utenti finali e connessa a cloud, provider di servizi SaaS e ad altri partner all’interno del proprio ecosistema AI.

    L’edge connette persone, dati e dispositivi in modi che il cloud non potrebbe mai eguagliare. Colmando il divario tra sistemi centralizzati e potenza di elaborazione più vicina al luogo in cui i dati vengono generati si permette alle aziende di essere leader in un panorama aziendale in rapida evoluzione. Le soluzioni edge di oggi saranno i motori del valore di domani.

    di Marco Zacchello, Global Principal – Global Solution Architecture EMEA Equinix

    edge computing Equinix intelligenza artificiale (AI) Latenza Marco Zacchello
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Intelligenza Artificiale: nuova alleata degli operatori del customer service

    14/11/2025

    AWS lancia nuove soluzioni per sviluppare competenze AI

    14/11/2025

    Red Hat Enterprise Linux: disponibili adesso le versioni 10.1 e 9.7

    14/11/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Non c’è produzione senza pianificazione
    Cybersecurity, tra nuove minacce e intelligenza artificiale: la visione di GCI System Integrator
    Jabra: innovazione audio e video per la collaborazione del futuro
    Dynatrace Innovate Roadshow 2025: l’intelligenza artificiale che anticipa il futuro del software
    Networking: il software al centro
    Defence Tech

    Il 2026 è l’anno dello “Tsunami Digitale”: cosa ci aspetta?

    14/11/2025

    Wayfinder: il nuovo portfolio di servizi gestiti di SentinelOne

    13/11/2025

    Mobile Security: fattore umano resta il “tallone d’Achille”

    12/11/2025

    Cybersecurity, tra nuove minacce e intelligenza artificiale: la visione di GCI System Integrator

    11/11/2025
    Report

    Intelligenza Artificiale: nuova alleata degli operatori del customer service

    14/11/2025

    Digital Friction: il rischio nascosto della produttività aziendale

    14/11/2025

    IA generativa: 5 giorni di formazione per conoscerla e gestirla

    13/11/2025

    Investimenti in AI e ROI in aumento, ma persistono gap strutturali

    11/11/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.