• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Sara Assicurazioni migra sul multicloud con Megaport
    • Integrity360 acquisisce Holiseum, Adsigo e Nclose
    • Adozione dell’AI: crescita vertiginosa tra gli impiegati
    • La sicurezza del cloud rimane tra le priorità principali delle aziende
    • AWS Security Hub: SentinelOne è partner promotore
    • Spionaggio e cybercrime si sovrappongono. La scoperta di Proofpoint
    • Imprese italiane e l’evoluzione delle minacce informatiche
    • L’Iran e le operazioni cyber che minacciano il mondo
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Dati in tempo reale o in batch? È questo il dilemma!

    Dati in tempo reale o in batch? È questo il dilemma!

    By Redazione LineaEDP05/06/20256 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Diego Daniele di Confluent Italia analizza la differenza tra l’elaborazione dati in batch o in streaming. Qual è l’approccio giusto al giorno d’oggi?

    dati

    I responsabili IT si trovano oggi a operare in un contesto molto diverso da quello per cui i sistemi tradizionali erano stati progettati: un mondo in continuo cambiamento, che richiede architetture dati capaci di adattarsi rapidamente.

    Nell’articolo che condividiamo di seguito, Diego Daniele, Country Leader Confluent Italia sottolinea l’importanza di progettare in base ai risultati e di superare il dibattito tra dati in batch o in real-time.

    Buona lettura!

    Non si tratta di velocità: è ora di superare il dibattito tra dati in batch e dati in tempo reale

    Una domanda che ricorre spesso nelle conversazioni è: “Batch o tempo reale?”. Eppure, le risposte sembrano sempre più disconnesse dalla realtà che le organizzazioni si trovano ad affrontare oggi. Viviamo in un contesto economico incerto, con il rischio di recessione globale, mercati finanziari dominati da pochi titoli e una volatilità che è ormai la norma. Eppure, troppi team progettano ancora in base al minimo comune denominatore, ovvero in batch, semplicemente perché non tutti i casi d’uso richiedono immediatezza. Questo approccio, però, limita le possibilità, oltre al fatto che si dovrebbe progettare per ottenere sempre il massimo risultato.

    L’ideale è costruire architetture basate sugli eventi che supportino di default funzionalità in tempo reale e siano in grado di servire qualsiasi caso d’uso, attraverso un accesso e un’interpretazione flessibili dei dati. Un approccio di questo tipo rappresenta un cambiamento di mentalità, ed è atteso da tempo. La domanda giusta, quindi, non è se tutti i casi d’uso richiedano dati in tempo reale, ma se la piattaforma dati della propria organizzazione sia costruita per adattarsi in modo rapido, affidabile e su larga scala, a prescindere dalla velocità con cui cambiano le condizioni esterne.

    Perché si dovrebbe progettare in base ai risultati e non alla velocità

    Concentrarsi sull’elaborazione dei dati in batch o in streaming distrae da una verità più importante: l’architettura dovrebbe supportare i risultati aziendali che si devono ottenere e non essere vincolata alla velocità di acquisizione dei dati. Alcuni dati arrivano rapidamente in streaming, mentre una parte viene acquisita in batch periodici. Questa è una realtà. Tuttavia, creare sistemi separati attorno a queste diverse velocità di flusso dati porta a un’infrastruttura frammentata, a una complessità non necessaria e a una ridotta agilità.

    Ciò che serve è una piattaforma unificata, in grado di gestire tutte le velocità dei dati e supportare tutti i casi d’uso da un unico punto. Non bisogna progettare i sistemi in base al caso d’uso più lento, ma in base a criteri di flessibilità, scalabilità e reattività. In questo modo è possibile interpretare e agire sui dati al ritmo che la situazione richiede.

    Il real-time riduce i costi

    Contrariamente a un pensiero comune, il real-time non è più costoso, ma più efficiente. L’elaborazione in batch, per sua natura, consuma più risorse. È come avviare più e più volte il motore di una vecchia automobile: ogni riavvio richiede un aumento di energia, soprattutto se il sistema deve gestire picchi imprevedibili. Questo determina un over-provisioning dell’infrastruttura e costringe a mantenere una grande capacità sempre attiva per carichi di punta occasionali, sacrificando l’efficienza a favore della semplicità.

    Al contrario, l’elaborazione continua in base agli eventi funziona come un motore ben messo a punto, che viaggia a una velocità costante. I dati fluiscono continuamente e le risorse scalano automaticamente per soddisfare la richiesta. Le previsioni diventano più accurate perché il flusso di dati e il costo per elaborarli sono pronosticabili.

    L’efficienza diventa ancora più vantaggiosa man mano che le organizzazioni ampliano l’utilizzo dell’intelligenza artificiale. Nei sistemi batch, i workload AI devono essere eseguiti per periodi brevi e con un utilizzo significativo delle risorse e questo determina un aumento dei costi di elaborazione e delle emissioni di carbonio.Con l’aumento dell’attenzione sull’impatto ambientale dell’IA, questo approccio si sta rivelando insostenibile.

    Ancora più resilienza nei diversi casi d’uso

    Le piattaforme dati più efficaci non sono progettate per scegliere tra real-time o batch, ma per entrambe le situazioni. È necessario avere dei sistemi in grado di elaborare e reagire continuamente alle nuove informazioni non appena arrivano, così come di poter congelare un momento nel tempo.

    Prendiamo ad esempio i servizi finanziari. Una banca potrebbe scattare un’istantanea della sua esposizione al rischio globale alle ore 9:00 e fissare dei limiti per i trader. Ma se un nuovo annuncio tariffario dovesse arrivare alle 9:05 – alterando improvvisamente la struttura dei costi o il rischio nel paese – l’azienda avrebbe bisogno di un avviso in tempo reale. È lo stesso flusso di dati che può alimentare entrambi gli output: un’istantanea puntuale per la pianificazione e un avviso in tempo reale per un’azione di intervento.

    Questa doppia capacità, statica e dinamica a partire da un’unica fonte, non riguarda solo il settore finanziario. Nel campo delle assicurazioni sanitarie, ad esempio, fornitori come Vitality offrono dispositivi indossabili che monitorano l’attività e premiano il comportamento sano. In questo caso, i dati in tempo reale migliorano l’esperienza utente riducendo i sinistri e controllando i costi per l’azienda.

    Più che un cambiamento tecnologico, è un cambiamento di mentalità

    Perché, nonostante i vantaggi, molte organizzazioni esitano ancora ad adottare architetture per lo streaming dei dati?

    Spesso non è la tecnologia a frenare, ma la mentalità organizzativa. Molti dirigenti ammettono che la vera sfida risiede nel modo in cui sono strutturati i budget. I costi relativi a software, infrastruttura e personale vengono spesso trattati come voci separate, gestite da team diversi con obiettivi diversi.

    Il risultato? Le decisioni a breve termine che sembrano convenienti sulla carta, come l’adozione di strumenti open source “gratuiti”, possono portare a complessità a lungo termine e richiedere grandi team tecnici solo per far funzionare le cose.

    In generale, molti dipartimenti continuano a progettare sulla base di limitazioni che non hanno più, nate in un’era di infrastrutture fisse e cicli di cambiamento lenti. Ma le piattaforme per lo streaming dei dati in tempo reale consentono di progettare in modo diverso, con meno sprechi operativi, maggiore visibilità in real-time e flessibilità di gran lunga maggiore per una risposta proattiva ai cambiamenti.

    Progettare per il mondo di oggi

    La maggior parte dei responsabili IT non è cresciuta in un ambiente caratterizzato da una volatilità costante. Abbiamo costruito sistemi per un’epoca in cui il cambiamento era graduale, l’infrastruttura era fissa e i report puntuali erano “sufficienti”.

    Quel mondo non esiste più e le architetture dati devono evolvere di conseguenza. Ciò significa abbandonare i costrutti legacy e progettare piattaforme che riflettano il modo in cui le aziende operano realmente oggi: a velocità diverse, con molteplici casi d’uso e sotto costante pressione di adattamento.

    Non si deve costruire per il mondo da cui si proviene, ma per il mondo che si vuole guidare.

    di Diego Daniele, Country Leader Confluent Italia

    batch Confluent Diego Daniele Elaborazione dei dati streaming dati in tempo reale
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Sara Assicurazioni migra sul multicloud con Megaport

    01/07/2025

    Integrity360 acquisisce Holiseum, Adsigo e Nclose

    01/07/2025

    Adozione dell’AI: crescita vertiginosa tra gli impiegati

    01/07/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Defence Tech

    La sicurezza del cloud rimane tra le priorità principali delle aziende

    01/07/2025

    Spionaggio e cybercrime si sovrappongono. La scoperta di Proofpoint

    01/07/2025

    Imprese italiane e l’evoluzione delle minacce informatiche

    30/06/2025

    L’Iran e le operazioni cyber che minacciano il mondo

    30/06/2025
    Report

    Adozione dell’AI: crescita vertiginosa tra gli impiegati

    01/07/2025

    Intelligenza Artificiale al centro delle operazioni IT

    27/06/2025

    Data Center in Italia in espansione, ma non sottovalutiamo le sfide

    24/06/2025

    IA quantistica: la nuova rivoluzione dell’Intelligenza Artificiale

    19/06/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.