• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Osservabilità: sei previsioni per il 2026
    • Cloud: dalla sovranità digitale alla Private AI
    • Vertiv amplia il sistema di raffreddamento perimetrale flessibile ed efficiente dal punto di vista energetico per applicazioni small, medium ed edge in EMEA
    • CrowdStrike: nuovi cloud regionali per potenziare la sovranità dei dati sicura
    • Oracle Supply Chain Collaboration mitiga i rischi dei retailer
    • TAS sceglie Nutanix: un cloud privato scalabile e sicuro per superare il lock-in
    • Motivair by Schneider Electric annuncia una nuova CDU che può scalare a 10 MW e oltre per la prossima generazione di AI Factory
    • L’Infrastruttura al centro: cinque tendenze che plasmeranno AI, resilienza e sovranità nel 2026
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»La Data Quality non basta più, è il momento della Data Observability

    La Data Quality non basta più, è il momento della Data Observability

    By Redazione LineaEDP31/12/20254 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Mirko Gubian, Global Demand Senior Manager & Partner di Axiante, spiega perché sia necessario superare questa modalità e adottare la Data Observability che si fonda su monitoraggio, gestione e manutenzione continui e proattivi dei dati

    Data Observability-intelligenza-artificiale-layer d’integrazione-costi cloud
    Mirko Gubian, Global Demand Senior Manager & Partner di Axiante

    Per decenni, la qualità dei dati è stata gestita con un approccio reattivo: test manuali, controlli schedulati, validazioni a valle della pipeline. Un modello che funzionava quando i dati risiedevano in database centralizzati e i processi ETL erano relativamente semplici e controllabili.  Ma il panorama è cambiato radicalmente. Le moderne architetture distribuite come i Data Lake o i Data Lake House, hanno introdotto una complessità esponenziale con evidenti ricadute. Già nel 2023 l’indagine “State of Data Quality”, realizzata da Wakefield Research, confermava che erano aumentati sia gli incidenti legati alla qualità dei dati che i tempi medi della loro risoluzione, il cosiddetto Mean Time to Recovery (MTTR). 

    Il gap temporale tra l’insorgenza del problema e la sua scoperta è il vero tallone d’Achille. Le pipeline moderne elaborano dati in tempo reale o near-real-time, ma i controlli di qualità rimangono spesso schedulati una volta al giorno o alla settimana. A ciò si aggiunge il limite dei test manuali: a parte assorbire tempo prezioso, coprono soprattutto scenari noti, lasciando vulnerabili le organizzazioni rispetto ad anomalie impreviste. 

    Il risultato? Il Data Downtime – ovvero il tempo in cui i dati sono inaccurati, incompleti o non disponibili – cresce. E per le organizzazioni, per cui ormai l’accuratezza e la velocità nella presa di decisione sono strategiche, questo è un grande problema. 

    Il monitoraggio continuo come nuova frontiera 

    Questo handicap rende necessario adottare la cosiddetta Data Observability, una pratica di monitoraggio, gestione e manutenzione continua dei dati che tocca – grazie a vere e proprie piattaforme di Data Observability o sistemi di Data Quality evoluti integrati nei Data Stack – in modo automatico e costante cinque aspetti principali: 

    • Freshness: viene controllato se i dati vengono aggiornati secondo la frequenza attesa. Ad esempio, se una tabella dovrebbe ricevere nuovi dati ogni ora ma l’ultimo aggiornamento risale a tre ore prima, questo segnala anomalie, per esempio nelle pipeline di ingestion; 
    • Volume: si monitora se la quantità di record processati rientra nei range normali attesi. Ad esempio, se una tabella riceve solitamente 10.000 righe al giorno ma improvvisamente ne arrivano solo 100 o 50.000, ciò può indicare problemi nei sistemi upstream o duplicazioni di dati; 
    • Structure: in questo caso il monitoraggio si concentra sulla coerenza strutturale dei dati rispetto alle aspettative. Ad esempio, se un campo viene eliminato, rinominato o il suo tipo di dato viene modificato, questo segnala una devianza che può derivare da problemi di compatibilità o errori nelle trasformazioni; 
    • Lineage: viene tracciato il percorso completo dei dati attraverso i vari sistemi e trasformazioni. Questa visibilità sulle correlazioni può indicare quali asset downstream saranno compromessi da un problema, facilitando l’analisi d’impatto e la risoluzione prioritaria degli incidenti; 
    • Distribution: in questo caso si verifica se i valori nei dati seguono i pattern statistici attesi. Ad esempio, se il 95% degli ordini ha valori tra 50-200€ ma compaiono improvvisamente molti ordini da 0€, questo segnala anomalie. Queste deviazioni possono indicare problemi nelle integrazioni tra sistemi o dati corrotti che necessitano investigazione. 

    Rispetto alla Data Quality tradizionale, nella Data Observability non si conferma quindi se i dati rispettano certe regole, ma si analizza e valuta la salute dell’intero ecosistema dati in tempo reale. 

    Un cambio di prospettiva di cui molte organizzazioni stanno comprendendo la necessità tanto che Gartner stima che già nel 2026 il 50% delle aziende che detengono architetture di dati distribuite, adotteranno strumenti di Data Observability.  

    I benefici tangibili 

    La crescita di queste soluzioni è sostenuta dai benefici di questa pratica, per cominciare sul fronte della velocità nel Mean Time to Recovery (MTTR) che in alcuni casi può passare da ore a minuti, con un impatto diretto sulla continuità operativa e sulla reputazione. 

    La fiducia nei dati è un ulteriore vantaggio, anche se più difficile da quantificare. Non da ultimo, il risparmio di costi. A prima vista, aggiungere un layer di Data Observability è una spesa aggiuntiva ma prevenire è più economico che curare. Un incidente di dati costa molto di più – in termini di blocco dell’operatività, fiducia e rework – di quanto serve per implementare un monitoraggio proattivo.  

    Un esempio? Recentemente un incidente dati ha causato la cancellazione di oltre 2.000 voli nel Regno Unito e Irlanda, con perdite stimate in oltre 126 milioni di dollari per le compagnie aeree. Questo non è un caso isolato, è la punta dell’iceberg di un problema sistemico che le soluzioni di Data Observability sono progettate a prevenire. 

    Le sfide dell’adozione 

    Ovviamente, implementare la Data Observability non è semplice. Le sfide sono significative e quindi vanno tenute in attenta considerazione. La prima riguarda la complessità tecnologica all’interno delle aziende. La proliferazione e frammentazione di tecnologie, repository, etc. richiedono una scelta accurata del tool da adottare e un’integrazione molto attenta nell’infrastruttura esistente.  

    A questo si aggiunge il rischio di generare troppi alert, rendendo difficile distinguere problemi reali da falsi positivi e quindi congestionando e non aiutando il team data/IT, ma superabile partendo con ambiti limitati e affinando progressivamente le soglie. 

    Tuttavia ancora più insidiosa è la sfida culturale, che richiede un cambio di mentalità da un approccio reattivo a uno proattivo: non basta acquistare una soluzione di Data Observability, servono nuove competenze che combinino Data Engineering a una comprensione del business; e ciò richiede investimenti in formazione fino a nuove assunzioni. Aspetti che possono condizionare negativamente un’evoluzione invece sempre più strategica. 

    A cura di Mirko Gubian, Global Demand Senior Manager & Partner di Axiante 

     

     

    Axiante Data Observability
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Osservabilità: sei previsioni per il 2026

    23/01/2026

    L’Infrastruttura al centro: cinque tendenze che plasmeranno AI, resilienza e sovranità nel 2026

    22/01/2026

    ServiceNow e OpenAI accelerano l’enterprise AI

    21/01/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Dal Forum Fiscale di Wolters Kluwer Italia le voci e le idee che stanno cambiando la professione
    Defence Tech

    Microsoft Teams: attacchi phishing su larga scala

    21/01/2026

    Milano-Cortina 2026: oltre le medaglie, si prepara una battaglia cyber ad alto rischio

    21/01/2026

    Sophos Workspace Protection: lavoro ibrido e uso dell’IA in azienda al sicuro

    21/01/2026

    SOC: oltre il 40% delle aziende italiane pronto a investire

    21/01/2026
    Report

    BCS: i data center IA posizionano l’Italia tra i primi mercati d’Europa, ma nodi energetici e insolvenze edili rischiano di frenare la corsa

    20/01/2026

    Data Center: come cresce l’ecosistema. I dati dell’Osservatorio POLIMI

    16/01/2026

    AI Diffusion Report: Microsoft presenta la nuova edizione

    13/01/2026

    Intelligenza Artificiale in pillole: arriva il white paper di Comtel

    29/12/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.