• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    • Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba
    • Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky
    • Cloud italiano: tra sovranità digitale e competitività
    • Storage intelligente: la chiave di volta per i data center moderni
    • TeamViewer ONE: la piattaforma unificata che rivoluziona il Digital Workplace
    • Design responsive: ecco perché è diventato un must in tutti i settori
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Denodo sfata 5 miti sulla Data Virtualization

    Denodo sfata 5 miti sulla Data Virtualization

    By Redazione LineaEDP02/11/20226 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Andrea Zinno di Denodo ha identificato 5 falsi miti sulla data virtualization che possono generare confusione tra gli utenti meno esperti

    Data Center Virtualization

    Denodo, specialista nella gestione dei dati, ha identificato i 5 falsi miti sulla data virtualization più comuni, che possono generare confusione tra gli utenti meno esperti.

    Nel contesto di business attuale, infatti, i dati sono sempre più protagonisti. Stiamo assistendo a un’accelerazione costante in termini sia quantitativi, sia qualitativi, nella frequenza in cui i dati cambiano e nella loro distribuzione geografica. Tale complessità si traduce in uno scenario fluido e dinamico che mette alla prova quelle architetture di integrazione dati basate sulla loro centralizzazione fisica.

    Come sottolineato, però, da Andrea Zinno, Sales Director & Data Evangelist di Denodo: «Un contesto così mutevole richiede un nuovo approccio: la virtualizzazione dei dati, che integra tutti i dati aziendali, comunque siano fatti e ovunque essi si trovino. Si tratta di un modello logico che abilita un accesso centralizzato senza che si renda necessaria una copia preventiva dei dati, in quanto verrà reso disponibile solo quanto effettivamente richiesto».

     

    Tuttavia, benché le architetture logiche rappresentino una soluzione efficace, può essere ancora difficile identificarne le peculiarità e i reali vantaggi.
    Ecco qui di seguito i miti da sfatare sulla data virtualization.

    1. Quando si adotta il Data Mesh, la virtualizzazione dei dati non serve

    Premessa: il Data Mesh si fonda sull’idea di delegare la gestione dei dati a chi ne abbia la migliore conoscenza e competenza (i cosiddetti Data Domain), facendo in modo che i dati ritenuti di maggior interesse e valore siano poi condivisi (i Data Product) così che, complessivamente, l’azienda abbia a disposizione dati di elevata qualità, pertinenza e affidabilità.

    Realtà: il Data Mesh è un paradigma organizzativo, che prevede nuovi ruoli e responsabilità e che, per essere attuato in modo efficiente ed efficace, richiede un sostegno tecnologico che possa rendere operativo il modello che lo ispira. La virtualizzazione dei dati è una soluzione perfettamente coerente con tale paradigma, in quanto consente ai singoli Data Domain di avere un’infrastruttura agile per la gestione dei dati interni e per creare ed esporre i Data Product. Inoltre, come collante tra quanto prodotto dai diversi Data Domain, la virtualizzazione consente di creare uno livello logico comune, che rappresenti il punto unico di accesso a tutto ciò che viene condiviso e il cui significato sia chiaramente rappresentato.

    1. Gli strumenti di BI e la virtualizzazione dei dati sono intercambiabili

    Premessa: gli strumenti di Business Intelligence offrono funzionalità di Data Blending, permettono cioè di combinare, elaborare e analizzare dati provenienti da fonti diverse e di creare report tipicamente orientati al business. Inoltre, alcuni strumenti dispongono anche di funzioni aggiuntive per la modellazione dei dati.

    Realtà: gli strumenti di BI consentono di combinare i dati e di creare report, ma tali funzionalità sono limitate e ogni strumento ha un proprio modello semantico all’interno del quale vengono combinati e modellati i dati. Ogni modello diventa quindi peculiare dello strumento che lo ha prodotto, rendendo estremamente complessa un’integrazione di respiro aziendale, indipendente dagli strumenti usati per la data analysis. Inoltre, modellando i dati all’interno di uno specifico strumento, cresce il rischio di avere modelli ripetuti, diversi ma simili, ciascuno privato di un dato strumento. La virtualizzazione dei dati, al contrario, è in grado di connettere, modellare e rendere i dati provenienti da ogni sorgente disponibili a chiunque (persone, ma anche strumenti o applicazioni e persone), secondo un modello semantico comune: è questo l’elemento portante di un Data Fabric di livello Enterprise, dove l’uso dei dati è reso semplice e non ambiguo e dove ogni Data Consumer è supportato da algoritmi che forniscono spunti di potenziale interesse.

    1. Con un Data Lake come punto unico di accesso ai dati, la virtualizzazione dei dati non è necessaria

    Premessa: i Data Lake sono stati originariamente concepiti per esplorare e utilizzare dati, prevalentemente a fini analitici, che solitamente non vengono archiviati in fonti strutturate come Database o Data Warehouse. Oggi, però, le esigenze di conoscenza sono così avanzate da rendere necessaria la possibilità di avere a disposizione dati di qualsiasi tipo e per qualsiasi uso.

    Realtà: l’idea di utilizzare un Data Lake come punto unico di accesso al patrimonio informativo si scontra con la complessità di definire e gestire le procedure di caricamento e allineamento dei dati. Inoltre, un Data Lake non è normalmente adatto a contenere dati fortemente strutturati e, in generale, benché sia intrinsecamente flessibile, difficilmente potrà essere in grado di garantire la stessa efficienza per ogni possibile tipologia di dato. È poi necessario considerare che, data la loro genesi, i Data Lake non prevedono nativamente la possibilità di fornire i dati secondo diversi protocolli di delivery, né dispongono di strumenti che consentano di ricercare le informazioni e di comprenderne chiaramente il significato e l’origine. La virtualizzazione dei dati, al contrario, consente di avere un unico punto di accesso ai dati dove questi siano descritti e documentati in un catalogo, senza che si renda necessaria una loro copia fisica in un solo punto. Tale approccio consente quindi di lasciare ogni dato nel “contenitore” che meglio di ogni altro li possa gestire.

    1. Chi utilizza strumenti ETL non ha bisogno della virtualizzazione dei dati

    Premessa: le aziende possono utilizzare gli strumenti ETL per estrarre i dati da diverse sorgenti, trasformarli e quindi caricarli in un Database, in un Data Warehouse o, in generale, in ogni altro contenitore che possa assolvere a compiti specifici.

    Realtà: le Pipeline ETL sono strutture poco resilienti, tanto che, se viene aggiunta una nuova sorgente di dati, spesso si preferisce costruire una nuova procedura di estrazione, trasformazione e caricamento, piuttosto che modificare una di quelle esistenti. Tale approccio pone seri problemi di gestione e manutenzione, poiché conduce a una forte duplicazione dei dati: da indagini campionarie, infatti, risulta che un’azienda dispone in media di dodici o più copie degli stessi dati sparse in diversi sistemi. Con la virtualizzazione dei dati, al contrario, i dati rimangono dove sono e vengono rappresentati solo in un livello virtuale, consentendo al contempo di avere una visione unitaria e coerente e di risparmiare tempo e risorse, con evidenti benefici anche in termini di Green Computing.

    1. La virtualizzazione dei dati comporta una perdita di controllo sui dati stessi

    Premessa: la data virtualization consente a tutti i dipendenti di accedere ai dati aziendali in modo da poterli utilizzare in modo rapido, semplice e in autonomia, ma questo alimenta la convinzione che in tal modo si perda la visione d’insieme sull’utilizzo dei dati e su come questo possa influire, in termini di costi e prestazioni, sulle sorgenti dove i dati risiedono.

    Realtà: Le piattaforme di virtualizzazione dei dati offrono un controllo puntuale su chi può usare cosa, inclusa la possibilità di mascherare e filtrare i dati restituiti sulla base del profilo di ciascun utente. Inoltre, sono disponibili numerose funzioni di controllo per regolare l’accesso ai sistemi sorgenti, in termini di durata, priorità o quantità di risultati restituiti. Infine, tutte le operazioni sui dati sono completamente tracciate e monitorate, così da poter fornire una fotografia completa e a fuoco nel caso sia necessario capire come l’intero ecosistema dati venga utilizzato o si debba reagire a qualche evento avverso.

    Andrea Zinno Data virtualization Denodo
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Elisabetta Franchi: A Convention of Fashion and Imagination in Mold

    20/05/2025

    Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba

    20/05/2025

    Storage intelligente: la chiave di volta per i data center moderni

    20/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025

    Ransomware contro le PMI: le azioni preventive da adottare

    15/05/2025

    Commvault e CrowdStrike ampliano la partnership per la Cyber Recovery

    15/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.