• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • AI e Partnership pilastri della strategia di SAP
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    • Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba
    • Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky
    • Cloud italiano: tra sovranità digitale e competitività
    • Storage intelligente: la chiave di volta per i data center moderni
    • TeamViewer ONE: la piattaforma unificata che rivoluziona il Digital Workplace
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»AI e protezione dati: da una sicurezza reattiva ad una governance proattiva

    AI e protezione dati: da una sicurezza reattiva ad una governance proattiva

    By Redazione LineaEDP31/03/20256 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Fabio Pascali di Cloudera parla della sicurezza dell’AI e dell’importanza di prevenire i problemi con un nuovo approccio alla governance dei dati

    AI

    In questo articolo Fabio Pascali, Regional Vice President Italy, Greece & Cyprus, Cloudera spiega come la sicurezza dell’Intelligenza Artificiale (AI) sia diventata un imperativo aziendale. Un’adeguata governance dei dati aiuta le organizzazioni a scongiurare tutte quelle conseguenze che potrebbero avere un impatto diretto sulle finanze.

    Buona lettura!

    Sicurezza AI: un imperativo di business che richiede una governance proattiva

    L’AI sta rivoluzionando le imprese, aiutandole ad automatizzare le attività, a generare nuove prospettive di crescita e a implementare l’innovazione su larga scala. Tuttavia, con l’accelerazione dell’adozione dell’AI, proliferano i rischi legati al modo in cui l’Intelligenza Artificiale gestisce e sposta i dati. Secondo un rapporto di McKinsey, i rischi legati alla cybersecurity dell’Intelligenza Artificiale sono tra le principali preoccupazioni per dipendenti e dirigenti, anche per via dei dati che fluiscono attraverso ecosistemi AI sempre più complessi e variegati.

    La Giornata Mondiale del Backup e la Giornata Mondiale della Sicurezza del Cloud servono come promemoria per le aziende per riconsiderare come proteggono e governano i propri dati. Man mano che l’integrazione dell’AI progredisce a livelli sempre più profondi nei processi aziendali, i metodi tradizionali di governance dei dati non sono più sufficienti, ma si rende necessario adottare un approccio olistico alla protezione dei dati, sia attraverso una moderna architettura data lakehouse che attraverso una strategia di gestione dei dati multi-cloud.

    Molte organizzazioni si affidano ancora a misure di sicurezza obsolete e reattive che rispondono solo dopo che è stata rilevata una minaccia e che in molti casi si stanno dimostrando inefficaci negli ambienti guidati dall’Intelligenza Artificiale. Le aziende dovrebbero puntare a visibilità, controllo e resilienza continui per non rischiare di perdere il controllo dei dati negli ambienti guidati dall’AI e implementare sistemi di protezione proattivi che garantiscano che i dati che alimentano l’AI siano protetti fin dall’inizio, indipendentemente da dove si muovono.

    La sfida della protezione dei dati dell’AI: più dati, più rischi

    L’AI prospera sui dati. Più dati ha a disposizione, più potenti e preziosi diventano i suoi insight. Questo aumento del flusso di dati introduce anche serie sfide di sicurezza e conformità. Se finora, infatti, le informazioni sono tipicamente archiviate e rese accessibili in modi prevedibili, i nuovi ecosistemi che utilizzano l’AI operano – a ragione – in modo molto più fluido e rapido. I modelli di Intelligenza Artificiale estraggono, elaborano e generano continuamente dati da ambienti diversi (on-premise, piattaforme cloud e persino servizi di AI esterni) a una velocità superiore e su una scala esponenziale.

    Questo costante movimento di dati tra diversi team, dipartimenti e sistemi rende difficile tracciare l’origine dei dati, come vengono trasformati e chi vi ha accesso. Molte organizzazioni inviano dati sensibili nei modelli di AI senza una piena visibilità su dove si spostano o su come vengono utilizzati, creando rischi di esposizione involontaria. Senza una chiara supervisione, le informazioni sensibili, come i dati personali dei clienti o le informazioni proprietarie di un’organizzazione, incorporate in modelli o report di AI possono essere inavvertitamente esposte, utilizzate in modo improprio o condivise con utenti non autorizzati.

    Inoltre, sempre più team all’interno dell’organizzazione iniziano a fare affidamento sulle informazioni generate dall’AI, facendo sì che i dati si spostino attraverso più sistemi in modi difficili da tracciare e controllare. Contribuendo poi a inserire nuovi dati nei modelli di Intelligenza Artificiale, è possibile che si generino errori, pregiudizi o informazioni obsolete che distorcono gli output dell’AI, riducendone l’affidabilità.

    Con un robusto sistema di tracciamento della provenienza, le aziende possono garantire l’accuratezza di tutti i loro dati: soluzioni automatizzate di gestione dei metadati, consentono di tracciare i flussi di dati e prevenire errori prima che influiscano sulle decisioni guidate dall’AI.

    Oltre ai rischi di esposizione, molti modelli di Intelligenza Artificiale funzionano come scatole nere, in cui le aziende faticano a capire come i dati vengono elaborati e trasformati. Questa opacità solleva problemi di conformità e può portare a rischi reputazionali se le decisioni guidate dall’AI non possono essere spiegate o giustificate.

    Senza le giuste protezioni, le aziende non rischiano solo violazioni della sicurezza, ma si espongono a sanzioni normative, interruzioni operative e perdita della fiducia dei clienti.

    Dalla sicurezza reattiva alla governance proattiva

    Per proteggere efficacemente i dati dell’AI, le aziende devono passare dalla sicurezza reattiva alla governance proattiva, incorporando misure di sicurezza nei flussi di lavoro dell’Intelligenza Artificiale fin dal primo giorno. Questo è fondamentale per settori come la finanza e la sanità, dove vengono archiviati grandi volumi di dati sensibili. Tuttavia, secondo il rapporto di Gartner del 2023 “Metadata Management in the Digital Age”, il 60% delle organizzazioni ammette di non sapere dove risiedono i propri dati critici. Si tratta di un problema serio: i modelli di AI sono dinamici, imparano e si adattano continuamente, il che significa che le misure di sicurezza statiche sono insufficienti per proteggere questi flussi di lavoro fluidi. La governance dell’AI inizia con la visibilità ed è imperativo che le aziende comprendano come i modelli di Intelligenza Artificiale elaborano e condividono i dati tracciandone la provenienza end-to-end. Ciò garantisce tempi di risposta agli incidenti più rapidi quando sorgono problemi.

    La governance deve anche essere automatizzata. I controlli di sicurezza devono essere integrati nei flussi di lavoro dell’Intelligenza Artificiale, garantendo che le policy di sicurezza dei dati e di conformità seguano i dati ovunque si spostino, sia on-premise, nel cloud o all’interno di ecosistemi di AI di terze parti. Le organizzazioni hanno bisogno di controlli di accesso granulari che garantiscano l’accesso ai dati solo alle persone giuste al momento giusto, adattandosi in tempo reale in base ai modelli di utilizzo.

    La sicurezza dell’AI è un imperativo di business

    La sicurezza dell’AI quindi non è più solo una sfida dell’IT aziendale, ma un imperativo di business. Le aziende che non riescono a governare adeguatamente i dati nell’Intelligenza Artificiale rischiano di incorrere in violazioni normative, dispute legali, calo della fiducia dei consumatori: tutte conseguenze che hanno un impatto diretto sulle finanze interne.

    Il futuro della sicurezza dell’AI quindi non consiste nell’aspettare che emergano i problemi, ma nel prevenirli prima che accadano. Le aziende che costruiscono protezioni proattive per l’AI oggi saranno quelle che guideranno domani.

    Di Fabio Pascali, Regional Vice President Italy, Greece & Cyprus, Cloudera

    Cloudera Data governance Fabio Pascali intelligenza artificiale (AI) protezione dati World Backup Day
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    AI e Partnership pilastri della strategia di SAP

    21/05/2025

    Elisabetta Franchi: A Convention of Fashion and Imagination in Mold

    20/05/2025

    Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026

    20/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025

    Ransomware contro le PMI: le azioni preventive da adottare

    15/05/2025

    Commvault e CrowdStrike ampliano la partnership per la Cyber Recovery

    15/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.