• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Il 2026 della cybersecurity tra agentic AI, complessità cloud e fattore umano
    • L’IAM indirizza la transizione cloud italiana
    • L’IT è un fattore chiave per raggiungere gli obiettivi ambientali
    • IBM e Bayer 04 Leverkusen utilizzano l’AI per migliorare l’analisi di gioco
    • Stranger Things: attenzione alle truffe ai fan
    • Multi-cloud ibrido: il private cloud diventa oggi cruciale
    • HPE ridisegna l’hybrid cloud
    • Kaspersky: metà delle password compromesse nel 2025 erano già state divulgate
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Shadow AI: come gestirlo all’interno delle aziende?

    Shadow AI: come gestirlo all’interno delle aziende?

    By Redazione LineaEDP17/11/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Marco Bavazzano di Axitea spiega come approcciarsi allo Shadow AI, senza rinunciare alle potenzialità offerte dall’Intelligenza Artificiale

    Shadow-AI

    Un fenomeno sempre più diffuso, legato alla diffusione dell’AI Generativa nelle aziende, è lo Shadow AI ovvero, l’uso diffuso, non gestito e non monitorato di strumenti AI terzi da parte dei dipendenti.

    Nell’articolo che condividiamo di seguito, Marco Bavazzano, CEO di Axitea condivide tre best practice per gestire in modo proattivo lo Shadow AI.

    Buona lettura!

    3 consigli pratici per gestire lo Shadow AI in azienda

    Per i manager italiani, il 2025 si sta rivelando un paradosso. Un recente sondaggio di KPMG ha rilevato che il 70% dei CEO sta investendo significativamente nell’AI Generativa per assicurarsi un vantaggio competitivo, ma allo stesso tempo identificano la cybersecurity come il più grande rischio per la crescita della loro azienda. Quella che potrebbe sembrare una contraddizione è in realtà lo specchio di un processo di causa-effetto che sta investendo tutte le imprese. Lo stesso strumento su cui contiamo per innovare ha il potenziale per creare nuove, potenti vulnerabilità.

    Questo rischio non proviene solo da aggressori esterni ma matura anche all’interno delle aziende stesse, alimentato dal fenomeno dello “Shadow AI”.

    La scala di adozione dell’AI in Italia è impressionante. Secondo i dati dell’Osservatorio Artificial Intelligence del Politecnico di Milano, il mercato italiano dell’AI è cresciuto del 52% nel 2023, raggiungendo i 760 milioni di euro, e il 61% delle grandi aziende italiane ha già avviato almeno un progetto di intelligenza artificiale. La direttiva è chiara: innovare ed essere più produttivi.

    Tuttavia, questa spinta dall’alto si scontra con una realtà diversa. Un’indagine di Confindustria conferma che la prima barriera all’adozione dell’AI per le aziende italiane è la mancanza di competenze interne (citata dal 55%). Quando ai dipendenti vengono richiesti risultati basati sull’AI senza fornire strumenti o formazione adeguati, i più intraprendenti cercano soluzioni in autonomia, spesso ricorrendo a piattaforme pubbliche di AI generativa.

    È questa la Shadow AI: l’uso diffuso, non gestito e non monitorato di strumenti AI terzi da parte dei dipendenti. Ed è proprio ciò che genera preoccupazione per i responsabili della sicurezza del nostro Paese.

    Il Cost of a Data Breach Report 2025 di IBM rivela infatti che il 77% dei CISO identifica la fuga di dati come la loro principale preoccupazione, e il 63% è esplicitamente impensierito per “l’uso improprio dell’AI da parte del personale”. Ogni volta che un dipendente, per quanto benintenzionato, fornisce un elenco di clienti, una bozza di un report finanziario o un segmento di codice proprietario a uno strumento di AI pubblico, sta di fatto esfiltrando dati sensibili su un server di terze parti, ubicato al di fuori del perimetro di sicurezza aziendale.

    La reazione istintiva di molte organizzazioni è quella di vietare questi strumenti, ma si tratta di una strategia inutile e controproducente: soffoca l’innovazione stessa che il CEO sta richiedendo, frustra i dipendenti e, soprattutto, non funziona, poiché questi ultimi inizieranno ad agire ancora di più nell’ombra, ad esempio utilizzando dispositivi personali che sfuggono alla visibilità o controllo dei team di sicurezza.

    L’unica via percorribile è un framework in grado di incanalare l’immenso potenziale di produttività dell’AI, gestendone al contempo i rischi in modo proattivo. Ciò richiede un approccio pragmatico articolato su tre fronti:

    1. Policy: stabilire paletti chiari per i dati. Invece di un divieto generalizzato, è necessario fornire chiarezza attraverso due azioni chiave. Primo, classificare i dati, creare un sistema semplice a tre livelli (ad esempio, Pubblico, Interno, Riservato) e rendere inequivocabilmente chiaro che i dati “Riservati” non devono mai essere inseriti in uno strumento di AI pubblico. Inoltre, è fondamentale fornire strumenti di AI di livello enterprise approvati dai team di sicurezza interna per offrire ai dipendenti un ambiente sicuro e potente in cui lavorare.
    2. Persone: formare per la consapevolezza, non solo per le regole. Una formazione efficace in tema di AI deve spiegare i rischi e le conseguenze. Invece di dire solo “Non usare l’AI pubblica”, bisogna spiegare perché incollare i dati dei clienti in un modello pubblico è una violazione della fiducia e un rischio per la competitività. È necessario concentrarsi sul “come”: insegnare ai dipendenti ad anonimizzare i dati, a scrivere prompt efficaci senza rivelare contesti sensibili e a riconoscere i rischi legati alla residenza delle informazioni e alla perdita di proprietà intellettuale.
    3. Tecnologia: monitorare il rischio, non le infrazioni. Questa è il nodo critico della sicurezza. Integrando capacità avanzate di Data Loss Prevention (DLP), un moderno Security Operation Center (SOC) può identificare in tempo reale quando dati riservati vengono inviati a domini di AI pubblici. L’obiettivo di questo monitoraggio non è spiare il dipendente, ma generare un alert automatico e contestualizzato che consenta al team di sicurezza di intervenire e prevenire violazioni dei dati prima che si verifichino.

    La rivoluzione dell’AI è qui, ed è guidata dall’ambizione dei leader aziendali e dall’intraprendenza dei loro dipendenti. Gestire la Shadow AI non significa limitare questo potenziale, ma fornire il framework necessario per liberarlo in sicurezza. Il ruolo del CISO moderno non è più solo quello di guardiano della tecnologia, ma di abilitatore di innovazione sicura. Le aziende che padroneggeranno questo equilibrio – valorizzando le persone senza compromettere i propri dati – saranno quelle che coglieranno veramente il vantaggio competitivo dell’AI.

    di Marco Bavazzano, CEO Axitea

     

    Axitea intelligenza artificiale (AI) Marco Bavazzano shadow AI
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    IBM e Bayer 04 Leverkusen utilizzano l’AI per migliorare l’analisi di gioco

    05/12/2025

    FiberCop e Microsoft Italia puntano a realizzare un sistema di edge cloud nazionale

    04/12/2025

    I layer di integrazione sono un elemento chiave per il successo dell’AI

    03/12/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Commend, la comunicazione diventa intelligente
    Aikom Technology presenta la sicurezza del futuro a SICUREZZA 2025
    Non c’è produzione senza pianificazione
    Cybersecurity, tra nuove minacce e intelligenza artificiale: la visione di GCI System Integrator
    Jabra: innovazione audio e video per la collaborazione del futuro
    Defence Tech

    Il 2026 della cybersecurity tra agentic AI, complessità cloud e fattore umano

    05/12/2025

    Stranger Things: attenzione alle truffe ai fan

    05/12/2025

    Kaspersky: metà delle password compromesse nel 2025 erano già state divulgate

    04/12/2025

    La supply chain è al centro dei rischi cyber

    03/12/2025
    Report

    L’IT è un fattore chiave per raggiungere gli obiettivi ambientali

    05/12/2025

    Cloud per la fiscalizzazione: sette aziende su dieci pronte a investire

    02/12/2025

    L’Italia aumenta gli investimenti in innovazione

    27/11/2025

    I data center sono sostenibili?

    26/11/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.