• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Campari Group si affida alle soluzioni smart di SAP
    • L’analista nella cybersecurity: un ruolo che va ridisegnato
    • Il 60% dei responsabili italiani approva progetti non sicuri
    • OHM acquisito da Mediterra DataCenters, MIX conferma il supporto allo sviluppo dell’hub di Palermo
    • Boom dell’AI nei team: dove si nascondono i nuovi rischi
    • Data center: Milano al bivio tra espansione quantitativa e sviluppo sostenibile
    • AI testing: quali limiti?
    • Bayern Monaco: calcio a prova di futuro con RISE with SAP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Boom dell’AI nei team: dove si nascondono i nuovi rischi

    Boom dell’AI nei team: dove si nascondono i nuovi rischi

    By Redazione LineaEDP30/03/20266 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    4 sfide di sicurezza da affrontare subito con l’espansione dell’uso dell’AI nei team

    AI-team
    Rich Beckett, Senior Product Marketing Manager, Netskope (autore dell'articolo)

    L’uso diffuso dell’AI sta ampliando la superficie di attacco per gli attori malevoli.

    Secondo IDC[1], la spesa globale per l’intelligenza artificiale è destinata a sfiorare i 750 miliardi di dollari entro il 2028. Un dato che racconta bene la rapidità con cui l’AI si sta diffondendo nelle organizzazioni, ma che riflette anche, in modo meno evidente, l’ampiezza delle nuove sfide legate alla sicurezza dei dati. Con l’aumento dell’adozione, infatti, i professionisti della cybersecurity si trovano sempre più spesso a gestire scenari complessi, in cui diventa difficile mantenere piena visibilità e controllo sulle informazioni aziendali.

    Come già accaduto con l’adozione del cloud un decennio fa, le minacce non si limitano a un singolo comportamento o modello di implementazione.

    L’uso della “shadow AI” (ovvero strumenti AI non gestiti) è un vettore di rischio ormai noto, con i dipendenti che spesso privilegiano la comodità rispetto alla conformità. Secondo il Netskope Cloud and Threat Report 2026, quasi la metà (47%) degli utenti di AI generativa utilizza applicazioni AI personali. Questo utilizzo non ufficiale è problematico perché i dipendenti potrebbero condividere inconsapevolmente dati sensibili con applicazioni cloud di terze parti, mentre visibilità e controlli risultano difficili da garantire per molte organizzazioni.

    Ma cosa accade alle organizzazioni che sviluppano modelli AI privati (spesso proprio per aumentare la sicurezza)? In questo caso emergono rischi più ampi, tra cui la responsabilità di proteggere sia i dati di training sia gli output dei modelli.

    L’area di crescita più recente dell’AI è quella degli agenti autonomi (agentic AI), in cui agenti intelligenti svolgono attività in modo indipendente (con minima supervisione umana). Un vantaggio per la produttività, ma con implicazioni importanti in termini di accesso e controllo dei dati. Secondo una previsione di Gartner, entro il 2028 il 25% delle violazioni aziendali sarà legato all’abuso di agenti AI.

    Alla luce di queste tendenze, analizziamo alcune considerazioni di sicurezza che possono fungere da checklist per assicurarsi che l’organizzazione affronti i rischi da ogni angolazione.

    1) Usare lo zero trust come base della sicurezza AI

    La sicurezza dell’AI rappresenta una sfida unica per la protezione dei dati, per via del modo in cui i modelli elaborano input e generano output. Estendere un framework di sicurezza zero trust all’AI significa verificare ogni richiesta (da parte di utenti, modelli e agenti), monitorare ogni flusso di dati e concedere accessi sulla base di valutazioni dinamiche del rischio anziché autorizzazioni statiche. Le ricerche mostrano che due terzi delle organizzazioni dichiarano che i loro controlli zero trust non sono attualmente in grado di proteggere le identità non umane (NHI), ma il 78% si aspetta che la crescita delle NHI superi quella delle identità umane entro 12 mesi: un rischio imminente. È importante valutare come integrare la sicurezza AI nei framework e nelle architetture esistenti, evitando soluzioni puntuali aggiuntive che aumentano la complessità e richiedono molte risorse. Meglio puntare su piattaforme unificate che integrano policy e amministrazione della sicurezza, riducendo il carico operativo.

    2) Rafforzare la visibilità nell’era dell’AI onnipresente

    Solo il 6% delle organizzazioni ha una visibilità completa sull’uso dell’AI, e i team di sicurezza non possono proteggere ciò che non vedono (una sfida aggravata dalla crescente sovrapposizione tra strumenti personali e aziendali). Senza visibilità su come e dove vengono utilizzati gli strumenti AI, un’organizzazione si espone al rischio di perdita di dati. Gli strumenti che garantiscono visibilità devono essere una priorità assoluta.

    La strategia di sicurezza AI deve includere più delle sole nuove applicazioni e modelli AI. Negli ultimi anni, tutte le applicazioni SaaS hanno introdotto funzionalità AI, ormai diventate la norma. Ciò significa che ogni giorno uno strumento SaaS approvato potrebbe aggiungere funzionalità AI che non rispettano i requisiti di sicurezza. Questi aggiornamenti “silenziosi” spesso avvengono senza che i team di sicurezza ne abbiano visibilità, impedendo una valutazione preventiva del rischio. Il monitoraggio manuale non è più sufficiente: è necessario adottare lo stesso approccio utilizzato per il rischio cloud. Il Netskope Cloud Confidence Index (CCI) fornisce insight in tempo reale su oltre 83.000 applicazioni cloud e SaaS e valuta il rischio di oltre 10.000 server MCP pubblici, identificando attributi rischiosi, metodi di autenticazione e versioni di protocollo prima della distribuzione. Esternalizzare questo lavoro è fondamentale.

    3) Colmare il divario nella governance dell’AI

    Due terzi delle organizzazioni valutano la propria governance AI come solo reattiva o in fase di sviluppo, un terzo parla di adozione frammentata e il 38% avrebbe voluto avviare la governance prima di scalare l’adozione. Senza linee guida chiare, le aziende aprono la porta a minacce di sicurezza. È quindi essenziale definire un framework di policy per garantire un uso corretto dell’AI (sia prima sia dopo il deployment).

    4) Migliorare competenze e strumenti

    È necessario investire in formazione e strumenti per supportare un uso corretto dell’AI, assicurando che tutti comprendano i rischi, le policy approvate e le normative applicabili. Ma non basta. Anche una forza lavoro altamente qualificata ha bisogno di supporto: Gartner prevede che entro il 2028 almeno il 15% delle decisioni aziendali quotidiane sarà preso autonomamente tramite AI agentica, rispetto allo 0% del 2024. Le competenze umane in materia di sicurezza AI sono come una patente di guida: utili per ridurre il rischio, ma più efficaci se affiancate da strumenti di gestione del rischio come cinture di sicurezza e sistemi ABS e forse sempre meno rilevanti con l’arrivo della guida autonoma. È quindi fondamentale investire nella protezione dei modelli AI e dei dati aziendali con cui interagiscono, adottando nuovi strumenti (come gateway di sicurezza AI e guardrail) insieme alle best practice esistenti.

    Sicurezza nell’era dell’AI ad alta velocità

    Netskope viene in aiuto con la piattaforma Netskope One AI Security, l’unica in grado di proteggere ogni interazione AI mantenendo velocità ed esperienza utente ai livelli richiesti dai team, permettendo ai propri clienti di adottare l’AI su scala enterprise senza aumentare il rischio. La piattaforma protegge utenti, agenti, applicazioni e dati in ambito AI pubblico, privato e agentico con una protezione unificata, dall’hardening dei modelli prima del deployment fino alla prevenzione delle minacce in runtime.

    Per saperne di più sulla sicurezza dell’AI in azienda, visita netskope.com/ai

    A cura di Rich Beckett, Senior Product Marketing Manager, Netskope

     

    Note 

    [1] IDC Market Forecast, Worldwide Artificial Intelligence IT Spending Forecast, 2024–2028, Rick Villars et al., October 2024, Doc #US52635424

    Netskope Rich Beckett
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    L’analista nella cybersecurity: un ruolo che va ridisegnato

    30/03/2026

    OHM acquisito da Mediterra DataCenters, MIX conferma il supporto allo sviluppo dell’hub di Palermo

    30/03/2026

    Data center: Milano al bivio tra espansione quantitativa e sviluppo sostenibile

    30/03/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Nuova Transizione 5.0: cosa cambia?
    Il futuro del lavoro passa dai Personal Systems: l’innovazione HP tra AI e sicurezza
    AI in locale: la workstation secondo Syspack tra potenza e flessibilità
    Tra promesse e realtà: vita (vera) da System Integrator
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    Defence Tech

    Il 60% dei responsabili italiani approva progetti non sicuri

    30/03/2026

    WatchGuard amplia le capacità NDR per MSP e PMI

    27/03/2026

    Le 5 regole d’oro della cybersecurity per le PMI per evitare danni fino a 300.000 euro

    27/03/2026

    SentinelOne porta la sicurezza dell’AI negli ambienti on-premise, regolamentati, sovrani, self-hosted e air-gap

    26/03/2026
    Report

    Cloud e outsourcing sono la chiave per la crescita delle PMI italiane

    17/03/2026

    Osservatorio Statistico 2025 di TeamSystem: 19 miliardi di email inviate (+12% rispetto al 2024), ma senza strategia l’efficacia diminuisce

    16/03/2026

    HR: l’applicazione concreta dell’AI rimane ancora limitata

    13/03/2026

    Report Cisco Splunk: i CISO e il ruolo centrale della IA Agentica nella resilienza aziendale

    09/03/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.