• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • ConfSec 2025: lo stato dell’arte della cybersecurity nel Sud Italia
    • Compila adesso il questionario OAD 2025
    • Lo Zero Trust Everywhere si estende con le nuove soluzioni di Zscaler
    • QLIK: annunciate nuove funzionalità per Snowflake
    • SentinelOne aderisce all’AWS ISV Workload Migration Program
    • Minacce informatiche: i trend di maggio 2025
    • Telecomunicazioni: un settore in continua evoluzione
    • Microsoft presenta le novità per la sovranità digitale in Europa
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»LLM in azienda: come proteggere i dati aziendali?

    LLM in azienda: come proteggere i dati aziendali?

    By Redazione LineaEDP27/05/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Ferdinando Mancini di Proofpoint condivide qualche strategia per proteggere i dati aziendali nell’era di LLM e GenAI

    LLM

    Come afferma Ferdinando Mancini, Director, Southern Europe & Israel Sales Engineering di Proofpoint nell’articolo che condividiamo di seguito, i modelli linguistici di grandi dimensioni (LLM) e la GenAI, sono arrivati all’interno delle aziende per restarci. Essi portano con sé non solo enormi vantaggi, ma anche qualche pericolo di sicurezza che potrebbe compromettere la sicurezza dei dati aziendali.

    Scopriamo quindi come le aziende possono mantenere il controllo dei propri dati.

    Buona lettura!

    La rivoluzione LLM: come mantenere il controllo dei dati aziendali

    Sembra avvenuto ieri l’ingresso sulla scena di ChatGPT, che ha conquistato oltre un milione di utenti in pochi giorni. In realtà, sono passati quasi tre anni – un tempo in cui molte cose sono cambiate.

    Il modello linguistico di grandi dimensioni (LLM) sviluppato da OpenAI è ormai una presenza consolidata nei luoghi di lavoro di tutto il mondo, con 71 milioni di utenti giornalieri. Ma mentre datori di lavoro e team di sicurezza iniziavano a familiarizzare con questa nuova applicazione diffusa, sono emersi diversi modelli concorrenti.

    In particolare, DeepSeek ha suscitato accese discussioni dal suo arrivo sul mercato nel 2024. La velocità e il costo della sua creazione hanno portato molti a mettere in discussione le sue capacità e sicurezza, mentre la proprietà cinese ha sollevato problemi di privacy e censura.

    La rapidità con cui ha guadagnato terreno tra gli utenti fa sorgere anche una domanda più estesa: come possono i team di sicurezza tenere il passo con LLM in rapida crescita, facilmente accessibili e potenzialmente rischiosi?

    Una cosa è certa: l’evoluzione tecnologica non può invertire la sua rotta. AI generativa e LLM sono qui per restare – e probabilmente si evolveranno più velocemente di qualsiasi altra tecnologia disponibile finora. Data la loro ubiquità sul posto di lavoro, imporre divieti assoluti ai dipendenti non è realistico e probabilmente inefficace.

    Al contrario, le aziende sono chiamate a impegnarsi per comprendere i rischi che comportano e operare per proteggerne il più possibile l’utilizzo, senza incidere sulla produttività dei dipendenti.

    Non perdere il controllo dei propri dati

    Non c’è dubbio che gli LLM comportino rischi per ogni organizzazione. Sappiamo che gli attori delle minacce utilizzano ChatGPT e altri strumenti per perfezionare i loro messaggi, tradurre esche per entrare in nuovi mercati internazionali e raggiungere milioni di potenziali vittime con molto meno sforzo di prima.

    DeepSeek, nel frattempo, è già stata oggetto di numerosi incidenti informatici, tra cui un attacco su larga scala nel 2025 che ha esposto oltre un milione di record sensibili, dati operativi e dettagli di sistema.

    Tuttavia, ChatGPT, DeepSeek e la lunga serie di modelli LLM che inevitabilmente seguiranno non accedono ai dati da soli, ma è solo quando le persone li copiano e incollano all’interno del modello, o digitano prompt, che vi hanno accesso in modo effettivo.

    Per sua stessa ammissione, DeepSeek “può raccogliere il tuo input di testo, prompt, file caricati, feedback, cronologia chat o altri contenuti che fornisci al nostro modello e Servizi”. E con un numero crescente di LLM sul mercato, possiamo essere certi che non sia l’unico a svolgere tali attività.

    In definitiva, se non si monitora attivamente quali applicazioni vengono utilizzate dai dipendenti – e le informazioni che condividono – non c’è alcun modo di sapere quanti dei dati vengano archiviati al di fuori delle protezioni aziendali, trovandosi, di conseguenza potenzialmente a rischio.

    Abbinare produttività e sicurezza

    Il primo passo per proteggere i dati aziendali è capire dove sono, dove stanno andando e chi li sta trasferendo. In particolare, è fondamentale identificare e classificare quelli sensibili, come informazioni personali, proprietà intellettuale e dati regolamentati.

    Successivamente, vanno messi in atto controlli per tracciare e, se necessario, limitare il modo in cui questi dati si muovono in azienda – in particolare come vengono condivisi con applicazioni di terze parti come gli LLM. Ciò potrebbe significare imporre limiti di copia/incolla sui prompt che possono essere inseriti in ChatGPT.

    Con estensioni del browser sicure, è anche possibile bloccare la condivisione di file e immagini con tali applicazioni. Si possono attivare avvisi in tempo reale per mettere in guardia gli utenti dal compiere determinate azioni e che rimandano a policy sull’utilizzo accettabile.

    Inoltre, l’acquisizione di metadati e screenshot durante le interazioni degli utenti con gli LLM può fornire visibilità sulle tipologie di dati condivisi e il contenuto di qualsiasi prompt.

    Shadow AI, come mantenerne il controllo

    È fondamentale che tutti i controlli messi in atto siano efficaci su LLM e applicazioni di GenAI – non solo su quelli ufficialmente utilizzati, affinché si ottenga visibilità sull’intera shadow AI.

    Per questo, è importante disporre di soluzioni DLP specializzate, in grado di coprire una grande varietà di modelli, per monitorare l’attività in base a utente, gruppo o dipartimento e identificare qualsiasi applicazione che acceda a dati aziendali, e-mail, calendari e simili.

    Una volta compreso dove sono i dati sensibili aziendali, e come si stanno muovendo, è possibile indirizzare la formazione sugli utenti che presentano il rischio più elevato.

    Oltre alle policy che regolano gli usi consentiti degli LLM e i tipi di dati che possono essere condivisi, è importante anche assicurarsi che tutte le risorse in azienda comprendano i rischi connessi al loro utilizzo.

    Come spesso accade nella cybersecurity, i dati non escono dall’azienda in autonomia, ma sono le persone stesse a spostarli lungo un determinato percorso. Solo attraverso una formazione continua sulla consapevolezza, strumenti avanzati e policy chiare sarà possibile adottare misure adeguate i per mantenere i dati sotto controllo.

    di Ferdinando Mancini, Director, Southern Europe & Israel Sales Engineering, Proofpoint

    adozione dell'AI Ferdinando Mancini GenAI LLM Proofpoint
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Compila adesso il questionario OAD 2025

    17/06/2025

    Telecomunicazioni: un settore in continua evoluzione

    16/06/2025

    AI Agentica: gestire i rischi in modo responsabile

    16/06/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    Defence Tech

    ConfSec 2025: lo stato dell’arte della cybersecurity nel Sud Italia

    17/06/2025

    Lo Zero Trust Everywhere si estende con le nuove soluzioni di Zscaler

    17/06/2025

    SentinelOne aderisce all’AWS ISV Workload Migration Program

    17/06/2025

    Minacce informatiche: i trend di maggio 2025

    17/06/2025
    Report

    Cybersecurity: le previsioni di Deloitte

    10/06/2025

    Red Hat rivela il futuro della virtualizzazione: innovazione e agilità per le aziende

    06/06/2025

    Sviluppatori entusiasti e ottimisti sull’AI agentica

    04/06/2025

    Intelligenza Artificiale: non tutte le aziende sono pronte

    30/05/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.