Come afferma Ferdinando Mancini, Director, Southern Europe & Israel Sales Engineering di Proofpoint nell’articolo che condividiamo di seguito, i modelli linguistici di grandi dimensioni (LLM) e la GenAI, sono arrivati all’interno delle aziende per restarci. Essi portano con sé non solo enormi vantaggi, ma anche qualche pericolo di sicurezza che potrebbe compromettere la sicurezza dei dati aziendali.
Scopriamo quindi come le aziende possono mantenere il controllo dei propri dati.
Buona lettura!
La rivoluzione LLM: come mantenere il controllo dei dati aziendali
Sembra avvenuto ieri l’ingresso sulla scena di ChatGPT, che ha conquistato oltre un milione di utenti in pochi giorni. In realtà, sono passati quasi tre anni – un tempo in cui molte cose sono cambiate.
Il modello linguistico di grandi dimensioni (LLM) sviluppato da OpenAI è ormai una presenza consolidata nei luoghi di lavoro di tutto il mondo, con 71 milioni di utenti giornalieri. Ma mentre datori di lavoro e team di sicurezza iniziavano a familiarizzare con questa nuova applicazione diffusa, sono emersi diversi modelli concorrenti.
In particolare, DeepSeek ha suscitato accese discussioni dal suo arrivo sul mercato nel 2024. La velocità e il costo della sua creazione hanno portato molti a mettere in discussione le sue capacità e sicurezza, mentre la proprietà cinese ha sollevato problemi di privacy e censura.
La rapidità con cui ha guadagnato terreno tra gli utenti fa sorgere anche una domanda più estesa: come possono i team di sicurezza tenere il passo con LLM in rapida crescita, facilmente accessibili e potenzialmente rischiosi?
Una cosa è certa: l’evoluzione tecnologica non può invertire la sua rotta. AI generativa e LLM sono qui per restare – e probabilmente si evolveranno più velocemente di qualsiasi altra tecnologia disponibile finora. Data la loro ubiquità sul posto di lavoro, imporre divieti assoluti ai dipendenti non è realistico e probabilmente inefficace.
Al contrario, le aziende sono chiamate a impegnarsi per comprendere i rischi che comportano e operare per proteggerne il più possibile l’utilizzo, senza incidere sulla produttività dei dipendenti.
Non perdere il controllo dei propri dati
Non c’è dubbio che gli LLM comportino rischi per ogni organizzazione. Sappiamo che gli attori delle minacce utilizzano ChatGPT e altri strumenti per perfezionare i loro messaggi, tradurre esche per entrare in nuovi mercati internazionali e raggiungere milioni di potenziali vittime con molto meno sforzo di prima.
DeepSeek, nel frattempo, è già stata oggetto di numerosi incidenti informatici, tra cui un attacco su larga scala nel 2025 che ha esposto oltre un milione di record sensibili, dati operativi e dettagli di sistema.
Tuttavia, ChatGPT, DeepSeek e la lunga serie di modelli LLM che inevitabilmente seguiranno non accedono ai dati da soli, ma è solo quando le persone li copiano e incollano all’interno del modello, o digitano prompt, che vi hanno accesso in modo effettivo.
Per sua stessa ammissione, DeepSeek “può raccogliere il tuo input di testo, prompt, file caricati, feedback, cronologia chat o altri contenuti che fornisci al nostro modello e Servizi”. E con un numero crescente di LLM sul mercato, possiamo essere certi che non sia l’unico a svolgere tali attività.
In definitiva, se non si monitora attivamente quali applicazioni vengono utilizzate dai dipendenti – e le informazioni che condividono – non c’è alcun modo di sapere quanti dei dati vengano archiviati al di fuori delle protezioni aziendali, trovandosi, di conseguenza potenzialmente a rischio.
Abbinare produttività e sicurezza
Il primo passo per proteggere i dati aziendali è capire dove sono, dove stanno andando e chi li sta trasferendo. In particolare, è fondamentale identificare e classificare quelli sensibili, come informazioni personali, proprietà intellettuale e dati regolamentati.
Successivamente, vanno messi in atto controlli per tracciare e, se necessario, limitare il modo in cui questi dati si muovono in azienda – in particolare come vengono condivisi con applicazioni di terze parti come gli LLM. Ciò potrebbe significare imporre limiti di copia/incolla sui prompt che possono essere inseriti in ChatGPT.
Con estensioni del browser sicure, è anche possibile bloccare la condivisione di file e immagini con tali applicazioni. Si possono attivare avvisi in tempo reale per mettere in guardia gli utenti dal compiere determinate azioni e che rimandano a policy sull’utilizzo accettabile.
Inoltre, l’acquisizione di metadati e screenshot durante le interazioni degli utenti con gli LLM può fornire visibilità sulle tipologie di dati condivisi e il contenuto di qualsiasi prompt.
Shadow AI, come mantenerne il controllo
È fondamentale che tutti i controlli messi in atto siano efficaci su LLM e applicazioni di GenAI – non solo su quelli ufficialmente utilizzati, affinché si ottenga visibilità sull’intera shadow AI.
Per questo, è importante disporre di soluzioni DLP specializzate, in grado di coprire una grande varietà di modelli, per monitorare l’attività in base a utente, gruppo o dipartimento e identificare qualsiasi applicazione che acceda a dati aziendali, e-mail, calendari e simili.
Una volta compreso dove sono i dati sensibili aziendali, e come si stanno muovendo, è possibile indirizzare la formazione sugli utenti che presentano il rischio più elevato.
Oltre alle policy che regolano gli usi consentiti degli LLM e i tipi di dati che possono essere condivisi, è importante anche assicurarsi che tutte le risorse in azienda comprendano i rischi connessi al loro utilizzo.
Come spesso accade nella cybersecurity, i dati non escono dall’azienda in autonomia, ma sono le persone stesse a spostarli lungo un determinato percorso. Solo attraverso una formazione continua sulla consapevolezza, strumenti avanzati e policy chiare sarà possibile adottare misure adeguate i per mantenere i dati sotto controllo.
di Ferdinando Mancini, Director, Southern Europe & Israel Sales Engineering, Proofpoint