Le competenze legate all’AI, ovvero le istruzioni eseguibili sempre più utilizzate per rendere operativa l’intelligenza artificiale, sono diventate un obiettivo di alto valore per i cybercriminali. A essere colpiti sono soprattutto gli ambienti critici come i SOC e le organizzazioni in settori come sanità, pubblico, industriale e finanziario. Il dato emerge da “AI Skills as an Emerging Attack Surface in Critical Sectors: Enhanced Capabilities, New Risks”, l’ultimo studio di TrendAI, business unit di Trend Micro e specialista globale nella sicurezza dell’intelligenza artificiale.
Le organizzazioni automatizzano e scalano l’intelligenza artificiale per far fronte alla carenza di preparazione e alle pressioni operative, ma nello stesso momento l’AI codifica silenziosamente competenze sensibili, logiche decisionali e workflow, accrescendo le sue conoscenze. Se compromesse, queste abilità possono rivelare come le organizzazioni rilevano le minacce, prendono decisioni e rispondono agli incidenti, offrendo così un notevole vantaggio ai cybercriminali.
La ricerca mostra che i SOC sono particolarmente vulnerabili. L’accesso alle competenze dell’intelligenza artificiale può rivelare le logiche di classificazione degli alert, le regole di correlazione e i programmi di risposta, consentendo ai cybercriminali di non far scattare allarmi, eludere il rilevamento o manipolare i livelli di gravità. Rischi simili si possono ritrovare in altri settori, dalla manipolazione delle attività di trading nel settore finanziario, all’interferenza nelle decisioni cliniche in quello sanitario.
Gli strumenti di sicurezza tradizionali non sono progettati per rilevare queste minacce. Le competenze dell’intelligenza artificiale sono in gran parte costituite da testo non strutturato, che richiede la comprensione semantica più che il rilevamento basato sulla firma. L’esposizione pubblica delle conoscenze tramite archivi aperti aggrava ulteriormente il rischio.
Lo studio rivela anche un nuovo modello di kill chain per la compromissione delle competenze dell’intelligenza artificiale e offre indicazioni pratiche per il rilevamento e la governance delle minacce. Le organizzazioni dovrebbero trattare le competenze dell’intelligenza artificiale come una proprietà intellettuale sensibile e applicare, sin da subito, un rigoroso controllo degli accessi, monitoraggio e convalida.
“Le competenze dell’intelligenza artificiale trasformano la conoscenza istituzionale in codice eseguibile. Questo le rende incredibilmente potenti e preziose per i cybercriminali”. Afferma Marco Fanuli, Technical Director di TrendAI Italia, una business unit di Trend Micro. “Quando un malintenzionato entra in possesso delle competenze dell’intelligenza artificiale, è in grado di capire come la potenziale vittima vede, pensa, decide e risponde. È fondamentale adottare le contromisure adeguate”.


