La spinta delle organizzazioni verso l’adozione di agenti AI sta superando la capacità di proteggerli, secondo una nuova ricerca di Rubrik Zero Labs. Rubrik ha annunciato oggi i risultati del report, che mostrano come le organizzazioni stiano rendendo operativi sistemi autonomi senza disporre dei controlli necessari per governarli, creando così un divario tra innovazione e sicurezza. Basato su un’indagine condotta su oltre 1.600 leader IT e security a livello globale, il report rivela:
● L’86% prevede che gli agenti AI supereranno le misure di sicurezza della propria organizzazione entro il prossimo anno. In Italia, questa percentuale raggiunge l’83%, con un dato ancora più allarmante: secondo il 3% degli intervistati italiani, la quota più alta tra tutti i paesi analizzati, questo scenario è già attuale.
● Solo il 23% a livello globale (30% in Italia) dichiara di avere piena visibilità sugli agenti che operano nei propri ambienti, con una percentuale che – come sottolinea il report – è probabilmente sovrastimata. Il risultato è l’incapacità di proteggere in modo adeguato identità che già prendono decisioni, eseguono azioni e interagiscono con dati critici.
Questo divario è aggravato dalla proliferazione delle identità. Le identità non umane associate agli agenti si moltiplicano più velocemente di quanto le aziende riescano a tracciarle o governarle, formando quella che i ricercatori definiscono una “forza lavoro ombra”. Queste identità operano spesso con accessi persistenti e supervisione limitata, creando nuovi percorsi per uso improprio, compromissione e movimento laterale.
Allo stesso tempo, anche la promessa operativa degli agenti AI è sotto pressione. Tra le altre evidenze del report:
● Oltre l’80% degli intervistati a livello globale (72% in Italia) ammette che gli agenti richiedono più supervisione manuale rispetto all’efficienza che sono in grado di generare. L’88% afferma di non avere la capacità di annullare le azioni degli agenti senza il rischio di causare interruzioni di sistema, in Italia il dato è dell’80%.
● Recovery e prevenzione stanno emergendo come punti critici di fallimento. Quasi nove leader su dieci hanno espresso preoccupazione sulla capacità di rispettare gli obiettivi di ripristino man mano che aumentano le minacce guidate da agenti.
La minaccia stessa sta accelerando. Quasi la metà degli intervistati prevede che i sistemi agentici guideranno la maggior parte degli attacchi nel prossimo anno, riflettendo un cambiamento più ampio nel modo in cui operano gli attaccanti. I sistemi autonomi comprimono i tempi, scalano gli attacchi e rendono più labile il confine tra rischio interno e compromissione esterna.
“L’adozione dell’AI sta superando la nostra capacità di controllarla. Le organizzazioni faticano perché hanno implementato sistemi che non possono osservare, governare o ripristinare completamente,” dichiara Kavitha Mariappan, Chief Transformation Officer di Rubrik. “Dobbiamo andare oltre il dibattito ‘se l’AI sia rischiosa’ e affrontare una realtà più complessa: man mano che il processo decisionale si sposta dall’umano alla macchina, la sfida per ogni leader è mantenere la sicurezza operativa in un panorama sempre più autonomo.”
Per i consigli di amministrazione e i dirigenti, l’implicazione è immediata. Una strategia AI non può più essere distinta da una corrispondente strategia di resilienza. Le organizzazioni che continuano a dare priorità alla velocità di implementazione rispetto ai meccanismi di controllo rischiano di creare ambienti dove i fallimenti non possono essere contenuti o invertiti.
“La verifica dell’identità è il pilastro che ci consentirà di ottenere i maggiori benefici in termini di automazione dall’AI senza creare colli di bottiglia legati all’intervento umano,” afferma Steven Ramirez, VP, Chief Information Security & Technology Officer di Renown Health. “Verifica e visibilità sono prerequisiti per un’implementazione agentica solida e sicura.” dall’IA senza”, afferma Steven Ramirez, VP e Chief Information Security & Technology Officer di Renown Health.
Il report di Rubrik Zero Labs, The State of the Agent: Understanding Adoption, Risk, and Mitigation, combina i dati di un’indagine globale con un’analisi tecnica dei vettori di attacco emergenti attraverso i livelli strumentali, cognitivi e di identità dei sistemi AI. La ricerca delinea un cambiamento già in atto: la sicurezza non consiste più solo nel prevenire le violazioni, ma nel mantenere il controllo all’interno di sistemi che non attendono più l’intervento umano.


