• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Intelligenza artificiale in azienda: opportunità e rischi da governare
    • SAP porta a Milano HR Connect per scoprire il futuro del lavoro
    • IT e AI agentica, come rendere sicura l’autonomia
    • Competenze e leadership nell’era dell’AI: l’analisi di SentinelOne
    • PhantomRPC: vulnerabilità RPC di Windows che consente agli hacker di creare server falsi
    • Edilizia: l’intelligenza artificiale può fare la differenza
    • Nutanix entra in AWS European Sovereign Cloud
    • Oracle AI Database@Google Cloud: potenziate le funzionalità AI
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»IT e AI agentica, come rendere sicura l’autonomia

    IT e AI agentica, come rendere sicura l’autonomia

    By Redazione LineaEDP27/04/20267 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    L’adozione di agenti AI sta ridefinendo l’IT aziendale, spostando il processo decisionale verso sistemi autonomi capaci di operare direttamente su infrastrutture e sicurezza. In questo scenario, diventa essenziale affiancare all’autonomia una governance avanzata, basata su controllo degli accessi, osservabilità e policy applicabili, per garantire resilienza e ridurre i rischi operativi.

    IT
    Priyanka Roy, Senior Enterprise Evangelist di ManageEngine

    Con l’avvento degli agenti AI che prendono decisioni in tempo reale su cloud, sicurezza e infrastruttura, le aziende devono ripensare al modo in cui proteggono, monitorano e governano l’IT autonoma.

    Il dibattito sull’AI in azienda si è evoluto: non si parla più di assistenti che redigono email o riassumono report. Si parla di AI agentica, ovvero sistemi che osservano, ragionano, decidono ed eseguono azioni all’interno degli ambienti di produzione. Dal ridimensionamento dei cluster cloud alla gestione degli avvisi di sicurezza, gli agenti iniziano a operare nel cuore dell’IT aziendale. Secondo un report di Gartner®, entro il 2026 quasi il 40% delle applicazioni aziendali integrerà agenti di IA specifici per determinate attività, rispetto a meno del 5% nel 2025. Ciò indica che il processo decisionale autonomo si sta spostando dalla fase sperimentale a quella infrastrutturale. Al contempo, il panorama delle minacce sta accelerando. Il Global Threat Report 2026 di CrowdStrike ha rilevato che il tempo medio di breakout, ovvero il tempo impiegato da un hacker per spostarsi lateralmente dopo la compromissione iniziale, è sceso a 29 minuti, con alcune intrusioni che impiegano pochi secondi a compromettere i sistemi. L’intelligenza artificiale sta accelerando la corsa agli armamenti informatici da entrambe le parti della barricata.

    Il messaggio è chiaro: l’IT autonoma non può esistere senza una governance autonoma.

    Come l’AI agentica sta trasformando l’IT nelle imprese L’automazione tradizionale esegue script predefiniti. I sistemi di AI agentica valutano il contesto, soppesano i compromessi e scelgono tra molteplici azioni possibili.

    Un’automazione basata su script può far crescere l’infrastruttura quando l’utilizzo della CPU supera una determinata soglia. Un agente AI, d’altro canto può valutare l’andamento dei costi, la domanda storica, i requisiti SLA e il livello di sicurezza prima di decidere se ridurre le risorse o arrestarle completamente.

    Questo cambiamento introduce tre realtà operative:

    · L’autorità decisionale si avvicina al sistema

    · Il rischio diventa probabilistico, mentre prima era basato su regole

    · Gli audit devono tenere conto dei ragionamenti e non solo delle azioni

    In altre parole, le imprese non automatizzano più i compiti, bensì delegano il giudizio. E questo richiede dei paletti.

    Progettare un’AI autonoma sicura

    Il primo principio per la gestione degli agenti AI nell’IT aziendale è apparentemente semplice: limitare il potere prima di estenderlo.

    Gli agenti AI con autorizzazioni eccessive rappresentano uno dei maggiori rischi nell’IT autonoma. Il fatto che un sistema possa agire non può significare che debba agire ovunque.

    Le migliori pratiche prevedono service identity con ambito ristretto e un rigoroso controllo degli accessi, basato su ruoli o attributi. È opportuno separare le autorizzazioni per l’osservazione, la raccomandazione e l’esecuzione, introducendo diversi livelli di autonomia. Le azioni a basso rischio (pulizia dei log, etichettatura delle risorse) possono essere eseguite automaticamente, mentre le azioni ad alto impatto (modifiche IAM, regole firewall, rettifiche di fatturazione) richiederanno un’esplicita approvazione umana.

    Altrettanto fondamentale è la presenza di un “kill switch” collaudato. I sistemi autonomi devono essere in grado di declassarsi o sospendersi quando vengono superate determinate soglie di anomalia. I tassi di inversione (la frequenza con cui gli esseri umani annullano le azioni dell’AI) sono indicatori precoci particolarmente efficaci di un’autonomia non sicura.

    L’autonomia senza un interruttore di sicurezza non è innovazione. È vulnerabilità.

    Osservabilità degli agenti AI: monitorare i percorsi decisionali

    L’IT autonoma richiede una nuova categoria di osservabilità. Il monitoraggio di CPU, memoria e latenza non è più sufficiente. Le aziende devono ora monitorare:

    • Versioni e aggiornamenti dei modelli

    • Input e output dei prompt

    • Punteggi di affidabilità

    • Percorsi decisionali

    • Frequenza di esecuzione

    • Violazioni delle policy

    Una ricerca di IBM sui trend di osservabilità dei sistemi basati su intelligenza artificiale evidenzia che questi richiedono una telemetria altrettanto intelligente. Registrare le azioni di un agente AI è solo metà del lavoro. Le organizzazioni devono anche registrare il motivo per cui tali azioni sono state svolte.

    Ciò significa integrare la telemetria degli agenti AI nelle piattaforme SIEM (Security Information and Event Management) e SOAR (Security Orchestration, Automation, and Response) esistenti, in modo che i comportamenti anomali vengano trattati come eventi di sicurezza prioritari. Le

    dashboard dovrebbero monitorare i tassi di ripristino, i parametri di conformità alle policy e il tempo medio di ripristino, non solo il tempo di attività. Nell’IT autonoma, l’osservabilità si trasforma in responsabilità.

    Mettere in sicurezza lo stack dell’AI agentica

    L’AI agentica introduce nuove vulnerabilità perché non è un singolo componente, bensì un ecosistema. Un agente AI può infatti includere un modello di base o specifico per un determinato dominio, livelli di logica di prompt, connettori dati, API, servizi cloud, plugin esterni e ambienti di esecuzione. Ogni livello amplia la superficie di attacco. Il Global Cybersecurity Outlook 2026 del World Economic Forum avverte che l’adozione dell’IA sta rimodellando il panorama dei rischi a livello globale, in particolare in aree quali l’iniezione di prompt, la manipolazione dei modelli e la compromissione della catena di fornitura.

    Ciò significa mantenere un registro dei modelli che tenga traccia delle diverse versioni, registrare la provenienza dei dati di addestramento, firmare crittograficamente gli artefatti del modello e condurre esercitazioni di red teaming che simulino l’iniezione di prompt e l’uso improprio degli strumenti.

    Se un’organizzazione non è in grado di tracciare come è stato creato, aggiornato e testato un agente AI, non può affermare di governarlo.

    Rendere applicabile la governance dell’AI

    La governance deve passare dai documenti procedurali alla capacità di eseguire controlli. Le pratiche di policy-as-code consentono alle imprese di codificare i comportamenti accettabili degli agenti AI direttamente nei sistemi. Le organizzazioni possono definire:

    · API approvate e limitazioni di servizio

    · Soglie finanziarie per azioni autonome

    · Finestre di gestione delle modifiche

    · Regole di escalation

    Limitazioni di conformità

    Queste policy sono soggette a controllo di versione, testate in ambienti di staging e applicate automaticamente. Parallelamente, le aziende dovrebbero implementare implementazioni di sicurezza per gli agenti AI, espandendone gradualmente l’autonomia solo dopo che la telemetria ne abbia convalidato la sicurezza e l’affidabilità. I kill switch devono essere testati regolarmente, non solo documentati.

    Governare l’IT autonoma non significa rallentare l’innovazione, ma abilitare una scalabilità senza caos. Per le organizzazioni che esplorano gli agenti AI in ambienti aziendali, il percorso più sicuro è quello incrementale. Iniziare con flussi di lavoro ripetitivi e a basso rischio.

    Implementare gli agenti in ambienti sandbox con autorizzazioni di sola lettura. Registrare ogni azione e misurare la frequenza di override umano. Espandere i privilegi di esecuzione solo dopo che i tassi di annullamento diminuiscono e le violazioni delle policy rimangono minime.

    Questo approccio di implementazione graduale riduce il rischio operativo e al contempo rafforza la fiducia interna. L’IT autonoma non deve arrivare da un giorno all’altro, ma deve farlo in modo responsabile.

    Autonomia e responsabilità

    L’agentic AI ridefinirà l’IT aziendale. Ridurrà i tempi di risposta, diminuirà i carichi operativi e ottimizzerà continuamente l’infrastruttura in modi che i processi manuali non avrebbero mai potuto eguagliare.

    Tuttavia, l’obiettivo non è l’autonomia, bensì la resilienza. Le aziende che avranno successo con l’IT autonoma saranno quelle che tratteranno gli agenti AI come sistemi primari: osservabili, verificabili, vincolati e governati. Registreranno i processi decisionali, codificheranno le politiche, proteggeranno le catene di approvvigionamento e testeranno i loro interruttori di sicurezza.

    Gli agenti AI gestiranno presto parti dell’infrastruttura aziendale, quindi la domanda non è se l’AI svolgerà un ruolo fondamentale nel nostro futuro, ma se opererà sotto una governance rigorosa.

    A cura di Priyanka Roy, Senior Enterprise Evangelist di ManageEngine

    ManageEngine Priyanka Roy
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Intelligenza artificiale in azienda: opportunità e rischi da governare

    27/04/2026

    SAP porta a Milano HR Connect per scoprire il futuro del lavoro

    27/04/2026

    Nutanix entra in AWS European Sovereign Cloud

    24/04/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Nuova Transizione 5.0: cosa cambia?
    Il futuro del lavoro passa dai Personal Systems: l’innovazione HP tra AI e sicurezza
    AI in locale: la workstation secondo Syspack tra potenza e flessibilità
    Tra promesse e realtà: vita (vera) da System Integrator
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    Defence Tech

    Competenze e leadership nell’era dell’AI: l’analisi di SentinelOne

    27/04/2026

    PhantomRPC: vulnerabilità RPC di Windows che consente agli hacker di creare server falsi

    27/04/2026

    GopherWhisper sfrutta i servizi di messaggistica Discord, Slack e Outlook per attività di spionaggio

    24/04/2026

    Con l’AI agentica crescono i rischi per la sicurezza

    24/04/2026
    Report

    L’Agentic AI e il divario di fiducia che ne ostacola l’adozione

    23/04/2026

    Indagine Red Hat: il divario nella sovranità dell’AI e i rischi di disruption per le imprese italiane

    21/04/2026

    Verso la Digital Company 2030: la visione di Cefriel nell’era della convergenza

    20/04/2026

    Servizi clienti poco efficienti: 1 consumatore italiano perde 8,8 ore all’anno

    15/04/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.