• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • SAS Viya si aggiorna per una produttività senza precedenti
    • Infrastrutture e workload: come riconfigurarli a causa dell’impatto dell’AI?
    • Nutanix e Pure Storage creano una nuova soluzione integrata
    • TheWizards: il gruppo APT che colpisce Asia e Medio Oriente
    • Var Group entra nel mercato spagnolo e si consolida in quello italiano
    • Da ServiceNow una nuova piattaforma AI che trasforma le aziende
    • PC AI: una svolta epocale nell’ambiente di lavoro moderno
    • Resilienza Produttiva: come rafforzarla?
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»eXplainable AI fondamentale per rafforzare la security

    eXplainable AI fondamentale per rafforzare la security

    By Redazione LineaEDP12/04/20226 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Max Heinemeyer (in foto) spiega come l’evoluzione dell’eXplainable AI (XAI) consoliderà il rapporto tra essere umano e intelligenza artificiale

    Max Heinemeyer, Darktrace
    Max Heinemeyer, Darktrace

    Nell’articolo che vi proponiamo qui di seguito, Max Heinemeyer, Director of Threat Hunting di Darktrace, spiega come l’evoluzione dell’eXplainable AI (XAI) consoliderà il rapporto tra essere umano e intelligenza artificiale attraverso il rafforzamento della security e una migliore comprensione degli insights utilizzati nei processi decisionali, unendo le tecnologie di elaborazione del linguaggio naturale (NLP) al rilevamento delle minacce.

    Per Heinemeyer, infatti, la sicurezza informatica non rappresenta più un problema “human-scale”. Gli ambienti digitali e i requisiti per renderli sicuri sono diventati troppo complessi perché i singoli individui siano in grado di gestirli sempre con successo, anche perché per riuscire nel proprio intento a un cybercriminale basta non fallire in una particolare occasione, mentre chi protegge i sistemi deve essere pronto tutto il tempo.

    Nelle organizzazioni moderne risiede una quantità di dati troppo elevata affinché gli esseri umani possano tenere il passo e anticipare ogni attacco informatico. Analizzare manualmente tutti i log di sicurezza di un’organizzazione e mettere in atto rilevazioni statiche non è più una scelta efficace né scalabile.

    Per questo motivo, l’intelligenza artificiale è diventata un elemento imprescindibile per la sicurezza informatica, e l’eXplainable AI (XAI) nei prossimi mesi svolgerà un ruolo cruciale in questo processo di potenziamento delle capacità della security, sia per i professionisti del settore sia per i responsabili aziendali.

    Chi opera nella security aziendale è per sua natura scettico; se deve fidarsi delle tecnologie con cui lavora, ha bisogno innanzitutto di capirle! L’intelligenza artificiale e i team aziendali devono lavorare insieme per difendersi da aggressori sempre più sofisticati, che dispongono di tecnologie avanzate. Le rilevazioni delle minacce abilitate dall’AI possono aiutare i team di sicurezza a migliorare il proprio lavoro, ma è altrettanto vero che non è possibile affidarsi in modo cieco ed esclusivo ad algoritmi matematici avanzati. Gli esseri umani devono avere il pieno controllo dei propri sistemi ed essere perfettamente in grado di capire come l’AI li influenza.

    In netto contrasto con il concetto di “black box”, l’attenzione alla XAI è destinata a crescere nei prossimi mesi. Nella cybersicurezza, una scatola nera è un sistema che può essere visto in termini di input e output senza la conoscenza del suo funzionamento interno. In questo contesto, gli output sono spesso prodotti senza spiegazioni, ma se la sicurezza informatica rientra ora tra le priorità del management aziendale, chi se ne occupa ha bisogno di spiegare in modo chiaro e comprensibile quali siano le ripercussioni previste dall’AI, le sue potenziali distorsioni e le azioni da intraprendere.

    L’eXplainabile AI, quindi, capovolge lo scenario, assicurando che i professionisti della sicurezza possano accedere ai meccanismi delle black box per comprendere a pieno le scelte intraprese dalla tecnologia (in questo caso, dalla AI). L’XAI è in grado di eseguire un ragionamento dettagliato per chiarire le decisioni dell’AI stessa. Questo processo aiuta ad accrescere la fiducia necessaria, mantenendo il controllo e comprendendo il processo decisionale che c’è dietro un motore AI. Non si tratta di dover per forza comprendere e mettere in discussione ogni decisione, ma piuttosto essere in grado di approfondire il processo, se necessario; una capacità che è cruciale nel momento in cui si indaga su incidenti informatici e si valuta come agire di conseguenza.

    Oggi non è possibile accettare passivamente che c’è qualcosa di nuovo: i team di sicurezza devono comprendere tutti i come e i perché dietro a quell’innovazione. Tutto questo perché non è possibile identificare una vulnerabilità o una falla nella sicurezza senza comprendere come sia stato possibile all’hacker superare le difese o perché l’AI sia stata in grado di contenere la minaccia.

    Approcciarsi alla XAI comporta riuscire a garantire l’accesso umano all’input sottostante i vari livelli e spiegare cosa è stato fatto durante il processo. Si tratta, in sostanza, di ottenere risposte comprensibili.

    Dove è possibile e sicuro, l’eXplainabile AI rende disponibili questi dati sottostanti al team aziendale e tutto questo viene presentato in un linguaggio semplice, spesso con visualizzazioni o altri strumenti. Questi processi e metodi che permettono agli utenti umani di comprendere e avere quindi fiducia nei risultati e negli output forniti dalle tecnologie di machine learning devono essere in prima linea nei Security Operations Center (SOC).

    L’XAI offre una visione dei diversi livelli del processo decisionale, dall’astrazione più vicina all’output finale fino alla visione sugli stati di bassa astrazione, più vicini all’input. Programmando l’AI per spiegare il perché dietro le micro-decisioni quotidiane, i team di sicurezza acquistano fiducia nel prendere quelle macro-decisioni che generano un impatto sul business a livello complessivo e che necessitano quindi di un contesto umano.
    Un esempio concreto è l’elaborazione del linguaggio naturale (NLP) nell’analisi dei dati sulle minacce. Se combinata con il rilevamento e la risposta sofisticata alle minacce dell’AI, la tecnologia NLP può aiutare a dare un senso ai dati e a “scrivere” autonomamente report completi sull’accaduto, in grado di spiegare l’intero processo di attacco passo dopo passo, dalle prime fasi al suo sviluppo, fino alle azioni necessarie da intraprendere. In alcuni casi, l’elaborazione del linguaggio naturale può essere applicata anche a framework esistenti, come il framework MITRE ATT&CK, comunemente usato per aiutare a tracciare ed esprimere i risultati aggiungendo valore ai flussi di lavoro degli analisti di sicurezza più esperti.

    Le tecnologie NLP possono aiutare anche a formulare delle ipotesi rispetto a un attacco informatico, trasmettendo quindi il “come“, oltre al “cosa“. Questo permette non solo di scomporre le azioni di rilevamento delle minacce e di risposta in modo semplice, ma anche di informare i team su come impedire che queste minacce si ripetano.

    In questo scenario, l’importanza della XAI non è stata colta solo i leader della sicurezza ma anche dagli enti regolatori, che hanno compreso come gli strumenti utilizzati per addestrare l’AI possano potenzialmente presentare anch’essi dei rischi. Di solito, infatti, l’AI viene addestrata su set di dati estesi quanto sensibili, che possono essere condivisi tra team, organizzazioni e regioni, complicando così le misure di conformità da adottare.

    Per semplificare il più possibile l’operato delle organizzazioni e delle autorità di regolamentazione quando si affrontano questioni così complesse, è necessario implementare l’XAI allo scopo di garantire trasparenza, obiettività e, in definitiva, resilienza della stessa tecnologia. Per tutte le aziende, in realtà, se emergono imparzialità o imprecisioni negli algoritmi, è fondamentale fare affidamento su una tecnologia di XAI in grado di identificare dove hanno avuto origine questi errori, e prendere misure per mitigarli (oltre a comprendere i processi dietro le sue decisioni).

    In conclusione, ritengo che l’evoluzione dell’XAI, potenziando ulteriormente gli algoritmi di intelligenza artificiale con un nuovo livello di comprensione, si rivelerà fondamentale per rafforzare le difese delle aziende e affrontare le sfide che attendono i team della sicurezza in futuro.

    Darktrace eXplainable AI Max Heinemeyer XAI
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    SAS Viya si aggiorna per una produttività senza precedenti

    09/05/2025

    Infrastrutture e workload: come riconfigurarli a causa dell’impatto dell’AI?

    08/05/2025

    Var Group entra nel mercato spagnolo e si consolida in quello italiano

    08/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    TheWizards: il gruppo APT che colpisce Asia e Medio Oriente

    08/05/2025

    Resilienza Produttiva: come rafforzarla?

    07/05/2025

    IA e rischi cyber: gli attacchi si fanno più mirati e sofisticati

    07/05/2025

    Prisma AIRS: new entry da Palo Alto Networks

    06/05/2025
    Report

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025

    Intelligenza Artificiale e GenAI: adozione in crescita nel 2024

    10/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.