• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Portworx e Red Hat per promuovere risparmi e semplicità operativa
    • Cyber attacchi: l’Italia è maglia nera mondiale
    • Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi
    • Attacchi informatici: Russia, UE e Asia nel mirino
    • Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory
    • Sicurezza: AI sempre più sfidante
    • Oracle EU Sovereign Cloud conquista le organizzazioni tedesche
    • Progettare il futuro con Red Hat Enterprise Linux 10
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Strumenti di AI: istruzioni per l’uso… sicuro

    Strumenti di AI: istruzioni per l’uso… sicuro

    By Redazione LineaEDP12/06/20246 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Manlio De Benedetto di Cohesity condivide alcune best practice su come adottare gli strumenti di AI in tutta sicurezza

    strumenti-di-ai

    Come si fa a utilizzare gli strumenti di intelligenza artificiale in modo sicuro, evitando di creare backdoor che permettano alle informazioni sensibili di finire nei programmi di apprendimento esterni? In questo articolo, Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity sottolinea la necessità di procedere con estrema calma, in modo controllato e con cognizione di causa.

    Buona lettura!

    Alcuni suggerimenti su come i team IT possono adottare in modo sicuro l’AI

    Le chatbot di AI Generative, come ChatGPT, possono interpretare dati tecnici complessi in un linguaggio leggibile dall’uomo in pochi secondi e la maggior parte dei CEO a livello globale vede grandi opportunità in questa tecnologia perché spera in un incremento dell’efficienza. Ogni team IT prima o poi dovrà trovare le risposte su come utilizzare strumenti di AI, perché ci saranno indicazioni precise dalla direzione aziendale.

    In particolare, i cicli di innovazione dell’AI sono estremamente brevi, il che significa che la moltitudine di nuovi approcci, concetti e soluzioni si infittisce ogni giorno, pur considerando che quasi tutti i principali vendor di hardware e software IT hanno aggiunto elementi di AI alle relative soluzioni.

    Tuttavia, se i team IT utilizzano strumenti di AI in modo prematuro e ambizioso, potrebbero inconsapevolmente aprire nuove falle nella sicurezza. Gli Endor Labs hanno esaminato i software open source dello stack tecnologico dell’AI e hanno scoperto che più della metà dei riferimenti ai progetti presenta vulnerabilità ai propri file manifest. Come possono i team IT sfruttare il potenziale di questa tecnologia senza creare nuove vulnerabilità? Il consiglio di Cohesity: Introdurre l’AI lentamente, in modo controllato.

    Punti chiave

    Un buon inizio in tema di AI è legato alle operations aziendali e a tutti quei processi e passaggi in cui i team IT devono intervenire manualmente e investire tempo e risorse per portare a termine il flusso con successo, un approccio LEAN automatizzato, se vogliamo. È necessario esaminare le caratteristiche dei dati a cui accedono, le fonti di dati interne ed esterne che consultano e i partner con cui condividono le informazioni. Poiché alcuni moduli di AI sono progettati a livello globale e inoltrano automaticamente i dati interni ai server esterni, alcune aziende sono state sorprese da questo sviluppo e hanno appreso faticosamente che gli utenti interni stavano alimentando i data base degli strumenti di AI globali.

    Gli approcci all’AI guidati dal vendor, come quello di Cohesity, vengono integrati nel loro ambiente e ne rivelano il funzionamento, consentendo ai team IT di valutare con precisione il rischio e di evitare possibili scambi di dati con l’esterno. I team IT devono essere selettivi su sistemi e fonti di dati che i moduli di AI esaminano attivamente, per iniziare con un piccolo cluster e introdurre gli strumenti di AI in modo controllato.

    Dedicare del tempo all’apprendimento

    Quando i moduli di AI vengono attivati, il loro funzionamento e i loro suggerimenti devono essere monitorati da un responsabile del team IT per un ampio periodo di tempo. L’AI agirà sempre meglio e in modo più accurato quanto più a lungo lavorerà e quanti più dati e modelli avrà raccolto nel singolo ambiente dell’azienda. Inizialmente, quindi, commetterà più errori man mano che impara. I dati sono fondamentali: più sono, meglio è. È consigliato di adottare anche il processo Retrieval-Augmented Generation (RAG), per ampliare i dati di apprendimento.

    In ogni caso, i moduli possono suggerire rapidamente le misure più appropriate, soprattutto per le attività standard. Se, ad esempio, gli indirizzi IP provenienti da aree geografiche sospette vengono bloccati da un firewall, l’AI può suggerire le regole giuste e un esperto di IT deve solo approvarle. L’AI suggerisce, mentre la decisione finale spetta all’uomo.  Più l’AI diventa sofisticata, più è in grado di preparare decisioni critiche e di aiutare in modo sostanziale i team a risparmiare tempo, smistando in anticipo il volume di informazioni nelle operazioni aziendali. Gli ambienti odierni generano quotidianamente petabyte di dati di log, che indicano varie criticità legate alla sicurezza o alle performance. Nella maggior parte degli ambienti, l’80% di queste informazioni non viene valutato perché il volume è troppo elevato. L’AI può elaborare questi dati su base giornaliera e renderli accessibili per le query vocali. È possibile porre ai dati domande come “Mostrami tutti i sistemi con uno specifico livello di patch e questa vulnerabilità” senza dover scrivere una singola stringa come in precedenza. I team IT saranno più informati e prenderanno quindi decisioni migliori.

    Prepararsi ad affrontare l’esterno

    In particolare, i moduli AI relativi alla sicurezza vengono spesso istruiti ad aggiornarsi all’esterno – su nuovi metodi di attacco, vulnerabilità, patch e così via. In questo caso è necessario controllare attentamente quali informazioni escono e quali dati tornano indietro. Nessun CISO accetterà che i dettagli sulla propria struttura di rete e sulle vulnerabilità e patch attuali vengano inseriti in un motore di AI esterno. È opportuno analizzare in un test pilota quali dati vengono realmente inviati. I vendor con approcci maturi agli strumenti di AI possono mostrare in dettaglio quali informazioni immettere e se ci sono modi per l’azienda di escludere alcuni elementi fin dall’inizio. Esaminare ogni singolo input diventa complicato su base giornaliera a causa del volume di aggiornamenti dei moduli di AI, a meno non venga sviluppata un’autorità di controllo dell’AI, che a sua volta controlli gli input e gli output dell’AI dal punto di vista della sicurezza.

    Tuttavia, i team IT dovrebbero impegnarsi in questo processo, perché il potenziale dell’AI autonoma nella propria rete è immenso, dove ogni area di attività ne trarrà vantaggio e si creeranno in automatico delle sinergie. Si pensi che l’AI delle risorse umane scambi informazioni con l’AI della sicurezza e con quella del magazzino sul fatto che un utente dell’ufficio finanziario sta accedendo ai server di ricerca tramite il suo smartphone. Un messaggio di allarme verrebbe inviato immediatamente al team di sicurezza.

    Conclusioni

    L’intelligenza artificiale può ridurre drasticamente l’enorme carico di lavoro dei team IT e di sicurezza, fornendo report completi e indicazioni chiare e precise sui passaggi successivi, dando una prospettiva di lavoro ai gruppi operativi che sono sottodimensionati per i difficili compiti da svolgere. Entrando nel merito delle attività di Data Protection & Recovery, occorre rivolgersi al vendor più capace e innovativo che sia pronto a fornire l’AI già parte integrante delle proprie soluzioni. Oggi gli strumenti di AI possono essere di grande supporto, svolgendo in autonomia molte delle attività più importanti ma al tempo stesso ripetitive e noiose, trasmettendo gli eventi ai team IT/Security quando diventano critici e complicati. In questo modo, l’AI può contribuire in modo decisivo ad accrescere la resilienza informatica contro gli attacchi che, ironia della sorte, sono sempre più spesso sferrati dall’intelligenza artificiale.

    di Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity

    Cohesity cybersecurity intelligenza artificiale (AI) Manlio De Benedetto
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Portworx e Red Hat per promuovere risparmi e semplicità operativa

    22/05/2025

    Cyber attacchi: l’Italia è maglia nera mondiale

    22/05/2025

    Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi

    21/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Cyber attacchi: l’Italia è maglia nera mondiale

    22/05/2025

    Attacchi informatici: Russia, UE e Asia nel mirino

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.