• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    • Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba
    • Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky
    • Cloud italiano: tra sovranità digitale e competitività
    • Storage intelligente: la chiave di volta per i data center moderni
    • TeamViewer ONE: la piattaforma unificata che rivoluziona il Digital Workplace
    • Design responsive: ecco perché è diventato un must in tutti i settori
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»LLM: quali rischi si corrono nel cloud?

    LLM: quali rischi si corrono nel cloud?

    By Redazione LineaEDP31/01/2024Updated:31/01/20247 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Tristano Ermini di Palo Alto Networks analizza benefici, pericoli e rischi legati agli LLM e spiega come l’azienda protegge i suoi clienti.

    LLM

    I vantaggi degli LLM sono innegabili e numerosi ma, allo stesso tempo, espongono i dipendenti delle organizzazioni a numerosi rischi. In questo articolo, Tristano Ermini, Manager, Systems Engineering di Palo Alto Networks spiega quali sono i pericoli e gli usi malevoli legati ai modelli linguistici di grandi dimensioni.

    Buona lettura!

    Benefici e rischi dei Large Language Model nel cloud

    Qual è la correlazione tra i modelli linguistici di grandi dimensioni (LLM) e la sicurezza cloud? Questi modelli avanzati possono essere pericolosi, ma possono anche essere utilizzati per favorire la sicurezza dei sistemi basati su cloud.  Un modello linguistico di grandi dimensioni è un programma di intelligenza artificiale progettato per comprendere il linguaggio umano e generare contenuti in linea con questo. Viene addestrato su grandi quantità di dati testuali provenienti da Internet, imparando grammatica, eventi e processi di ragionamento. Grazie a queste conoscenze, un LLM è in grado di rispondere a domande, generare testi e persino sostenere una conversazione con gli utenti. Esempi di LLM sono ChatGPT di OpenAI, Bard di Google e il motore di ricerca Bing di Microsoft.

    Con il cloud computing che continua a dominare il panorama tecnologico, è diventato più importante che mai garantire una solida sicurezza a servizi e dati che risiedono nel cloud e proprio lo sviluppo di modelli linguistici di grandi dimensioni si è rivelato molto promettente per ottimizzarla.

    I rischi degli LLM

    Proprio per il carattere rivoluzionario della tecnologia LLM, ci sono problemi e limiti noti che i ricercatori di intelligenza artificiale devono ancora superare. Se da un lato l’AI generativa può produrre contenuti utili e accurati, dall’altro può creare disinformazione che confonde i consumatori. Analizziamo qui di seguito alcuni dei principali rischi:

    Allucinazione

    Gli LLM possono generare output non fondati sul contesto di input o sulla conoscenza del modello. Ciò significa che il modello linguistico genera un testo non logicamente coerente con l’input, o semanticamente scorretto, che risulta comunque plausibile a un individuo.

    Pregiudizi

    La maggior parte delle applicazioni LLM si affida a modelli preaddestrati, perché la creazione di un modello ex novo è troppo costosa per la maggior parte delle aziende. Tuttavia, poiché non esistono dati di addestramento perfettamente bilanciati, ogni modello avrà sempre qualche aspetto falsato.  Ad esempio, i dati sulla formazione potrebbero contenere più testi in inglese che in cinese o più conoscenze sul liberalismo che sul conservatorismo. Quando gli esseri umani si affidano alle raccomandazioni di questi modelli, i loro pregiudizi possono portare a decisioni non corrette o discriminatorie.

    Coerenza

    Anche partendo dai medesimi input, gli LLM non generano sempre gli stessi output: sono modelli probabilistici che continuano a “prevedere” la parola successiva in base a determinate distribuzioni di probabilità.

    Elusione dei filtri

    Gli strumenti LLM sono tradizionalmente dotati di filtri di sicurezza per evitare che i modelli generino contenuti indesiderati, come quelli per adulti, violenti o non rispettosi del copyright. Tali filtri, tuttavia, possono talvolta essere aggirati, ad esempio, manipolando gli input (prompt injection attack). I ricercatori hanno dimostrato varie tecniche per istruire ChatGPT a generare testi offensivi o previsioni non fondate.

    Privacy

    Gli LLM possono solo ricevere input e generare output entrambi non crittografati, by design. Quando un modello proprietario viene offerto come servizio, ad esempio OpenAI, i service provider accumulano una grande quantità di informazioni sensibili o classificate, la cui violazione potrebbe essere catastrofica, come osservato nei recenti casi di takeover di account e incidenti di query trapelate.

    Usi malevoli

    Fake news e disinformazione

    Grazie alle loro avanzate capacità di generazione del linguaggio, gli LLM possono creare contenuti convincenti, basati su input verosimili ma falsi, contribuendo alla diffusione di fake news, teorie cospirative o narrazioni con intenti negativi.

    Attacchi di social engineering

    I malintenzionati possono utilizzare gli LLM per creare sofisticati attacchi di social engineering, come le e-mail di spear phishing e contenuti basati sul deep fake.

    Violazione della proprietà intellettuale

    Gli LLM possono essere utilizzati per generare contenuti molto simili a materiale protetto da copyright, rappresentando un rischio per le aziende che si affidano alla proprietà intellettuale per mantenere un vantaggio competitivo.

    Creazione di strumenti di attacco

    L’AI generativa è stata utilizzata per verificare codice sorgente e scrivere nuovo codice e i ricercatori hanno dimostrato che può anche scriverne di pericolosi, come i ransomware. Ulteriori ricerche dimostrano che i criminali informatici usano ChatGPT anche per creare script di attacco.

    Casi d’uso di LLM nella sicurezza cloud

    Gli LLM non rappresentano solamente un rischio potenziale, ma possono anche assumere un ruolo positivo: se usati correttamente, possono essere sfruttati anche per migliorare la sicurezza cloud.

    Automatizzare il rilevamento e la risposta alle minacce

    Uno dei vantaggi più significativi degli LLM nel contesto della sicurezza cloud è la capacità di ottimizzare i processi di rilevamento e risposta alle minacce. Unendo la comprensione del linguaggio naturale, tipica degli LLM, alla Precision AI (Machine Learning o Deep Learning), si possono identificare potenziali minacce nascoste in grandi volumi di dati e modelli di comportamento degli utenti. Inoltre, imparando continuamente da nuovi dati, è possibile adattarsi alle minacce emergenti e fornire informazioni sui rischi in tempo reale, consentendo alle aziende di rispondere in modo rapido ed efficiente agli incidenti di sicurezza.

    Migliorare la conformità alla sicurezza

    Con la continua evoluzione dei quadri normativi, le aziende devono affrontare la sfida della compliance rispetto a vari standard e requisiti di sicurezza. Gli LLM possono essere utilizzati per analizzare e interpretare i testi normativi, consentendo di comprendere e implementare facilmente i controlli di protezione necessari. Automatizzando la gestione della conformità, possono ridurre significativamente l’impegno dei team di sicurezza, consentendo loro di concentrarsi su altre attività fondamentali.

    Questo aspetto è estremamente importante per le soluzioni che richiedono un elevato livello di conformità e lo è ancora di più quando il cliente che le gestisce desidera rispettare determinate normative.

    Prevenzione degli attacchi di social engineering

    Gli attacchi di social engineering, come il phishing e il pretexting, sono tra le minacce più diffuse alla sicurezza cloud. Utilizzando gli LLM per analizzare i modelli di comunicazione e identificare i potenziali rischi, le aziende possono rilevare e bloccare in modo proattivo gli attacchi di social engineering. Grazie a capacità avanzate di comprensione del linguaggio, gli LLM sono in grado di discernere le sottili differenze tra comunicazioni legittime e dannose, fornendo un ulteriore livello di protezione per i sistemi basati su cloud.

    Migliorare la comunicazione della risposta agli incidenti

    Quando si parla di sicurezza cloud, un aspetto critico dell’incident response è rappresentato dall’efficacia dei processi di comunicazione. Gli LLM possono essere utilizzati per generare report accurati e tempestivi, rendendo più facile per i team di sicurezza comprendere la natura degli incidenti e coordinare le attività di risposta. Inoltre, possono essere adottati per creare comunicazioni chiare e concise con gli stakeholder, aiutando le aziende a gestire i rischi per la reputazione associati alle violazioni di sicurezza.

    Gli LLM in Palo Alto Networks

    In Palo Alto Networks, gli LLM sono impiegati principalmente per migliorare la modalità con cui l’utente si interfaccia con la console delle diverse soluzioni, con strumenti tipo Copilot oppure con la possibilità di effettuare query in linguaggio naturale.

    Le funzionalità di Security fanno invece uso di Precision AI, come Machine Learning e Deep Learning.

    Come Palo Alto Networks protegge dai rischi degli LLM

    Come abbiamo visto, sebbene i vantaggi degli LLM siano numerosi, essi aumentano anche il rischio che i dipendenti delle organizzazioni diffondano dati sensibili attraverso le applicazioni di Generative AI, violando la conformità o i requisiti normativi.

    Palo Alto Networks offre ai propri clienti un CASB di nuova generazione, in grado di identificare e bloccare l’accesso a interi cataloghi di app di Gen AI non autorizzate, che possono mettere a rischio utenti e dati. Inoltre, per le app consentite, il CASB può impedire la dispersione di dati sensibili su ChatGPT e altre app di uso comune, ad esempio quando gli utenti incollano codice sorgente o dati personali e/o sensibili negli appositi campi di queste applicazioni.

    di Tristano Ermini, Manager, Systems Engineering di Palo Alto Networks

    AI e machine learning cloud LLM palo alto networks Tristano Ermini
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    Cloud italiano: tra sovranità digitale e competitività

    20/05/2025

    Gli Agenti AI sviluppano convenzioni linguistiche spontanee. La conferma da uno studio rivoluzionario

    16/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025

    Ransomware contro le PMI: le azioni preventive da adottare

    15/05/2025

    Commvault e CrowdStrike ampliano la partnership per la Cyber Recovery

    15/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.