• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    • Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba
    • Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky
    • Cloud italiano: tra sovranità digitale e competitività
    • Storage intelligente: la chiave di volta per i data center moderni
    • TeamViewer ONE: la piattaforma unificata che rivoluziona il Digital Workplace
    • Design responsive: ecco perché è diventato un must in tutti i settori
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»LLM e allucinazioni: un rischio per la sicurezza software

    LLM e allucinazioni: un rischio per la sicurezza software

    By Redazione LineaEDP03/09/20245 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Federico Riboldi, Project Leader di adesso.it, mette in luce un aspetto critico: la capacità degli LLM di generare “allucinazioni”. Questi errori possono portare all’inclusione di pacchetti o librerie inesistenti o dannosi nel codice, rappresentando un potenziale rischio per la sicurezza informatica

    LLM-allucinazioni
    Federico Riboldi, Project Leader di adesso.it

    Il metodo di lavoro Agile, orientato a uno sviluppo del software che risponda ai massimi criteri in termini di qualità e sicurezza, ci guida ad individuare rapidamente potenziali falle nel processo di scrittura del codice. Oggi, uno dei temi più caldi nel mondo dell’innovazione digitale è l’introduzione di strumenti di Generative AI a fianco degli sviluppatori. L’uso di modelli linguistici di grandi dimensioni (LLM) come i modelli GPT3.5/4/4o, i modelli Gemini o i modelli open source come Llama 3, è diventato sempre più diffuso nel mondo dello sviluppo software. Questi strumenti possono aiutare gli sviluppatori a generare codice per risolvere problemi in modo più rapido ed efficace e rappresentano senza dubbio un’opportunità importante per restare al passo con il mercato, ma fanno emergere anche delle criticità di cyber security a cui tutti gli stakeholder devono porre particolare attenzione. In particolare quando si parla di… allucinazioni.

    IL PROBLEMA

    Come sappiamo, uno dei più grossi “limiti” degli LLM è la loro capacità di generare allucinazioni: utilissima per la scrittura creativa, meno utile per la risoluzione di task specifici e ad alto rischio di errore. Questo fenomeno non solo può causare inefficienze, ma rappresenta soprattutto un potenziale rischio per la sicurezza: una porta d’ingresso per potenziali malintenzionati.

    Anche se nello sviluppo software le allucinazioni sono ridotte al minimo, un problema grave che sta emergendo riguarda il suggerimento di package o librerie da importare nel codice generato, che possono sembrare plausibili ma che in realtà sono inesatte o completamente inventate.

    In poche parole, può capitare che quando l’utente formula una domanda chiedendo ad un modello LLM di generare codice per risolvere una particolare esigenza, il Modello (LLM) risponda con del codice tendenzialmente corretto ma con l’aggiunta di alcune librerie che non esistono, raccomandando quindi pacchetti che non sono pubblicati in un repository legittimo (ad esempio npm, Pypi, ecc.).

    L’utente, se attento, si accorge di questa allucinazione ed elimina il pacchetto; se invece esegue il codice si possono avere due scenari:

    · Il primo (quello fortunato) corrisponde al caso in cui il pacchetto non esiste: in questo caso il codice va in errore e con del debugging si identifica il problema e lo si elimina.

    · Il secondo avviene quando un Hacker ha intercettato questa problematica prima dell’utente e ha pubblicato un pacchetto omonimo contenente codice dannoso che verrà eseguito di nascosto. Una volta eseguito, quel codice può dare accesso all’aggressore a dati sensibili e causare potenziali rischi per la sicurezza dell’applicativo.

    COME MITIGARE I RISCHI DELLE ALLUCINAZIONI NEGLI LLM

    È necessario avere un approccio trasversale per mitigare questi rischi:

    1. Formazione su strumenti di Generative AI: Diventa fondamentale per un’organizzazione formare in modo adeguato i propri collaboratori sulle nuove tecnologie che entrano a far parte della “cassetta degli attrezzi” con cui vengono svolte le mansioni di tutti i giorni. Ogni

    strumento può diventare un’arma a doppio taglio se non viene investito del tempo per comprenderne rischi e potenzialità;

    2. Verifica del codice generato: Gli sviluppatori devono controllare attentamente il codice generato dagli strumenti di IA. Anche se il codice compila, non significa necessariamente che sia corretto o sicuro. Un controllo manuale è il primo passo per identificare possibili allucinazioni o errori;

    3. Valutazione delle librerie suggerite: Indipendentemente da dove proviene il codice che si sta per testare, è sempre buona norma verificare l’affidabilità delle librerie che si stanno importando in un progetto. Questo include controllare la loro versione, il numero di contributori, il livello di manutenzione e le vulnerabilità note. Le librerie open source con una comunità attiva e molte stelle su piattaforme come GitHub sono generalmente più sicure;

    4. Strumenti di analisi statica: Integrare strumenti di analisi statica nelle pipeline di CI/CD aiuta a identificare problemi nel codice e nelle librerie proposte. Questi strumenti possono rilevare vulnerabilità e potenziali errori prima che il codice venga implementato;

    5. Test automatici: Implementare test automatici è un metodo efficace per verificare il corretto funzionamento del codice e per identificare eventuali regressioni introdotte dal codice suggerito dall’IA;

    6. Assessment di sicurezza regolari: Indipendentemente dalla tecnologia utilizzata per produrre il codice, è sempre una buona regola quella di condurre assessment di sicurezza regolari, soprattutto per applicazioni web e mobili esposte su Internet. Questo aiuta a identificare e mitigare potenziali vulnerabilità;

    7. Adottare un approccio Agile allo sviluppo software: In ultimo è sempre utile ricordare come l’adozione di metodologie Agile consenta di mitigare questi rischi. Adottare un approccio strutturato con cicli brevi nella verifica e valutazione del codice consente di identificare e correggere tempestivamente le problematiche, riducendo il rischio di errori sistematici.

    È fondamentale che gli sviluppatori acquisiscano una profonda consapevolezza delle limitazioni degli strumenti di IA e si impegnino in una continua formazione e aggiornamento su queste tecnologie.

    Porsi le giuste domande riguardo agli strumenti utilizzati, come ad esempio la loro affidabilità e le loro potenziali debolezze, diventa più che mai cruciale.

    Adottando le migliori pratiche nella progettazione e gestione dei progetti, come le metodologie Agile, e mantenendo una costante attenzione alla sicurezza, è possibile migliorare l’affidabilità dei progetti software basati su IA.

    A cura di Federico Riboldi, Project Leader di adesso.it

    adesso.it AI GenAI LLM sicurezza
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Elisabetta Franchi: A Convention of Fashion and Imagination in Mold

    20/05/2025

    Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba

    20/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025

    Ransomware contro le PMI: le azioni preventive da adottare

    15/05/2025

    Commvault e CrowdStrike ampliano la partnership per la Cyber Recovery

    15/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.