• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Intelligenza Artificiale: gli europei la usano senza saperlo
    • AWS Public Sector Day 2025: l’innovazione incontra la PA italiana
    • La Digital Experience diventa un driver per il business
    • Mobilità: qual è la giusta direzione da intraprendere?
    • L’AI Agentica entra nel portafoglio “AI-Enabled Workforce” di Lenovo
    • Manifatturiero nel mirino cybercriminale: strategie di difesa e resilienza
    • Il segreto per una rapida innovazione AI? Gli ecosistemi
    • Email nel mirino in EMEA: è allarme di attacchi AI-based
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Rubriche»Sicurezza»“Allucinazioni” dell’AI sfruttate per colpire le supply chain

    “Allucinazioni” dell’AI sfruttate per colpire le supply chain

    By Redazione LineaEDP30/07/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Nel suo contributo, Aaron Rose di Check Point Software parla dello Slopsquatting, una tecnica di attacco informatico che sfrutta le “allucinazioni” dell’AI

    allucinazioni

    In questo articolo, Aaron Rose, Office of the CTO di Check Point Software, spiega come la crescente diffusione della codifica basata su intelligenza artificiale stia generando un fenomeno noto come “allucinazioni”: suggerimenti di pacchetti software inesistenti. Negli ultimi anni, queste anomalie sono aumentate in modo preoccupante, creando vulnerabilità che attirano l’attenzione dei criminali informatici.

    Una delle minacce più insidiose legate a queste vulnerabilità è lo Slopsquatting. Scopriamo come funziona e perché rappresenta un rischio crescente per la sicurezza.

    Buona lettura!

    La minaccia nascosta dell’AI che genera pacchetti software con “allucinazioni”: lo Slopsquattiong attacca la supply chain

    Gli assistenti di codifica alimentati dall’intelligenza artificiale, come Copilot di GitHub, Cursor AI e ChatGPT, sono passati rapidamente da gadget intriganti a compagni indispensabili per gli sviluppatori moderni. Una recente ricerca di Stack Overflow ha rivelato che oltre il 76% degli sviluppatori si affida a questi assistenti e più dell’80% ha dichiarato di aver ottenuto significativi miglioramenti della produttività grazie all’uso di generatori di codice AI ed editor di codice aumentati. Questi “compagni di squadra virtuali” semplificano compiti complessi, snelliscono i flussi di lavoro di sviluppo e accelerano in modo significativo le tempistiche dei progetti.

    Ogni innovazione porta con sé anche nuovi rischi. Gli assistenti di codifica AI generano occasionalmente le cosiddette “allucinazioni”, ovvero raccomandazioni per pacchetti software che semplicemente non esistono. Un recente studio condotto da ricercatori dell’Università del Texas a San Antonio, dell’Università dell’Oklahoma e della Virginia Tech ha rilevato che gli LLM open-source hanno generato pacchetti “allucinati” a percentuali allarmanti – circa il 21,7% in media – rispetto ai modelli commerciali che hanno registrato una media del 5,2%. I ricercatori hanno documentato oltre 200.000 nomi unici di pacchetti “allucinati” in questo solo studio, illustrando quanto questo problema sia davvero pervasivo e pericoloso.  Non si tratta di errori evidenti: spesso assomigliano molto ai pacchetti software autentici, ingannando anche gli sviluppatori più esperti.

    Inoltre, siamo anche in presenza di un’interessante dimensione interlinguistica in queste “allucinazioni”. I ricercatori hanno scoperto che i modelli di generazione di codice specifici per Python spesso “allucinavano” i pacchetti JavaScript: uno scenario inquietante, vista la potenziale confusione e i rischi che potrebbe creare negli ecosistemi software.

    allucinazioni

    Gli attaccanti informatici hanno rapidamente sfruttano questa vulnerabilità, introducendo una nuova forma di attacco alla supply chain chiamata slopsquatting. A differenza del typosquatting tradizionale, che sfrutta gli errori di battitura dell’uomo, lo slopsquatting sfrutta le allucinazioni dell’intelligenza artificiale. Gli aggressori monitorano i nomi dei pacchetti suggeriti dall’intelligenza artificiale, registrando rapidamente queste dipendenze immaginarie su repository popolari come npm o PyPI. Quando gli sviluppatori ignari si fidano delle raccomandazioni dell’intelligenza artificiale e installano questi pacchetti, portano inavvertitamente codice dannoso nei loro ambienti.

    Si consideri l’incidente “huggingface-cli” della fine del 2023. Dopo aver notato che l’AI suggeriva ripetutamente questo pacchetto inesistente, un ricercatore di sicurezza lo ha registrato su PyPI come test innocuo. Nel giro di pochi giorni, migliaia di sviluppatori, compresi i team di Alibaba, hanno inconsapevolmente adottato questo pacchetto fittizio nei loro progetti critici. Sebbene questo incidente sia stato benigno, ha dimostrato quanto rapidamente e facilmente gli aggressori possano sfruttare le vulnerabilità generate dall’intelligenza artificiale.

    allucinazioni

    Se immaginiamo uno scenario in cui gli attaccanti utilizzino questa tattica su una scala più ampia e più malevola, rischiamo che una singola raccomandazione diffusa potrebbe compromettere rapidamente i sistemi di tutto il mondo, causando significative violazioni dei dati, backdoor persistenti o gravi interruzioni. La natura automatizzata della gestione delle dipendenze nelle moderne pipeline CI/CD amplifica questa minaccia, consentendo al codice dannoso di diffondersi rapidamente dagli ambienti di sviluppo ai sistemi di produzione.

    Le pratiche di sicurezza tradizionali spesso non riescono a contrastare queste minacce emergenti, in quanto molti scanner di dipendenze dipendono dai dati storici di reputazione e non sono in grado di individuare i nuovi pacchetti malevoli registrati. Ciò sottolinea l’urgente necessità di strategie innovative e proattive, studiate su misura per rilevare e mitigare le vulnerabilità guidate dall’intelligenza artificiale.

    I team di sviluppo e sicurezza devono adottare pratiche rigorose per contrastare efficacemente lo slopsquatting. In primo luogo, trattare i suggerimenti generati dall’AI con scetticismo: non fidarsi mai ciecamente delle dipendenze suggerite. È fondamentale, implementare processi di verifica rigorosi, verificando manualmente i nomi dei pacchetti sconosciuti e utilizzando in modo coerente i lockfile, le versioni pinnate e la verifica degli hash crittografici. Inoltre, il mantenimento di mirror interni o di elenchi di pacchetti affidabili può ridurre drasticamente l’esposizione ai nuovi malintenzionati arrivati.

    I ricercatori hanno testato diversi approcci per ridurre le “allucinazioni”, in particolare la retrieval augmented generation (RAG) e la messa a punto supervisionata. Se da un lato queste tecniche hanno ridotto drasticamente le allucinazioni (fino all’85%), dall’altro hanno introdotto un compromesso critico, influenzando negativamente la qualità complessiva del codice. Ciò sottolinea la necessità di soluzioni di sicurezza complete in grado di identificare in modo proattivo le minacce senza sacrificare l’efficienza dello sviluppo.

    Anche l’educazione e la consapevolezza svolgono un ruolo cruciale. Politiche chiare dovrebbero imporre un maggiore controllo e una revisione tra pari per tutte le dipendenze generate dall’intelligenza artificiale. Promuovendo una cultura organizzativa che metta in discussione le raccomandazioni dell’IA non familiari, i team rafforzano in modo significativo la propria sicurezza complessiva informatica.

    di Aaron Rose, Office of the CTO di Check Point Software

    Aaron Rose allucinazioni AI attacchi alla supply chain Check Point Software cybersecurity Slopsquatting
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Intelligenza Artificiale: gli europei la usano senza saperlo

    21/10/2025

    AWS Public Sector Day 2025: l’innovazione incontra la PA italiana

    21/10/2025

    La Digital Experience diventa un driver per il business

    21/10/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Modula: l’automazione che rivoluziona la logistica industriale
    La cybersecurity spinge il business
    L’AI è vietata in azienda?
    Il cloud introduce ulteriore complessità nella cybersecurity: focus sulle identità
    Synology CC400W: abbiamo testato la telecamera di sicurezza con AI integrata e connettività Wi-Fi
    Defence Tech

    Manifatturiero nel mirino cybercriminale: strategie di difesa e resilienza

    21/10/2025

    Email nel mirino in EMEA: è allarme di attacchi AI-based

    20/10/2025

    La cybersecurity spinge il business

    20/10/2025

    Sergio Bassan sceglie la cybersecurity europea di Stormshield

    17/10/2025
    Report

    Digital Defense Report 2025: attacchi ed attaccanti si evolvono

    20/10/2025

    Il Rapporto OAD 2025 di AIPSI è online

    20/10/2025

    Wolters Kluwer anticipa il futuro della professione contabile e fiscale

    17/10/2025

    Agentic AI: da McKinsey sei strategie per generare valore

    13/10/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.