• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • TrendAI e Anthropic collaborano per migliorare il rilevamento delle vulnerabilità e la mitigazione dei rischi basati sull’IA
    • L’AI in Italia non genera ritorni per il 95% delle aziende
    • PA e AI: nel 2026 la vera sfida riguarda i diritti
    • SAS compie 50 anni: la fiducia al centro, l’IA nel futuro
    • AI enterprise: ServiceNow e AWS spingono su governance e agenti intelligenti
    • Cybersecurity: la vera sfida, oggi, è quella di anticipare gli attacchi
    • Le password non possono proteggere dall’IA
    • Iperammortamento 4.0: senza cloud passi indietro per la digitalizzazione del Paese
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Uncategorized»Modelli linguistici creati dall’IA: alcune minacce evidenti

    Modelli linguistici creati dall’IA: alcune minacce evidenti

    By Redazione LineaEDP16/01/20233 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Per WithSecure i modelli linguistici di grandi dimensioni sono suscettibili di abuso attraverso un uso “creativo” dell’ingegneria dei prompt

    intelligenza-artificiale

    Secondo una ricerca di WithSecure (precedentemente nota come F-Secure Business), l’accesso quasi universale a modelli linguistici che forniscono testi dal suono umano in pochi secondi rappresenta un punto di svolta nella storia dell’umanità.

    La ricerca illustra una serie di esperimenti condotti utilizzando i modelli linguistici GPT-3 (Generative Pre-trained Transformer 3) che utilizzano l’apprendimento automatico per generare testo.

    Gli esperimenti hanno utilizzato l’ingegneria dei prompt, un concetto legato ai modelli linguistici di grandi dimensioni (LLM, Large Language Model) che prevede la scoperta di input che producono risultati desiderabili o utili, per produrre una varietà di contenuti che i ricercatori hanno ritenuto malevoli.

    Numerosi esperimenti hanno valutato come le modifiche agli input dei modelli attualmente disponibili influissero sull’output del testo sintetico. L’obiettivo è stato quello di identificare come la generazione di linguaggi AI possa essere utilizzata in modo improprio attraverso un’ingegneria dei prompt maliziosa e creativa, nella speranza che la ricerca possa essere utilizzata per indirizzare la creazione di LLM più sicuri in futuro.

    Gli esperimenti hanno riguardato il phishing e lo spear-phishing, le molestie, la convalida sociale per le truffe, l’appropriazione di uno stile scritto, la creazione di opinioni deliberatamente divisive, l’uso dei modelli per creare suggerimenti per testi malevoli e le fake news.

    Come sottolineato da Andy Patel, ricercatore di WithSecure Intelligence che ha guidato la ricerca firmata con Jason Sattler: «Il fatto che chiunque abbia una connessione a Internet possa accedere a potenti modelli linguistici di grandi dimensioni ha una conseguenza molto pratica: è ora ragionevole supporre che qualsiasi nuova comunicazione ricevuta possa essere stata scritta con l’aiuto di un robot. In futuro, l’uso dell’IA per generare contenuti sia malevoli sia utili richiederà strategie di rilevamento in grado di comprendere il significato e lo scopo dei contenuti scritti».

    Le risposte dei modelli in questi casi d’uso e lo sviluppo generale dei modelli GPT-3 hanno portato i ricercatori a diverse conclusioni, tra cui (ma non solo):

    • L’ingegneria dei prompt si svilupperà come disciplina, così come la creazione di prompt malevoli.
    • Gli avversari svilupperanno capacità abilitate da LLM in modi imprevedibili.
    • L’identificazione di contenuti dannosi o abusivi diventerà più difficile per i fornitori di piattaforme.
    • I modelli linguistici di grandi dimensioni offrono già ai criminali la possibilità di rendere più efficace qualsiasi comunicazione mirata nell’ambito di un attacco.

    Come concluso da Patel: «Abbiamo iniziato questa ricerca prima che ChatGPT rendesse la tecnologia GPT-3 disponibile a tutti. Questo sviluppo ha fatto crescere la nostra urgenza e i nostri sforzi. Perché, in un certo senso, ora siamo tutti Blade Runner e cerchiamo di capire se l’intelligenza con cui abbiamo a che fare è ‘reale’ o artificiale».

     

    AI Generative Pre-trained Transformer 3 intelligenza artificiale LLM modelli linguistici modelli linguistici GPT-3 prompt WithSecure
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Intelligenza artificiale, dalla norma UNI 11621-8 alle competenze: come cambia la governance in azienda

    05/05/2026

    AI privata europea: il progetto di Xference con Aruba

    29/04/2026

    NEEN amplia la collaborazione con Red Hat diventando Certified Cloud and Service Provider e introduce Red Hat OpenShift come servizio gestito nei propri data center

    29/04/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Nuova Transizione 5.0: cosa cambia?
    Il futuro del lavoro passa dai Personal Systems: l’innovazione HP tra AI e sicurezza
    AI in locale: la workstation secondo Syspack tra potenza e flessibilità
    Tra promesse e realtà: vita (vera) da System Integrator
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    Defence Tech

    TrendAI e Anthropic collaborano per migliorare il rilevamento delle vulnerabilità e la mitigazione dei rischi basati sull’IA

    07/05/2026

    Cybersecurity: la vera sfida, oggi, è quella di anticipare gli attacchi

    07/05/2026

    Le password non possono proteggere dall’IA

    06/05/2026

    Akamai presenta il Security Posture Center e la mappatura code-to-runtime per la protezione delle API

    06/05/2026
    Report

    Cyberwarfare Report 2026: in Italia il 66% dei leader IT teme la paralisi dei servizi essenziali

    04/05/2026

    Var Group: agentificazione (37%), cybersecurity (60%) e consulenza trascinano la digital transformation in Italia

    28/04/2026

    L’Agentic AI e il divario di fiducia che ne ostacola l’adozione

    23/04/2026

    Indagine Red Hat: il divario nella sovranità dell’AI e i rischi di disruption per le imprese italiane

    21/04/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.