• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    • Kyndryl finalizza la modernizzazione cloud per Alpitour World su AWS
    • XV Forum Lavoro di Wolters Kluwer: di cosa si è parlato?
    • HPE al MWC 2026 presenta innovazioni AI per accelerare la modernizzazione dei service provider
    • AMD e Nutanix: nuova partnership strategica per l’AI Enterprise aperta
    • AWS accelera sulle Telco: anteprima sugli annunci del Mobile World Congress
    • Confluent Intelligence: i dati alimentano l’intelligenza artificiale in tempo reale
    • Anche le imprese familiari italiane nel mirino del cybercrime
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Uncategorized»AI generativa tra rischi e opportunità

    AI generativa tra rischi e opportunità

    By Redazione LineaEDP12/10/20234 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Ferdinando Mancini di Proofpoint si interroga sull’AI generativa e su opportunità e rischi di questo nuovo strumento avanzato

    AI generativa tra rischi e opportunità Nel contributo che vi proponiamo qui di seguito, Ferdinando Mancini (in foto), Director, Southern Europe Sales Engineering di Proofpoint, si interroga sull’AI generativa e su opportunità e rischi di questo nuovo strumento avanzato.
    Buona lettura.

    L’AI generativa sta rivoluzionando il nostro modo di lavorare e la discussione sul futuro di queste applicazioni, come ChatGPT, è molto accesa. L’utilizzo di AI e machine learning (ML) non è una novità per Proofpoint, dato che queste funzionalità sono integrate nelle principali piattaforme per proteggere le persone e difendere i dati. L’AI generativa, o gen AI, porta numerose opportunità. Non solo è in grado di aiutare i team a raggiungere livelli di comprensione ed efficienza ancora maggiori, ma offre anche a noi l’opportunità di scalare i prodotti, facendo progredire l’azienda.

    Ma l’utilizzo di questi strumenti avanzati comporta anche dei rischi. L’approccio ai tool pubblici di intelligenza artificiale varia a seconda dell’azienda e può spaziare da policy di utilizzo accettabile a controlli di mitigazione.

    Ecco alcune domande che le aziende dovrebbero porsi sull’AI generativa:

    1. Chi utilizza ChatGPT in azienda?

    È importante essere consapevoli di chi accede a ChatGPT e con quale frequenza, sia attraverso il traffico proxy che sull’endpoint. ChatGPT è una delle centinaia di app AI presenti sul mercato ed è fondamentale ottenere visibilità in modo efficiente su questa categoria di shadow IT e applicare gli opportuni controlli agli URL, per utente, gruppo o divisione.

    1. Come bloccare l’accesso a ChatGPT?

    È opportuno dotarsi di soluzioni che permettano di bloccare l’accesso degli utenti a siti specifici, come ChatGPT o categoria di app gen AI. Le policy focalizzate sulle persone consentono di applicare controlli di accesso dinamici basati sul livello di rischio. Questo consente di bloccare dinamicamente l’accesso in base a:

    • Vulnerabilità (ad esempio, non aver seguito un corso di formazione sulla consapevolezza della sicurezza o aver mostrato in passato un comportamento incauto, come aver cliccato su link di phishing)
    • Livello di privilegio (accesso a dati sensibili)
    1. Come consentire agli utenti di utilizzare ChatGPT evitando la perdita di dati sensibili?

    Esistono preoccupazioni molto concrete sul rischio di perdita di dati legato all’AI generativa. Gli utenti possono copiare e incollare quasi sei pagine (con font di grandezza 12) nel prompt di ChatGPT e gli splitter del prompt possono dividere anche quantità di testo più grandi in parti separate.

    Un altro modo per ridurre il rischio è limitare il copia/incolla nel prompt di ChatGPT. È possibile bloccare o limitare il numero di caratteri consentiti. In questo modo si riducono gli scenari critici di fuga di dati, come l’invio di grandi quantità di codice sorgente riservato nella chat per ottimizzarlo o il copiare trascrizioni complete di riunioni per riassumerle.

    È anche possibile bloccare l’upload di tutti i file o di quelli contenenti dati sensibili in ChatGPT tramite estensioni del browser per l’analisi. Notifiche in tempo reale (pop-up) inviate all’utente possono informarlo sul perché la sua azione sia stata bloccata, con la possibilità di includere anche link alla policy aziendale relativa all’uso accettabile.

    1. Come consentire agli utenti di utilizzare ChatGPT e allo stesso tempo monitorarne l’uso?

    Alcune aziende non vogliono limitare l’uso di ChatGPT o di siti web di AI generativa. Tuttavia, è importante monitorare l’applicazione sicura o il contesto d’utilizzo per le analisi. Mentre gli utenti interagiscono con il prompt di ChatGPT, è possibile acquisire metadati e screenshot per averne contezza. Se si aggiunge la visibilità dei file in uso e della loro fonte, si ottiene rapidamente un quadro dei rischi potenziali.

    È inoltre possibile impostare avvisi sulle visite ai siti di gen AI per segnalare la necessità di ulteriori indagini. Possono essere attivati per tutti gli utenti o un loro sottoinsieme, ad esempio quelli ad alto rischio.

    1. Dove iniziare? Come formare gli utenti?

    È possibile iniziare questo percorso comunicando innanzitutto ai dipendenti una policy di utilizzo accettabile esplicita che consente ai dipendenti di essere consapevoli, promuovendo la responsabilità. Ecco alcuni passi da tenere in considerazione:

    • Pubblicare un elenco di casi d’uso pre-approvati che indichi quali tipologie di dati sono accettabili per gli strumenti di AI generativa pubblici rispetto a quelli ospitati dall’azienda (o da terzi). Ad esempio, si deve sottolineare che solo dati pubblici possono essere inseriti nei tool pubblici, mentre quelli dei clienti non sono ammessi.
    • Assicurarsi che gli utenti rivedano e modifichino i risultati degli strumenti di AI generativa e non si limitino a copiare e incollare.
    • Creare un processo di revisione e approvazione dei nuovi strumenti di AI generativa e dei casi d’uso.
    • Informare gli utenti che l’azienda si riserva il diritto di monitorare e registrare l’utilizzo di questi strumenti, se parte del proprio piano.
    AI generativa ChatGPT Ferdinando Mancini Gen AI Proofpoint
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    TrustConnect: il malware-as-a-service che si camuffa da software legittimo

    23/02/2026

    Ransomware: nel 90% dei casi passa dal firewall

    18/02/2026

    Proofpoint acquisisce Acuvity per offrire sicurezza e governance dell’AI nell’ambiente di lavoro agentico

    13/02/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Defence Tech

    Anche le imprese familiari italiane nel mirino del cybercrime

    26/02/2026

    C’è sempre più spazio per i SOC autonomi

    26/02/2026

    Thales: l’intelligenza artificiale è la nuova minaccia interna

    26/02/2026

    Frodi in forte espansione, prevenzione in ritardo

    25/02/2026
    Report

    AI: solo il 15% delle aziende ne trasforma la visione in valore

    10/02/2026

    AI: il mercato cresce del 50%, 1,8 mld. Un italiano su due la usa al lavoro

    05/02/2026

    Sistemi multi-agente: l’adozione crescerà del 67% entro il 2027

    05/02/2026

    Agentic AI: le aziende sono al punto di svolta

    30/01/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.