• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • IA e personalizzazione delle esperienze digitali
    • Il digitale in Italia raccoglie i frutti seminati dall’AI
    • RETN annuncia una nuova tratta ad alte prestazioni tra Milano e Padova
    • Cloud: cosa sta cambiando con l’AI?
    • Cloud security: un acceleratore verso crescita e innovazione
    • Vertiv Academy: il training center di Vertiv per gli ingegneri in EMEA
    • Continuità Digitale: leva strategica per l’evoluzione dell’A&D
    • Data Center: come si sono evoluti per far fronte allo sviluppo dell’AI?
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Uncategorized»AI generativa tra rischi e opportunità

    AI generativa tra rischi e opportunità

    By Redazione LineaEDP12/10/20234 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Ferdinando Mancini di Proofpoint si interroga sull’AI generativa e su opportunità e rischi di questo nuovo strumento avanzato

    AI generativa tra rischi e opportunità Nel contributo che vi proponiamo qui di seguito, Ferdinando Mancini (in foto), Director, Southern Europe Sales Engineering di Proofpoint, si interroga sull’AI generativa e su opportunità e rischi di questo nuovo strumento avanzato.
    Buona lettura.

    L’AI generativa sta rivoluzionando il nostro modo di lavorare e la discussione sul futuro di queste applicazioni, come ChatGPT, è molto accesa. L’utilizzo di AI e machine learning (ML) non è una novità per Proofpoint, dato che queste funzionalità sono integrate nelle principali piattaforme per proteggere le persone e difendere i dati. L’AI generativa, o gen AI, porta numerose opportunità. Non solo è in grado di aiutare i team a raggiungere livelli di comprensione ed efficienza ancora maggiori, ma offre anche a noi l’opportunità di scalare i prodotti, facendo progredire l’azienda.

    Ma l’utilizzo di questi strumenti avanzati comporta anche dei rischi. L’approccio ai tool pubblici di intelligenza artificiale varia a seconda dell’azienda e può spaziare da policy di utilizzo accettabile a controlli di mitigazione.

    Ecco alcune domande che le aziende dovrebbero porsi sull’AI generativa:

    1. Chi utilizza ChatGPT in azienda?

    È importante essere consapevoli di chi accede a ChatGPT e con quale frequenza, sia attraverso il traffico proxy che sull’endpoint. ChatGPT è una delle centinaia di app AI presenti sul mercato ed è fondamentale ottenere visibilità in modo efficiente su questa categoria di shadow IT e applicare gli opportuni controlli agli URL, per utente, gruppo o divisione.

    1. Come bloccare l’accesso a ChatGPT?

    È opportuno dotarsi di soluzioni che permettano di bloccare l’accesso degli utenti a siti specifici, come ChatGPT o categoria di app gen AI. Le policy focalizzate sulle persone consentono di applicare controlli di accesso dinamici basati sul livello di rischio. Questo consente di bloccare dinamicamente l’accesso in base a:

    • Vulnerabilità (ad esempio, non aver seguito un corso di formazione sulla consapevolezza della sicurezza o aver mostrato in passato un comportamento incauto, come aver cliccato su link di phishing)
    • Livello di privilegio (accesso a dati sensibili)
    1. Come consentire agli utenti di utilizzare ChatGPT evitando la perdita di dati sensibili?

    Esistono preoccupazioni molto concrete sul rischio di perdita di dati legato all’AI generativa. Gli utenti possono copiare e incollare quasi sei pagine (con font di grandezza 12) nel prompt di ChatGPT e gli splitter del prompt possono dividere anche quantità di testo più grandi in parti separate.

    Un altro modo per ridurre il rischio è limitare il copia/incolla nel prompt di ChatGPT. È possibile bloccare o limitare il numero di caratteri consentiti. In questo modo si riducono gli scenari critici di fuga di dati, come l’invio di grandi quantità di codice sorgente riservato nella chat per ottimizzarlo o il copiare trascrizioni complete di riunioni per riassumerle.

    È anche possibile bloccare l’upload di tutti i file o di quelli contenenti dati sensibili in ChatGPT tramite estensioni del browser per l’analisi. Notifiche in tempo reale (pop-up) inviate all’utente possono informarlo sul perché la sua azione sia stata bloccata, con la possibilità di includere anche link alla policy aziendale relativa all’uso accettabile.

    1. Come consentire agli utenti di utilizzare ChatGPT e allo stesso tempo monitorarne l’uso?

    Alcune aziende non vogliono limitare l’uso di ChatGPT o di siti web di AI generativa. Tuttavia, è importante monitorare l’applicazione sicura o il contesto d’utilizzo per le analisi. Mentre gli utenti interagiscono con il prompt di ChatGPT, è possibile acquisire metadati e screenshot per averne contezza. Se si aggiunge la visibilità dei file in uso e della loro fonte, si ottiene rapidamente un quadro dei rischi potenziali.

    È inoltre possibile impostare avvisi sulle visite ai siti di gen AI per segnalare la necessità di ulteriori indagini. Possono essere attivati per tutti gli utenti o un loro sottoinsieme, ad esempio quelli ad alto rischio.

    1. Dove iniziare? Come formare gli utenti?

    È possibile iniziare questo percorso comunicando innanzitutto ai dipendenti una policy di utilizzo accettabile esplicita che consente ai dipendenti di essere consapevoli, promuovendo la responsabilità. Ecco alcuni passi da tenere in considerazione:

    • Pubblicare un elenco di casi d’uso pre-approvati che indichi quali tipologie di dati sono accettabili per gli strumenti di AI generativa pubblici rispetto a quelli ospitati dall’azienda (o da terzi). Ad esempio, si deve sottolineare che solo dati pubblici possono essere inseriti nei tool pubblici, mentre quelli dei clienti non sono ammessi.
    • Assicurarsi che gli utenti rivedano e modifichino i risultati degli strumenti di AI generativa e non si limitino a copiare e incollare.
    • Creare un processo di revisione e approvazione dei nuovi strumenti di AI generativa e dei casi d’uso.
    • Informare gli utenti che l’azienda si riserva il diritto di monitorare e registrare l’utilizzo di questi strumenti, se parte del proprio piano.
    AI generativa ChatGPT Ferdinando Mancini Gen AI Proofpoint
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Spionaggio e cybercrime si sovrappongono. La scoperta di Proofpoint

    01/07/2025

    Strumenti di AI falsi: un rischio per le PMI

    26/06/2025

    TeamFiltration: scoperta campagna di account takeover

    24/06/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Defence Tech

    Industria sotto attacco: l’Italia tra i Paesi più colpiti. Serve agire

    02/07/2025

    La sicurezza del cloud rimane tra le priorità principali delle aziende

    01/07/2025

    Spionaggio e cybercrime si sovrappongono. La scoperta di Proofpoint

    01/07/2025

    Imprese italiane e l’evoluzione delle minacce informatiche

    30/06/2025
    Report

    Il digitale in Italia raccoglie i frutti seminati dall’AI

    03/07/2025

    Continuità Digitale: leva strategica per l’evoluzione dell’A&D

    03/07/2025

    GenAI: aumenta l’adozione, ma anche i rischi

    02/07/2025

    Adozione dell’AI: crescita vertiginosa tra gli impiegati

    01/07/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.