• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Scaleway (Gruppo iliad) lancia una nuova cloud region in Italia
    • NovaMDR presentata ufficialmente sul mercato italiano
    • TrendAI e NVIDIA: importanti novità di Agentic AI
    • Threat Scan potenziato da Commvault
    • Schneider Electric: tutte le novità per i data center AI-ready
    • Vertiv porta l’infrastruttura fisica convergente nelle AI factory NVIDIA Vera Rubin DSX
    • Shopper personalizzate: un supporto concreto tra branding, praticità e visibilità aziendale
    • Cybersecurity: la carenza di esperti ostacola la riduzione dei rischi nella supply chain
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Uncategorized»AI generativa tra rischi e opportunità

    AI generativa tra rischi e opportunità

    By Redazione LineaEDP12/10/20234 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Ferdinando Mancini di Proofpoint si interroga sull’AI generativa e su opportunità e rischi di questo nuovo strumento avanzato

    AI generativa tra rischi e opportunità Nel contributo che vi proponiamo qui di seguito, Ferdinando Mancini (in foto), Director, Southern Europe Sales Engineering di Proofpoint, si interroga sull’AI generativa e su opportunità e rischi di questo nuovo strumento avanzato.
    Buona lettura.

    L’AI generativa sta rivoluzionando il nostro modo di lavorare e la discussione sul futuro di queste applicazioni, come ChatGPT, è molto accesa. L’utilizzo di AI e machine learning (ML) non è una novità per Proofpoint, dato che queste funzionalità sono integrate nelle principali piattaforme per proteggere le persone e difendere i dati. L’AI generativa, o gen AI, porta numerose opportunità. Non solo è in grado di aiutare i team a raggiungere livelli di comprensione ed efficienza ancora maggiori, ma offre anche a noi l’opportunità di scalare i prodotti, facendo progredire l’azienda.

    Ma l’utilizzo di questi strumenti avanzati comporta anche dei rischi. L’approccio ai tool pubblici di intelligenza artificiale varia a seconda dell’azienda e può spaziare da policy di utilizzo accettabile a controlli di mitigazione.

    Ecco alcune domande che le aziende dovrebbero porsi sull’AI generativa:

    1. Chi utilizza ChatGPT in azienda?

    È importante essere consapevoli di chi accede a ChatGPT e con quale frequenza, sia attraverso il traffico proxy che sull’endpoint. ChatGPT è una delle centinaia di app AI presenti sul mercato ed è fondamentale ottenere visibilità in modo efficiente su questa categoria di shadow IT e applicare gli opportuni controlli agli URL, per utente, gruppo o divisione.

    1. Come bloccare l’accesso a ChatGPT?

    È opportuno dotarsi di soluzioni che permettano di bloccare l’accesso degli utenti a siti specifici, come ChatGPT o categoria di app gen AI. Le policy focalizzate sulle persone consentono di applicare controlli di accesso dinamici basati sul livello di rischio. Questo consente di bloccare dinamicamente l’accesso in base a:

    • Vulnerabilità (ad esempio, non aver seguito un corso di formazione sulla consapevolezza della sicurezza o aver mostrato in passato un comportamento incauto, come aver cliccato su link di phishing)
    • Livello di privilegio (accesso a dati sensibili)
    1. Come consentire agli utenti di utilizzare ChatGPT evitando la perdita di dati sensibili?

    Esistono preoccupazioni molto concrete sul rischio di perdita di dati legato all’AI generativa. Gli utenti possono copiare e incollare quasi sei pagine (con font di grandezza 12) nel prompt di ChatGPT e gli splitter del prompt possono dividere anche quantità di testo più grandi in parti separate.

    Un altro modo per ridurre il rischio è limitare il copia/incolla nel prompt di ChatGPT. È possibile bloccare o limitare il numero di caratteri consentiti. In questo modo si riducono gli scenari critici di fuga di dati, come l’invio di grandi quantità di codice sorgente riservato nella chat per ottimizzarlo o il copiare trascrizioni complete di riunioni per riassumerle.

    È anche possibile bloccare l’upload di tutti i file o di quelli contenenti dati sensibili in ChatGPT tramite estensioni del browser per l’analisi. Notifiche in tempo reale (pop-up) inviate all’utente possono informarlo sul perché la sua azione sia stata bloccata, con la possibilità di includere anche link alla policy aziendale relativa all’uso accettabile.

    1. Come consentire agli utenti di utilizzare ChatGPT e allo stesso tempo monitorarne l’uso?

    Alcune aziende non vogliono limitare l’uso di ChatGPT o di siti web di AI generativa. Tuttavia, è importante monitorare l’applicazione sicura o il contesto d’utilizzo per le analisi. Mentre gli utenti interagiscono con il prompt di ChatGPT, è possibile acquisire metadati e screenshot per averne contezza. Se si aggiunge la visibilità dei file in uso e della loro fonte, si ottiene rapidamente un quadro dei rischi potenziali.

    È inoltre possibile impostare avvisi sulle visite ai siti di gen AI per segnalare la necessità di ulteriori indagini. Possono essere attivati per tutti gli utenti o un loro sottoinsieme, ad esempio quelli ad alto rischio.

    1. Dove iniziare? Come formare gli utenti?

    È possibile iniziare questo percorso comunicando innanzitutto ai dipendenti una policy di utilizzo accettabile esplicita che consente ai dipendenti di essere consapevoli, promuovendo la responsabilità. Ecco alcuni passi da tenere in considerazione:

    • Pubblicare un elenco di casi d’uso pre-approvati che indichi quali tipologie di dati sono accettabili per gli strumenti di AI generativa pubblici rispetto a quelli ospitati dall’azienda (o da terzi). Ad esempio, si deve sottolineare che solo dati pubblici possono essere inseriti nei tool pubblici, mentre quelli dei clienti non sono ammessi.
    • Assicurarsi che gli utenti rivedano e modifichino i risultati degli strumenti di AI generativa e non si limitino a copiare e incollare.
    • Creare un processo di revisione e approvazione dei nuovi strumenti di AI generativa e dei casi d’uso.
    • Informare gli utenti che l’azienda si riserva il diritto di monitorare e registrare l’utilizzo di questi strumenti, se parte del proprio piano.
    AI generativa ChatGPT Ferdinando Mancini Gen AI Proofpoint
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    DeepL: il 71% delle aziende punta a trasformare i workflow con l’AI entro il 2026

    10/03/2026

    Protetto: Introdurre l’AI nei processi SAP: opportunità strategica o rischio operativo?

    04/03/2026

    TrustConnect: il malware-as-a-service che si camuffa da software legittimo

    23/02/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    AI in locale: la workstation secondo Syspack tra potenza e flessibilità
    Tra promesse e realtà: vita (vera) da System Integrator
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Defence Tech

    NovaMDR presentata ufficialmente sul mercato italiano

    19/03/2026

    TrendAI e NVIDIA: importanti novità di Agentic AI

    19/03/2026

    Threat Scan potenziato da Commvault

    19/03/2026

    Cybersecurity: la carenza di esperti ostacola la riduzione dei rischi nella supply chain

    18/03/2026
    Report

    Cloud e outsourcing sono la chiave per la crescita delle PMI italiane

    17/03/2026

    Osservatorio Statistico 2025 di TeamSystem: 19 miliardi di email inviate (+12% rispetto al 2024), ma senza strategia l’efficacia diminuisce

    16/03/2026

    HR: l’applicazione concreta dell’AI rimane ancora limitata

    13/03/2026

    Report Cisco Splunk: i CISO e il ruolo centrale della IA Agentica nella resilienza aziendale

    09/03/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.