• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Attacchi informatici: Russia, UE e Asia nel mirino
    • Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory
    • Sicurezza: AI sempre più sfidante
    • Oracle EU Sovereign Cloud conquista le organizzazioni tedesche
    • Progettare il futuro con Red Hat Enterprise Linux 10
    • AI e Partnership pilastri della strategia di SAP
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»Gli agenti AI rendono la data privacy ancora più fondamentale

    Gli agenti AI rendono la data privacy ancora più fondamentale

    By Redazione LineaEDP04/02/2025Updated:26/03/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Gli agenti AI sono già stati adottati e sono ampiamente utilizzati in diversi settori industriali. Come tutelare al meglio la data privacy?

    agenti AI-data privacy
    Fabio Pascali, Regional Vice President Italy, Greece & Cyprus, Cloudera

    Man mano che le aziende implementano l’intelligenza artificiale per rinnovare operazioni e processi, la data privacy assume un’importanza sempre più critica e complessa. Tra le evoluzioni dell’AI sta guadagnando spazio la cosiddetta Agentic AI (o AI agentica) progettata per eseguire autonomamente i propri compiti senza l’intervento umano. Gli agenti AI sono già stati adottati e sono ampiamente utilizzati in diversi settori industriali. In ambito finanziario, ad esempio, possono monitorare autonomamente le tendenze del mercato, decifrare i segnali di trading, regolare le strategie e ridurre i rischi in tempo reale. Gli agenti AI vengono utilizzati anche nel settore pubblico per ottimizzare i servizi governativi, ad esempio snellendo le procedure di valutazione ’dell’idoneità all’accesso ai sussidi e personalizzando servizi al cittadino. Nonostante tutti i suoi vantaggi, l’utilizzo di grandi quantità di dati personali da parte dell’AI agentica solleva notevoli problemi di privacy e alimenta la crescente sfiducia dei consumatori nei confronti delle modalità di gestione delle informazioni personali da parte delle organizzazioni. Questa situazione diventerà ancor più seria quando l’AI agentica comincerà ad essere adottata in maniera diffusa in settori critici come la sanità e i servizi finanziari, nei quali i dati personali hanno un valore particolarmente elevato.

    Anche la crescente adozione di soluzioni AI in azienda porta con sé preoccupazioni considerevoli. Secondo il Global State of Responsible AI Survey, tutte le organizzazioni hanno dichiarato che i rischi legati alla privacy e alla governance dei dati sono rilevanti per la loro strategia di adozione dell’AI, con valori particolarmente elevati in Europa (56%) e in Asia (55%). L’Italia non fa differenza: secondo un report realizzato da Proofpoint nel 2024, il 45% dei CISO italiani intervistati considera l’AI generativa un rischio per la sicurezza della propria organizzazione

    Le aziende devono quindi riconoscere che l’implementazione di solide politiche di privacy dei dati non può essere una considerazione aggiuntiva, ma un elemento fondamentale per un’innovazione sostenibile e responsabile.

    Identificare e proteggere le informazioni critiche

    Il primo e più importante passo per mantenere la fiducia dei consumatori è la protezione delle informazioni critiche e di identificazione personale (PII). Agli occhi dell’AI tutti i dati sono uguali e verranno utilizzati in modo indifferenziato, a meno che non vengano stabiliti parametri adeguati. L’impiego di agenti AI senza protezioni adeguate rende le informazioni sensibili vulnerabili a un uso improprio.

    Le aziende devono investire in piattaforme di dati sicure e governate che impieghino strategie complete di crittografia e tokenizzazione. Queste misure devono essere applicate in modo

    coerente a tutti gli ambienti di dati, sia on-premise che cloud-based, e a diverse soluzioni di storage. Costruendo solide difese contro le violazioni e i malintenzionati, le aziende possono garantire che i dati rimangano al sicuro, consentendo al contempo l’adozione sicura dell’AI.

    Affrontare le sfide di governance e sicurezza dei dati

    Mentre i governi di tutto il mondo rafforzano le normative per proteggere i diritti di privacy dei cittadini, la conformità alle norme di mercato locali e alle leggi sulla sovranità dei dati è diventata sempre più complessa. La crescente adozione dell’AI agentica aggiunge un ulteriore livello di difficoltà, poiché questi sistemi spesso richiedono l’accesso a dati storici e internazionali per operare in modo efficace.

    Per affrontare questo problema, le aziende devono adottare un approccio granulare alla governance dei dati, supportato da un’architettura Zero Trust – un modello di sicurezza che garantisce che nessun utente o sistema sia affidabile per impostazione predefinita. Ciò comporta l’identificazione accurata di dove risiedono i dati specifici, l’applicazione di controlli adeguati e la capacità di poter produrre audit dettagliati.

    Sarà necessario assicurarsi che solo la persona giusta acceda alle informazioni giuste al momento giusto e per il motivo giusto, ma anche implementare meccanismi di cancellazione o anonimizzazione dei dati per soddisfare le aspettative dei consumatori e delle normative.

    Integrare privacy e fiducia in ogni area dell’azienda

    Costruire una cultura della fiducia e della trasparenza è fondamentale per gestire le aspettative sull’utilizzo dei dati e i limiti etici dell’innovazione con l’adozione dell’AI agentica. A livello manageriale, l’adozione di principi Privacy by Design garantisce che la confidenzialità sia integrata nei prodotti, nei servizi e nei sistemi fin dall’inizio, in particolare nei modelli di AI. Per quanto riguarda i consumatori, la mentalità ‘trust but verify’ è fondamentale per capire quali dati vengono raccolti e come vengono utilizzati.

    Poiché gli agenti AI diventano sempre più diffusi nei processi decisionali che coinvolgono i dati dei consumatori, le organizzazioni devono fare della trasparenza una priorità assoluta in ogni aspetto della gestione dei dati, non solo per creare fiducia, ma anche per proteggere reputazione e successo a lungo termine.

    La creazione di fiducia e il mantenimento della trasparenza non sono più un optional. Al contrario, il successo nell’era dell’AI agentica dipenderà dalla capacità di bilanciare l’innovazione con la responsabilità, assicurando che la privacy dei dati rimanga un punto fermo del progresso sostenibile.

    A cura di Fabio Pascali, Regional Vice President Italy, Greece & Cyprus, Cloudera

    Agenti AI Cloudera Data Privacy
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025

    Progettare il futuro con Red Hat Enterprise Linux 10

    21/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Attacchi informatici: Russia, UE e Asia nel mirino

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.