• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Wynxx: la nuova soluzione basata su GenAI di GFT Technologies
    • L’AI sovrana plasma il futuro di tutti i settori
    • Cybersecurity: le opportunità offerte dal DPCM del 30 Aprile 2025
    • Cybersecurity: le previsioni di Deloitte
    • Multi-cloud: come proteggerlo in modo adeguato?
    • SentinelOne: affrontare le sfide informatiche di oggi con Purple AI
    • La GenAI nella Customer Experience: 5 miti da sfatare
    • Snowflake acquisisce Crunchy Data
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Intelligenza Artificiale: istruzioni per un uso sicuro e responsabile

    Intelligenza Artificiale: istruzioni per un uso sicuro e responsabile

    By Redazione LineaEDP02/04/2025Updated:02/04/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Silvia Speranza di Appian Italia individua e condivide cinque passi che possono contribuire ad un utilizzo dell’Intelligenza Artificiale efficace

    Intelligenza-Artificiale

    Di seguito condividiamo un articolo di Silvia Speranza, Regional Vice President di Appian Italia nel quale vengono elencati i cinque passi da compiere per un’adozione sicura dell’Intelligenza Artificiale (IA) e dell’IA generativa. Secondo l’esperta, inoltre, il modo più sicuro per integrare l’IA nei processi è quello di implementare una piattaforma. Scopriamo di più.

    Buona lettura!

    Sicurezza dell’IA: 5 passi per un’adozione responsabile dell’IA generativa

    L’IA generativa sta trasformando tutti i settori e, dal lancio di ChatGPT, la sua adozione ha superato la crescita iniziale di Internet. Naturalmente l’IA comporta grandi vantaggi ma anche grandi rischi e, per massimizzarne il valore, le organizzazioni devono bilanciare il potenziale di innovazione con un uso responsabile.

    I cinque passi qui elencati possono contribuire a un utilizzo dell’intelligenza artificiale sicuro ed efficace.

    1. Garantire la trasparenza

    I modelli di IA generativa non sempre spiegano le loro decisioni e quindi per le organizzazioni è fondamentale tracciarne le azioni, monitorarne il comportamento e creare audit trail chiari. In questo senso, una piattaforma di process automation aiuta prima ad assegnare i compiti agli agenti e ai bot di intelligenza artificiale e poi a inoltrarli agli utenti per l’approvazione finale.

    L’Intelligenza Artificiale deve anche citare le sue fonti, in modo che gli utenti possano verificare, se necessario, l’accuratezza dei risultati. Ad esempio, la University of South Florida utilizza chatbot di IA generativa per fornire ai consulenti accademici strumenti di gestione personalizzata per ogni studente: il sistema estrae i dati dai registri degli studenti, genera gli ordini del giorno delle riunioni, redige le e-mail di follow-up per gli studenti e fornisce ai consulenti i link ai dati degli studenti per la verifica.

    2. Utilizzare l’IA privata per una migliore protezione dei dati

    Le policy relative all’Intelligenza Artificiale devono prevenire i rischi per la privacy e le violazioni normative: i modelli di IA pubblica utilizzano vasti set di dati pubblici, che possono produrre risultati distorti ed esporre dati sensibili. Peggio ancora, possono incorporare i dati di un’azienda nel loro processo di apprendimento, aiutando potenzialmente i concorrenti.

    L’IA privata mantiene i dati all’interno dell’azienda, consentendo alle organizzazioni di addestrare i modelli entro i limiti di conformità. In questo modo si protegge la proprietà intellettuale, mantenendo al contempo il pieno controllo dei dati.

    3. Prevenire i bias dell’Intelligenza Artificiale

    I bias, le distorsioni cognitive, dell’IA si verificano quando i dati o gli algoritmi di addestramento creano risultati scorretti. Per ridurli è necessario eliminare dai set di dati gli identificatori sensibili come razza, sesso ed età, così come utilizzare dati diversificati e rappresentativi, oltre a vedere regolarmente le decisioni dell’IA per individuare tempestivamente i problemi.

    Anche la creazione di modelli di IA privati è utile: quando l’Intelligenza Artificiale viene addestrata solo sui propri dati, si ha il controllo e si può evitare più facilmente che si insinuino pregiudizi esterni.

    4. Scegliere saggiamente i casi d’uso dell’IA

    Nell’ultimo periodo sono state emanate normative contenenti linee guida su quando e come utilizzare l’Intelligenza Artificiale: l’AI Act dell’UE, ad esempio, stabilisce regole severe su come utilizzare l’intelligenza artificiale in settori ad alto rischio, quali l’impiego e l’assistenza sanitaria. Per le applicazioni di IA a basso rischio, come i chatbot e i sistemi di raccomandazione, le linee guida richiedono trasparenza nell’informare gli utenti che stanno interagendo con sistemi di intelligenza artificiale. La determinazione dei livelli di rischio e l’implementazione dei protocolli appropriati sono passi essenziali per garantire la sicurezza e la protezione.

    Utilizzare l’Intelligenza Artificiale laddove aggiunge valore, ma mantenere la supervisione umana per le decisioni critiche è fondamentale. Ad esempio, non ci si dovrebbe affidare all’intelligenza artificiale per approvare i mutui: potrebbe, infatti, negare ingiustamente un prestito. L’IA dovrebbe invece fornire assistenza raccogliendo dati e formulando raccomandazioni, passando i casi ad alto rischio all’utente per la decisione finale.

    Un’altra possibile applicazione è nel campo assicurativo: qui, ad esempio, un’importante compagnia ha potuto ottimizzare la sottoscrizione di polizze grazie all’IA. Se in precedenza l’inserimento manuale dei dati portava a formati di indirizzo incoerenti, ora l’intelligenza artificiale standardizza gli indirizzi con una precisione dell’80-90%, lasciando che siano i sottoscrittori a prendere le decisioni finali.

    5. Incorporare l’IA nei processi

    L’Intelligenza Artificiale deve operare secondo linee guida chiare. Una piattaforma di process automation dota l’intelligenza artificiale di una struttura, stabilisce dei paletti e segnala le attività che necessitano di una revisione umana. Inoltre, aiuta le organizzazioni nel training di modelli di IA privati e a controllare dove l’IA viene impiegata.

    Un’IA responsabile non è solo etica: è un vantaggio competitivo, perché un’IA generativa sicura crea fiducia nei clienti, riduce i rischi di business e favorisce la crescita a lungo termine.

    Una piattaforma di process automation per un’intelligenza artificiale responsabile

    Il modo più sicuro per integrare l’intelligenza artificiale nei processi è quello di implementare una piattaforma. Everest Group ha recentemente stilato una classifica dei principali fornitori di piattaforme di automazione intelligente nel suo rapporto annuale, approfondendo punti di forza e debolezze di ciascuna di esse. Se volete saperne di più sull’attuale mercato dell’Intelligenza Artificiale, questa è un’ottima risorsa.

    di Silvia Speranza, Regional Vice President di Appian Italia

    adozione dell'AI Appian Italia intelligenza artificiale (AI) intelligenza artificiale generativa (GenAI) Silvia Speranza
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Wynxx: la nuova soluzione basata su GenAI di GFT Technologies

    10/06/2025

    L’AI sovrana plasma il futuro di tutti i settori

    10/06/2025

    Cybersecurity: le opportunità offerte dal DPCM del 30 Aprile 2025

    10/06/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    Defence Tech

    Cybersecurity: le opportunità offerte dal DPCM del 30 Aprile 2025

    10/06/2025

    Multi-cloud: come proteggerlo in modo adeguato?

    10/06/2025

    SentinelOne: affrontare le sfide informatiche di oggi con Purple AI

    10/06/2025

    Strumenti legittimi e applicazioni sempre più sfruttati dal cybercrime

    06/06/2025
    Report

    Cybersecurity: le previsioni di Deloitte

    10/06/2025

    Red Hat rivela il futuro della virtualizzazione: innovazione e agilità per le aziende

    06/06/2025

    Sviluppatori entusiasti e ottimisti sull’AI agentica

    04/06/2025

    Intelligenza Artificiale: non tutte le aziende sono pronte

    30/05/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.