• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    • Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba
    • Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky
    • Cloud italiano: tra sovranità digitale e competitività
    • Storage intelligente: la chiave di volta per i data center moderni
    • TeamViewer ONE: la piattaforma unificata che rivoluziona il Digital Workplace
    • Design responsive: ecco perché è diventato un must in tutti i settori
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Intelligenza Artificiale: istruzioni per un uso sicuro e responsabile

    Intelligenza Artificiale: istruzioni per un uso sicuro e responsabile

    By Redazione LineaEDP02/04/2025Updated:02/04/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Silvia Speranza di Appian Italia individua e condivide cinque passi che possono contribuire ad un utilizzo dell’Intelligenza Artificiale efficace

    Intelligenza-Artificiale

    Di seguito condividiamo un articolo di Silvia Speranza, Regional Vice President di Appian Italia nel quale vengono elencati i cinque passi da compiere per un’adozione sicura dell’Intelligenza Artificiale (IA) e dell’IA generativa. Secondo l’esperta, inoltre, il modo più sicuro per integrare l’IA nei processi è quello di implementare una piattaforma. Scopriamo di più.

    Buona lettura!

    Sicurezza dell’IA: 5 passi per un’adozione responsabile dell’IA generativa

    L’IA generativa sta trasformando tutti i settori e, dal lancio di ChatGPT, la sua adozione ha superato la crescita iniziale di Internet. Naturalmente l’IA comporta grandi vantaggi ma anche grandi rischi e, per massimizzarne il valore, le organizzazioni devono bilanciare il potenziale di innovazione con un uso responsabile.

    I cinque passi qui elencati possono contribuire a un utilizzo dell’intelligenza artificiale sicuro ed efficace.

    1. Garantire la trasparenza

    I modelli di IA generativa non sempre spiegano le loro decisioni e quindi per le organizzazioni è fondamentale tracciarne le azioni, monitorarne il comportamento e creare audit trail chiari. In questo senso, una piattaforma di process automation aiuta prima ad assegnare i compiti agli agenti e ai bot di intelligenza artificiale e poi a inoltrarli agli utenti per l’approvazione finale.

    L’Intelligenza Artificiale deve anche citare le sue fonti, in modo che gli utenti possano verificare, se necessario, l’accuratezza dei risultati. Ad esempio, la University of South Florida utilizza chatbot di IA generativa per fornire ai consulenti accademici strumenti di gestione personalizzata per ogni studente: il sistema estrae i dati dai registri degli studenti, genera gli ordini del giorno delle riunioni, redige le e-mail di follow-up per gli studenti e fornisce ai consulenti i link ai dati degli studenti per la verifica.

    2. Utilizzare l’IA privata per una migliore protezione dei dati

    Le policy relative all’Intelligenza Artificiale devono prevenire i rischi per la privacy e le violazioni normative: i modelli di IA pubblica utilizzano vasti set di dati pubblici, che possono produrre risultati distorti ed esporre dati sensibili. Peggio ancora, possono incorporare i dati di un’azienda nel loro processo di apprendimento, aiutando potenzialmente i concorrenti.

    L’IA privata mantiene i dati all’interno dell’azienda, consentendo alle organizzazioni di addestrare i modelli entro i limiti di conformità. In questo modo si protegge la proprietà intellettuale, mantenendo al contempo il pieno controllo dei dati.

    3. Prevenire i bias dell’Intelligenza Artificiale

    I bias, le distorsioni cognitive, dell’IA si verificano quando i dati o gli algoritmi di addestramento creano risultati scorretti. Per ridurli è necessario eliminare dai set di dati gli identificatori sensibili come razza, sesso ed età, così come utilizzare dati diversificati e rappresentativi, oltre a vedere regolarmente le decisioni dell’IA per individuare tempestivamente i problemi.

    Anche la creazione di modelli di IA privati è utile: quando l’Intelligenza Artificiale viene addestrata solo sui propri dati, si ha il controllo e si può evitare più facilmente che si insinuino pregiudizi esterni.

    4. Scegliere saggiamente i casi d’uso dell’IA

    Nell’ultimo periodo sono state emanate normative contenenti linee guida su quando e come utilizzare l’Intelligenza Artificiale: l’AI Act dell’UE, ad esempio, stabilisce regole severe su come utilizzare l’intelligenza artificiale in settori ad alto rischio, quali l’impiego e l’assistenza sanitaria. Per le applicazioni di IA a basso rischio, come i chatbot e i sistemi di raccomandazione, le linee guida richiedono trasparenza nell’informare gli utenti che stanno interagendo con sistemi di intelligenza artificiale. La determinazione dei livelli di rischio e l’implementazione dei protocolli appropriati sono passi essenziali per garantire la sicurezza e la protezione.

    Utilizzare l’Intelligenza Artificiale laddove aggiunge valore, ma mantenere la supervisione umana per le decisioni critiche è fondamentale. Ad esempio, non ci si dovrebbe affidare all’intelligenza artificiale per approvare i mutui: potrebbe, infatti, negare ingiustamente un prestito. L’IA dovrebbe invece fornire assistenza raccogliendo dati e formulando raccomandazioni, passando i casi ad alto rischio all’utente per la decisione finale.

    Un’altra possibile applicazione è nel campo assicurativo: qui, ad esempio, un’importante compagnia ha potuto ottimizzare la sottoscrizione di polizze grazie all’IA. Se in precedenza l’inserimento manuale dei dati portava a formati di indirizzo incoerenti, ora l’intelligenza artificiale standardizza gli indirizzi con una precisione dell’80-90%, lasciando che siano i sottoscrittori a prendere le decisioni finali.

    5. Incorporare l’IA nei processi

    L’Intelligenza Artificiale deve operare secondo linee guida chiare. Una piattaforma di process automation dota l’intelligenza artificiale di una struttura, stabilisce dei paletti e segnala le attività che necessitano di una revisione umana. Inoltre, aiuta le organizzazioni nel training di modelli di IA privati e a controllare dove l’IA viene impiegata.

    Un’IA responsabile non è solo etica: è un vantaggio competitivo, perché un’IA generativa sicura crea fiducia nei clienti, riduce i rischi di business e favorisce la crescita a lungo termine.

    Una piattaforma di process automation per un’intelligenza artificiale responsabile

    Il modo più sicuro per integrare l’intelligenza artificiale nei processi è quello di implementare una piattaforma. Everest Group ha recentemente stilato una classifica dei principali fornitori di piattaforme di automazione intelligente nel suo rapporto annuale, approfondendo punti di forza e debolezze di ciascuna di esse. Se volete saperne di più sull’attuale mercato dell’Intelligenza Artificiale, questa è un’ottima risorsa.

    di Silvia Speranza, Regional Vice President di Appian Italia

    adozione dell'AI Appian Italia intelligenza artificiale (AI) intelligenza artificiale generativa (GenAI) Silvia Speranza
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Elisabetta Franchi: A Convention of Fashion and Imagination in Mold

    20/05/2025

    Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026

    20/05/2025

    Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba

    20/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025

    Ransomware contro le PMI: le azioni preventive da adottare

    15/05/2025

    Commvault e CrowdStrike ampliano la partnership per la Cyber Recovery

    15/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.