• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Affrontare il deficit di competenze nella cybersecurity: una guida per le PMI
    • Quando il consulente diventa il bersaglio: lezioni dal cyberattacco a Credera
    • La Data Quality non basta più, è il momento della Data Observability
    • Sparkle: tecnologie di AI e dati di IBM per trasformare la gestione della rete e il servizio al cliente
    • L’AI è la nuova frontiera delle minacce cloud
    • ClearSkies anticipa le minacce del 2026
    • NetApp rafforza le organizzazioni nell’era della complessità
    • Fortinet predictions 2026: dentro l’industrializzazione del cybercrime
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»L’AI deve promuovere l’innovazione senza dimenticare le persone

    L’AI deve promuovere l’innovazione senza dimenticare le persone

    By Redazione LineaEDP15/12/2025Updated:15/12/20253 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Cloudera promuove un uso etico dell’intelligenza artificiale

    AI
    Yari Franzini, Group Vice President Southern Europe di Cloudera

    Nonostante l’intelligenza artificiale sia sempre più integrata nella nostra quotidianità, la fiducia in questa tecnologia rimane limitata. Una ricerca di KPMG rivela che, sebbene il 66% delle persone ne faccia uso regolarmente, solo il 46% si fida pienamente dei sistemi di AI. Senza una stretta supervisione, gli stessi strumenti destinati a promuovere il progresso possono distorcere i risultati e aggravare la presenza di informazioni pregiudizievoli. Con una spesa europea per l’AI che secondo IDC raggiungerà i 144,6 miliardi di dollari entro il 2028, con un tasso di crescita annuale del 30,3%, definire un quadro etico diventa una priorità strategica.

    Quadro che si fonda su tre pilastri: responsabilità, equità e trasparenza

    Partire dalla responsabilità. La responsabilità è il fondamento di un’implementazione etica dell’AI. Se una banca utilizza un algoritmo per negare un prestito, è l’istituto stesso ad assumersi la responsabilità di quella decisione. Per questo è vitale sviluppare un approccio di “Responsabilità-by-Design” che integri i principi di progettazione etica fin dall’inizio definendo chiaramente attività e ruoli degli agenti umani che creano e supervisionano il ciclo di vita dell’AI e stabilendo precise catene di equità e controllo che promuovano la fiducia.

    Affrontare i pregiudizi e promuovere l’equità con l’AI

    Dal software di riconoscimento facciale che identifica erroneamente alcune etnie, agli strumenti di reclutamento che discriminano in base al genere, i sistemi di AI hanno dimostrato l’urgente necessità di tecnologie più eque. Per assicurarsi che le decisioni automatizzate siano informate non solo dalla logica, ma anche dall’etica e dall’empatia, è imperativo mantenere un approccio “human in the loop”. La supervisione umana, che può intervenire nelle operazioni dell’AI, è cruciale per garantire che i risultati siano imparziali e per sostenere standard accettabili, dando vita a un campo di gioco paritario in cui ogni individuo abbia la stessa opportunità di successo.

    La fiducia nell’AI cresce quando la trasparenza è evidente

    La fiducia richiede trasparenza. Immaginate di presentarvi per un lavoro e scoprire che la vostra candidatura è stata scartata da un sistema di AI senza mai raggiungere un selezionatore umano. Questa mancanza di trasparenza mina la fiducia nel processo. Le organizzazioni devono essere in grado di mostrare chiaramente i principi di valutazione dei sistemi di AI, fornendo spiegazioni complete degli standard implementati e disponendo di canali accessibili per commenti o ricorsi. Rafforzare la governance interna, ad esempio con comitati etici, è un passo fondamentale per garantire che l’AI operi in modo giusto e rispettoso dei diritti individuali.

    Privacy e sicurezza in primo piano

    L’AI può analizzare enormi volumi di dati, ma questo potere comporta un elevato rischio per la privacy. Una ricerca di McKinsey ha rilevato che 8 cittadini europei su 10 esprimono preoccupazione su chi possa accedere ai loro dati personali. La protezione dei dati sensibili deve essere una priorità assoluta nello sviluppo dell’AI, andando oltre la semplice conformità legale.

    L’adozione di standard etici per l’AI non è più differibile

    La diffusione dell’AI supera spesso la capacità delle normative esistenti. Ritardare l’azione espone a rischi concreti in aree vitali come sanità, lavoro e sicurezza. Pregiudizi e disinformazione possono colpire milioni di persone. L’Unione Europea, con iniziative come il Codice di Condotta per l’AI, sta già tracciando la rotta per uno sviluppo responsabile. Il più grande potenziale dell’AI, infatti, non risiede in ciò che può realizzare, ma in quanto responsabilmente la usiamo.

    A cura di Yari Franzini, Group Vice President Southern Europe di Cloudera

    Cloudera
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    La Data Quality non basta più, è il momento della Data Observability

    31/12/2025

    ClearSkies anticipa le minacce del 2026

    30/12/2025

    NetApp rafforza le organizzazioni nell’era della complessità

    30/12/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    RS Italia, sostenibilità come leva strategica per la filiera
    Dal Forum Fiscale di Wolters Kluwer Italia le voci e le idee che stanno cambiando la professione
    Commend, la comunicazione diventa intelligente
    Aikom Technology presenta la sicurezza del futuro a SICUREZZA 2025
    Non c’è produzione senza pianificazione
    Defence Tech

    Affrontare il deficit di competenze nella cybersecurity: una guida per le PMI

    31/12/2025

    Quando il consulente diventa il bersaglio: lezioni dal cyberattacco a Credera

    31/12/2025

    Check Point smaschera una nuova ondata di truffe a scopo finanziario

    30/12/2025

    Acronis TRU analizza le nuove campagne Makop e i rischi legati a RDP esposti

    29/12/2025
    Report

    Intelligenza Artificiale in pillole: arriva il white paper di Comtel

    29/12/2025

    L’IT è un fattore chiave per raggiungere gli obiettivi ambientali

    05/12/2025

    Cloud per la fiscalizzazione: sette aziende su dieci pronte a investire

    02/12/2025

    L’Italia aumenta gli investimenti in innovazione

    27/11/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.