• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • AI Act e compliance: cosa cambia davvero per le imprese e perché non è più un tema “teorico”
    • Ransomware VECT: perchè pagare il riscatto non permette di recuperare i dati
    • Formazione in cybersecurity: perché il futuro è ibrido (e non una scelta tra online e offline)
    • SAP alla Hannover Messe 2026: rendere operativa l’AI agentica per promuovere una industria manifatturiera end-to-end e resiliente
    • Agentforce Operations: Salesforce lancia gli agenti AI al lavoro nel back office
    • AWS: nuove soluzioni agentiche e partnership con OpenA
    • Data Center: fotovoltaico per Equinix con Neoen
    • Bollette sempre più digitali: i nuovi sistemi di pagamento tra sicurezza e semplicità
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Report»capAI insegna come difendersi dai rischi dell’AI

    capAI insegna come difendersi dai rischi dell’AI

    By Redazione LineaEDP24/03/20224 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    L’Università di Bologna e l’Università di Oxford spiegano come proteggere le persone, la società, e l’ambiente dai rischi dell’AI

    Sviluppare e gestire le nuove tecnologie in linea con le future normative europee per mettere al sicuro dai rischi dell’AI persone, società e ambiente.

    È quanto si riprometto di fare gli studiosi dell’Università di Bologna e dell’Università di Oxford dai quali arriva una nuova metodologia di auditing, unica al mondo, per aiutare le imprese e le organizzazioni a seguire le future normative europee sui sistemi di intelligenza artificiale (IA).

    L’iniziativa – presentata in un report appena pubblicato – è nata come risposta alla proposta di regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla Commissione europea (Artificial Intelligence Act – AIA), documento che si propone di coordinare l’approccio europeo rispetto alle implicazioni umane ed etiche dell’IA.

    La nuova metodologia di auditing – chiamata “capAI” (conformity assessment procedure for AI) – aiuterà il mondo delle imprese ad adeguarsi alla futura legislazione europea sull’IA, prevenendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a singoli individui, alle comunità, alla società più in generale, e all’ambiente.

    Messo a punto da un gruppo di esperti del Centro per l’Etica Digitale (CEDE) attivo al Dipartimento di Scienze Giuridiche dell’Università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford, “capAI” aiuterà le organizzazioni a fare una valutazione dei loro attuali sistemi di intelligenza artificiale, in modo da prevenire violazioni della privacy e un utilizzo scorretto dei dati. Inoltre, questo nuovo strumento offrirà supporto per spiegare i risultati ottenuti da sistemi IA, e per lo sviluppo e l’attivazione di sistemi affidabili e conformi all’Artificial Intelligence Act europeo.

    Grazie a “capAI”, le imprese saranno in grado di produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza artificiale, che potrà essere condivisa con i loro clienti. Le imprese potranno così mostrare come vengono applicate le “good practices” sul tema e come avviene la gestione consapevole delle problematiche etiche legate all’IA. Questa scheda di valutazione tiene conto degli obiettivi del sistema di AI, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi contatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande.

    Come sottolineato in una nota ufficiale alla stampa da Matthias Holweg, American Standard Companies Chair in Operations Management alla Saïd Business School e coautore del rapporto: «Per mettere a punto il percorso di capAI, abbiamo prima di tutto creato il più completo database esistente sugli errori prodotti da sistemi di IA. A partire da questo database, segnalando i problemi più comuni e descrivendo in dettaglio le migliori ‘best practices’, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che ‘capAI’ possa diventare un processo standard per tutti i sistemi IA e prevenire così i tanti problemi etici nati fino ad oggi».

    Oltre a tutto questo, ‘capAI’ può anche aiutare le organizzazioni che lavorano con i sistemi di intelligenza artificiale a monitorare la progettazione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fiducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA.

    Per Luciano Floridi, direttore del Centro per l’Etica Digitale (CEDE) dell’Università di Bologna, docente all’Oxford Internet Institute e coautore del report: «L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente: è una tecnologia estremamente potente, ma può diventare anche pericolosa. Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie».

     

    capAI conformity assessment procedure for AI intelligenza artificiale metodologia di auditing regolamento sull'intelligenza artificiale rischi dell'AI Università di Bologna Università di Oxford
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Var Group: agentificazione (37%), cybersecurity (60%) e consulenza trascinano la digital transformation in Italia

    28/04/2026

    Intelligenza artificiale in azienda: opportunità e rischi da governare

    27/04/2026

    Edilizia: l’intelligenza artificiale può fare la differenza

    27/04/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Nuova Transizione 5.0: cosa cambia?
    Il futuro del lavoro passa dai Personal Systems: l’innovazione HP tra AI e sicurezza
    AI in locale: la workstation secondo Syspack tra potenza e flessibilità
    Tra promesse e realtà: vita (vera) da System Integrator
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    Defence Tech

    Ransomware VECT: perchè pagare il riscatto non permette di recuperare i dati

    30/04/2026

    Phishing: +7 milioni di attacchi tramite codice dispositivo in un mese

    28/04/2026

    Infosecbox: progetto vincente nel manufacturing

    28/04/2026

    Competenze e leadership nell’era dell’AI: l’analisi di SentinelOne

    27/04/2026
    Report

    Var Group: agentificazione (37%), cybersecurity (60%) e consulenza trascinano la digital transformation in Italia

    28/04/2026

    L’Agentic AI e il divario di fiducia che ne ostacola l’adozione

    23/04/2026

    Indagine Red Hat: il divario nella sovranità dell’AI e i rischi di disruption per le imprese italiane

    21/04/2026

    Verso la Digital Company 2030: la visione di Cefriel nell’era della convergenza

    20/04/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.