• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Qlik Connect 2026: il forum internazionale sull’AI affidabile e scalabile
    • Quantum Computing e cybersecuriy: 5 mosse per anticipare il Q-day
    • Il Comune di Napoli accelera sulla trasformazione digitale con IBM
    • AI e formazione: lavoratori chiedono di più, governi e aziende rallentano
    • Recruiting: quando l’AI diventa un rischio per l’immagine aziendale
    • Italian Tech Week: Torino capitale dell’innovazione in Europa
    • NTT DATA sigla un accordo di collaborazione strategica con AWS
    • Il vulnerability management per prevenire i data breach
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Report»capAI insegna come difendersi dai rischi dell’AI

    capAI insegna come difendersi dai rischi dell’AI

    By Redazione LineaEDP24/03/20224 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    L’Università di Bologna e l’Università di Oxford spiegano come proteggere le persone, la società, e l’ambiente dai rischi dell’AI

    Sviluppare e gestire le nuove tecnologie in linea con le future normative europee per mettere al sicuro dai rischi dell’AI persone, società e ambiente.

    È quanto si riprometto di fare gli studiosi dell’Università di Bologna e dell’Università di Oxford dai quali arriva una nuova metodologia di auditing, unica al mondo, per aiutare le imprese e le organizzazioni a seguire le future normative europee sui sistemi di intelligenza artificiale (IA).

    L’iniziativa – presentata in un report appena pubblicato – è nata come risposta alla proposta di regolamento sull’intelligenza artificiale avanzata lo scorso anno dalla Commissione europea (Artificial Intelligence Act – AIA), documento che si propone di coordinare l’approccio europeo rispetto alle implicazioni umane ed etiche dell’IA.

    La nuova metodologia di auditing – chiamata “capAI” (conformity assessment procedure for AI) – aiuterà il mondo delle imprese ad adeguarsi alla futura legislazione europea sull’IA, prevenendo o comunque riducendo il rischio che i sistemi di intelligenza artificiale si comportino in modo non etico e provochino danni a singoli individui, alle comunità, alla società più in generale, e all’ambiente.

    Messo a punto da un gruppo di esperti del Centro per l’Etica Digitale (CEDE) attivo al Dipartimento di Scienze Giuridiche dell’Università di Bologna, della Saïd Business School e dell’Oxford Internet Institute dell’Università di Oxford, “capAI” aiuterà le organizzazioni a fare una valutazione dei loro attuali sistemi di intelligenza artificiale, in modo da prevenire violazioni della privacy e un utilizzo scorretto dei dati. Inoltre, questo nuovo strumento offrirà supporto per spiegare i risultati ottenuti da sistemi IA, e per lo sviluppo e l’attivazione di sistemi affidabili e conformi all’Artificial Intelligence Act europeo.

    Grazie a “capAI”, le imprese saranno in grado di produrre una scheda di valutazione per ognuno dei loro sistemi di intelligenza artificiale, che potrà essere condivisa con i loro clienti. Le imprese potranno così mostrare come vengono applicate le “good practices” sul tema e come avviene la gestione consapevole delle problematiche etiche legate all’IA. Questa scheda di valutazione tiene conto degli obiettivi del sistema di AI, dei valori organizzativi che lo sostengono e dei dati che sono stati utilizzati per attivarlo. Inoltre, include informazioni sul responsabile del sistema, insieme ai suoi contatti, nel caso in cui i clienti desiderino mettersi in contatto per dubbi o domande.

    Come sottolineato in una nota ufficiale alla stampa da Matthias Holweg, American Standard Companies Chair in Operations Management alla Saïd Business School e coautore del rapporto: «Per mettere a punto il percorso di capAI, abbiamo prima di tutto creato il più completo database esistente sugli errori prodotti da sistemi di IA. A partire da questo database, segnalando i problemi più comuni e descrivendo in dettaglio le migliori ‘best practices’, abbiamo poi creato una ‘cassetta degli attrezzi’ unica al mondo per aiutare le organizzazioni a sviluppare e gestire sistemi di intelligenza artificiale a norma di legge, tecnicamente solidi e rispettosi dei principi etici. La nostra speranza è che ‘capAI’ possa diventare un processo standard per tutti i sistemi IA e prevenire così i tanti problemi etici nati fino ad oggi».

    Oltre a tutto questo, ‘capAI’ può anche aiutare le organizzazioni che lavorano con i sistemi di intelligenza artificiale a monitorare la progettazione, lo sviluppo e l’utilizzo delle tecnologie di IA, a mitigare i rischi di errori e la mancanza di fiducia in questi sistemi, a prevenire danni sia sul piano economico sia su quello dell’immagine pubblica, e a valutare le implicazioni etiche, legali e sociali delle tecnologie di IA.

    Per Luciano Floridi, direttore del Centro per l’Etica Digitale (CEDE) dell’Università di Bologna, docente all’Oxford Internet Institute e coautore del report: «L’intelligenza artificiale, nelle sue molteplici forme, è pensata come strumento a beneficio dell’umanità e dell’ambiente: è una tecnologia estremamente potente, ma può diventare anche pericolosa. Per questo, abbiamo sviluppato una metodologia di audit in grado di verificare che i sistemi di IA siano in linea con la legislazione europea e rispettino i principi etici: in questo modo possiamo contribuire a garantire lo sviluppo e l’utilizzo corretto di queste tecnologie».

     

    capAI conformity assessment procedure for AI intelligenza artificiale metodologia di auditing regolamento sull'intelligenza artificiale rischi dell'AI Università di Bologna Università di Oxford
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    AI e formazione: lavoratori chiedono di più, governi e aziende rallentano

    06/10/2025

    Marketing: Agenti AI e dati al centro

    03/10/2025

    Intelligenza Artificiale: le aziende si fidano di GenAI e Agentic AI

    01/10/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Il cloud introduce ulteriore complessità nella cybersecurity: focus sulle identità
    Synology CC400W: abbiamo testato la telecamera di sicurezza con AI integrata e connettività Wi-Fi
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Defence Tech

    Quantum Computing e cybersecuriy: 5 mosse per anticipare il Q-day

    06/10/2025

    Recruiting: quando l’AI diventa un rischio per l’immagine aziendale

    06/10/2025

    Il vulnerability management per prevenire i data breach

    03/10/2025

    Password più sicure con i consigli di Cisco

    02/10/2025
    Report

    AI e formazione: lavoratori chiedono di più, governi e aziende rallentano

    06/10/2025

    Marketing: Agenti AI e dati al centro

    03/10/2025

    Intelligenza Artificiale: le aziende si fidano di GenAI e Agentic AI

    01/10/2025

    ESG: il reporting diventa un asset strategico

    29/09/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.