Il Regolamento (UE) 2024/1689, noto come “AI Act“, rappresenta la prima disciplina normativa che regolamenta in modo organico lo sviluppo, l’immissione sul mercato, la messa in servizio e l’utilizzo dei sistemi di intelligenza artificiale.
L’obiettivo dell’AI Act è duplice: da un lato, tutelare i diritti fondamentali delle persone, quali la salute, la sicurezza e la protezione dei dati personali; dall’altro lato, migliorare il funzionamento del mercato interno, favorendo un’innovazione responsabile e orientata verso un uso dell’intelligenza artificiale affidabile, trasparente e controllabile.
Il Regolamento si rivolge a tutti gli attori coinvolti nel ciclo di vita di un sistema di IA: fornitori, utilizzatori (c.d. deployer), importatori, distributori e rappresentanti autorizzati. Gli obblighi normativi si applicano alle imprese, alle pubbliche amministrazioni e alle persone fisiche, a condizione che gli strumenti di IA siano utilizzati nell’ambito di attività professionali.
L’AI Act è strutturato secondo un approccio basato sul rischio, che prevede l’applicazione di regole e obblighi differenziati in funzione del livello di rischio associato ai sistemi di IA. Questi vengono classificati in quattro categorie: pratiche vietate, sistemi ad alto rischio, a rischio limitato e a rischio minimo. Più elevato è il rischio, maggiori sono i requisiti di governance, controllo e trasparenza da rispettare.
Nel corso del Webinar “L’AI è vietata in azienda?” in programma l’8 ottobre alle 14.30, capiremo, con il supporto degli esperti, in quali caso è vietato l’utilizzo dell’intelligenza artificiale e quali strumenti adottare per un corretto utilizzo di questi strumenti.
Programma del webinar sull’uso dell’AI in azienda
Introduzione
Laura Del Rosario, giornalista del Gruppo BitMAT
Intelligenza artificiale in azienda: tra divieti e gestione del rischio.
L’AI Act è strutturato secondo un approccio basato sul rischio, che prevede l’applicazione di regole e obblighi differenziati in funzione del livello di rischio associato ai sistemi di IA. Questi vengono classificati in quattro categorie: pratiche vietate, sistemi ad alto rischio, a rischio limitato e a rischio minimo. Più elevato è il rischio, maggiori sono i requisiti di governance, controllo e trasparenza da rispettare.
Avv. Davide Cicu – Studio Legale Galgano
Compliance + opportunità
– “Non solo obblighi, ma vantaggi competitivi: come trasformare l’AI Act in un’opportunità di business”.
– TS Enterprise AI può essere presentato come la piattaforma che abilita un uso responsabile e sicuro dell’AI, aiutando le imprese a:
– mantenere la conformità normativa,
– ridurre i rischi legali,
– migliorare governance e controllo sui processi di AI
Valerio Menghini PreSales Manager Team System Enterprise
Intelligenza artificiale, le limitazioni della nuova Direttiva Macchine
Il Nuovo Regolamento UE 2023/1230, che sostituisce la Direttiva Macchine 2006/42 CE impone una serie di limitazioni all’impiego dell’Intelligenza Artificiale nella gestione della Sicurezza. Come prevenire possibili contestazioni?
Massimiliano Cassinelli – direttore scientifico BitMAT
Q&A
La partecipazione al webinar L’AI è vietata in azienda? è gratuita ed è possibile anticipare le proprie domande all’indirizzo redazione.bitmat@bitmat.it