L’intelligenza artificiale sta rapidamente passando da tecnologia emergente a infrastruttura strategica per imprese e pubbliche amministrazioni. In questo contesto, il quadro normativo si evolve per accompagnare – e governare – l’adozione dei sistemi di IA, con l’obiettivo di garantire sicurezza, trasparenza e tutela dei diritti.
Un passo significativo in questa direzione è la pubblicazione della norma UNI 11621-8, che contribuisce a definire requisiti e linee guida per la gestione e lo sviluppo di soluzioni basate su intelligenza artificiale. Il documento si inserisce in un percorso più ampio di standardizzazione, volto a supportare le organizzazioni nell’adozione consapevole di queste tecnologie, riducendo i rischi e favorendo l’allineamento alle future disposizioni europee, come l’AI Act.
BitMAT Edizioni approfondirà questi temi con un taglio concreto in un webinar gratuito che si terrà giovedì 14 maggio alle ore 11.00 (MAGGIORI INFO E ISCRIZIONI QUI)!
Tra gli elementi più concreti introdotti dalla norma vi è la definizione di 12 profili professionali dedicati all’IA. Si tratta di figure che coprono competenze tecniche, gestionali e di governance, con l’obiettivo di chiarire ruoli e responsabilità all’interno delle organizzazioni. Questo approccio aiuta le imprese a strutturare team multidisciplinari, evitando sovrapposizioni e lacune, e a garantire una gestione più efficace e conforme dei sistemi di intelligenza artificiale.
La norma introduce inoltre criteri chiave per comprendere cosa debba essere considerato un sistema di IA, offrendo strumenti utili a distinguere tra automazione tradizionale e sistemi realmente intelligenti. Questo aspetto è tutt’altro che teorico: dalla corretta classificazione dipendono infatti obblighi normativi, livelli di responsabilità e requisiti di conformità.
Un altro punto centrale riguarda la classificazione del rischio. I sistemi di intelligenza artificiale non sono tutti uguali: alcuni presentano impatti minimi, altri possono incidere in modo significativo su diritti fondamentali, sicurezza o processi decisionali critici. La norma aiuta le organizzazioni a orientarsi in questa complessità, fornendo un quadro di riferimento per valutare i rischi e adottare misure proporzionate.
Accanto alla dimensione tecnica, emerge con forza il tema della governance. L’introduzione dell’IA richiede modelli organizzativi adeguati, in grado di presidiare l’intero ciclo di vita dei sistemi: dalla progettazione all’implementazione, fino al monitoraggio continuo. La norma sottolinea l’importanza di ruoli chiari, processi documentati e meccanismi di controllo che garantiscano trasparenza e accountability.
Non meno rilevante è il tema della protezione dei dati. I sistemi di IA si basano su grandi quantità di informazioni, spesso personali o sensibili. Questo rende imprescindibile l’integrazione tra governance dell’IA e compliance privacy, in linea con il GDPR. La gestione dei dati deve essere progettata fin dall’inizio secondo principi di minimizzazione, sicurezza e corretto utilizzo, evitando rischi di discriminazione o uso improprio.
Per le imprese, il messaggio è chiaro: l’adozione dell’intelligenza artificiale non può più prescindere da un approccio strutturato e conforme alle normative. Non si tratta solo di evitare sanzioni, ma di costruire fiducia, proteggere il valore dei dati e garantire sostenibilità nel lungo periodo.
Per approfondire questi aspetti in modo operativo, BitMAT organizza il webinar gratuito (ISCRIVITI QUI):
“IA in azienda: obblighi normativi, governance e protezione dei dati”
Giovedì 14 maggio – ore 11.00
Durante l’incontro verranno analizzati i criteri per identificare un sistema di IA secondo la normativa, la classificazione del rischio e i relativi obblighi, gli elementi essenziali di un modello di governance e gli impatti su privacy e gestione dei dati.
Un’occasione concreta per trasformare il quadro normativo in azioni pratiche e guidare l’innovazione in modo responsabile.


