• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi
    • Attacchi informatici: Russia, UE e Asia nel mirino
    • Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory
    • Sicurezza: AI sempre più sfidante
    • Oracle EU Sovereign Cloud conquista le organizzazioni tedesche
    • Progettare il futuro con Red Hat Enterprise Linux 10
    • AI e Partnership pilastri della strategia di SAP
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»AI Act europeo: servono regole internazionali

    AI Act europeo: servono regole internazionali

    By Redazione LineaEDP16/06/20235 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Per Shalini Kurapati (in foto), Co-Founder e CEO di Clearbox AI, la bozza approvata dell’AI Act europeo è un primo, importante, passo

    Intelligenza artificiale

    Nel contributo che vi proponiamo qui di seguito, Shalini Kurapati, Co-Founder e CEO di Clearbox AI, commenta l’approvazione della bozza dell’AI Act europeo sottolineando fin da subito come si tratta di un primo passo e raccomandando regole internazionali “per proteggerci da una possibile escalation”.
    Buona lettura.

    L’Unione europea sta cercando di regolamentare l’intelligenza artificiale. Un esercizio complesso perché se da un lato bisogna proteggere le persone dai rischi di una tecnologia così potente e complessa, dall’altro non si può – e non si deve – fermare la possibilità di migliorare diversi ambiti della nostra vita quotidiana.

    A complicare il tentativo dell’Ue, però, è anche la portata di una norma che, per essere efficace, deve essere riconosciuta a livello globale. Altrimenti rischia di essere agevolmente aggirata. Infatti le principali società che sviluppano l’AI nel mondo sono oggi Microsoft/Open AI, Google, Meta, Tesla, solo per citarne alcune. Un panorama che coinvolge gli Stati Uniti, ma che inizia a contemplare anche la Cina. E gli Stati Uniti, per il momento, non hanno alcuna intenzione di frenare la ricerca e lo sviluppo: per quanto l’amministrazione Biden sia consapevole dei rischi, dopo tanti discorsi tutto ciò che è stato fatto ad oggi sono una serie di misure non legislative che suggeriscono ai colossi dell’AI come dovrebbero comportarsi per auto-regolare la propria tecnologia.

    Normativa EU tra soluzioni e problematicità

    L’idea del Vecchio continente è quella di classificare non tanto gli algoritmi, quanto l’intensità del rischio relativo al loro utilizzo: basso, medio, alto, inaccettabile. È un primo passo molto utile che serve a vietare quelle tecnologie che hanno un rischio troppo elevato in termini di violazione dei diritti fondamentali delle persone.

    Se l’AI viene usata per bloccare lo spam, il rischio è basso, se invece viene usata per la diagnosi e l’analisi delle forme tumorali è evidente che il rischio è molto più alto (può sbagliare, può discriminare ecc). Senza dimenticare la possibilità che l’AI venga usata per il social scoring, ovvero per classificare la reputazione delle persone (come fa la Cina per i propri cittadini). E il rischio per questo utilizzo sarebbe classificato come “inaccettabile”.

    È una norma che però presenta almeno una problematicità: dal momento che l’intelligenza artificiale si sviluppa rapidamente, non è sempre facile capire in anticipo se un determinato tipo di software sia pericoloso o meno. Un esempio su tutti: il caso dei chatbot. Se fino a un paio di anni fa sarebbero stati classificati come algoritmi a basso rischio, oggi con ChatGPT lo scenario è radicalmente cambiato.

    D’altra parte non esisterà mai una legge perfetta e qualunque norma approvata dovrà essere – in qualche modo – flessibile. Capace di adattarsi, o essere adattata, ai cambiamenti della società e agli sviluppi della tecnologia.

    Regole globali: l’unica via davvero efficace

    Forse ancora più importante di avere una regolamentazione flessibile è l’urgenza di avere delle norme condivise. Infatti, per quanto l’AI Act possa regolare i software del vecchio continente, non può farlo per quelli che vengono sviluppati in altre nazioni e questo, in un mondo globalizzato, è chiaramente un problema per tutti.

    La proposta di raggiungere una cooperazione globale non è nuova: ci sono state delle prime discussioni nel G7 e piani per includere Paesi ricettivi come India, Indonesia e Brasile per andare verso un accordo globale sulla regolamentazione AI e protocolli di sicurezza, ma non abbastanza velocemente. Sono solo piccoli passi, almeno per ora.

    Se gli allarmi più o meno esagerati sull’impatto disastroso che l’intelligenza artificiale avrebbe sul mondo si rincorrono da anni, è però vero che, senza scendere in scenari distopici, è ormai prioritario trovare un’intesa su larga scala globale, esattamente come dovrebbe accadere per proteggere il clima.

    AI Act efficace se porta verso un’AI più giusta

    La questione è ampia e complessa, certo, ma le soluzioni possibili per fare in modo che ci sia un controllo etico dell’intelligenza artificiale sono molte: una delle proposte contenute nella bozza dell’AI Act è, per esempio, quella di creare dei processi che si servano dei dati sintetici (che è poi quello che facciamo in Clearbox AI). Questo aspetto è significativo perché solitamente le regolamentazioni non fanno riferimento diretto a tecniche specifiche.

    I dati sintetici sono costruiti partendo da dati reali e generandone di nuovi che però mantengono le proprietà statistiche di quelli originali: quindi da un lato permettono di anonimizzare i risultati (quindi non violare la privacy) e dall’altro anche di agire sulla riduzione dei bias. Anche per questo nell’AI Act c’è molto focus sul dato che sta alla base dell’intelligenza artificiale, la sua qualità e la sua validazione in termini di robustezza e rappresentazione, oltre ai requisiti di data privacy e data minimization. I dati sintetici hanno il potenziale per giocare un ruolo fondamentale nella realizzazione di questi requisiti verso un’AI sicura e affidabile.

    Un’altra strada percorribile è quella di affidare a un ente terzo l’obbligo di certificare periodicamente lo stato dell’arte.

    Insomma, L’AI Act europeo è l’apripista nell’istituzione di regole esaustive e applicabili per garantire la sicurezza dell’IA e l’innovazione responsabile.

    Le ragioni per sostenere l’AI Act europeo

    Nonostante alcuni limiti e sebbene potrebbe richiedere da 2 a 3 anni per entrare in vigore (ma la Commissione Europea sta lavorando a delle linee guida che le aziende possono iniziare ad adottare nel frattempo) ci sono comunque varie ragioni per sostenerlo fortemente. Prima tra tutte perché ha creato un punto di riferimento che può essere utile per la cooperazione nella regolamentazione globale dell’intelligenza artificiale. E una cosa è certa: la finestra temporale per la normazione dell’intelligenza artificiale si sta riducendo rapidamente.

    Non ci sarà alcuna esplosione nucleare, ma è una come una palla di neve che rotolando verso valle diventa sempre più grande e sempre più difficile da fermare. È per questo che è importante agire adesso, come sta già facendo l’Europa, ma a livello mondiale.

     

    AI Act europeo chatbot ChatGPT Clearbox AI dati sintetici intelligenza artificiale Normative UE Shalini Kurapati
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi

    21/05/2025

    Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Attacchi informatici: Russia, UE e Asia nel mirino

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.