• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • World AI Appreciation Day: riconosciamo il valore dell’AI
    • Intelligenza Artificiale: come concretizzarne i vantaggi?
    • Quantum Computing: pronti ai prossimi attacchi informatici?
    • Dati: l’urgenza di un’archiviazione in cloud sovrani
    • Greenfield o Brownfield? Il dilemma del settore dei data center
    • AI: innovazione e sfide normative globali
    • Perché la sicurezza nel cloud inizia con una totale trasparenza?
    • AI generativa: l’ancóra di salvezza del SOC
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»AI: innovazione e sfide normative globali

    AI: innovazione e sfide normative globali

    By Redazione LineaEDP15/07/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Darren Thomson di Commvault parla del divario normativo che persiste nel mondo dell’AI, evidenziando le sfide e le opportunità nella corsa globale alla leadership tecnologica

    AI

    Oggi condividiamo un interessante articolo di Darren Thomson, Field CTO EMEAI di Commvault dedicato alla protagonista assoluta di questo secolo: l’Intelligenza Artificiale (AI).

    Come spiega l’esperto, nonostante i tentativi di definire un approccio unitario con la pubblicazione dell’International AI Safety Report, i paesi di tutto il mondo continuano a competere per la leadership. In contrasto a questo, secondo l’esperto, una regolamentazione coordinata promossa dai governi rimane essenziale per stabilire framework applicabili per la sicurezza dell’AI in tutto il mondo.

    Buona lettura!

    Colmare il divario normativo sull’intelligenza artificiale: bilanciare innovazione e sicurezza in un’era di crescente competitività

    La corsa globale all’AI si sta intensificando con nuovi sviluppi ogni settimana. Nonostante i tentativi di definire un approccio unitario con la pubblicazione dell’International AI Safety Report, i paesi di tutto il mondo continuano a competere per la leadership. Il nuovo governo statunitense si è mosso rapidamente annunciando 500 miliardi di dollari di investimenti del settore privato nel Project Stargate per costruire infrastrutture avanzate per l’AI, con il supporto di realtà di primo piano, tra cui OpenAI, Oracle e Softbank. Questo annuncio era stato anticipato dal lancio nel Regno Unito dell’AI Opportunities Action Plan, beneficiario di un finanziamento di 14 miliardi di sterline da parte di principali aziende tecnologiche.

    Cresce il divario normativo

    In realtà, mentre il Regno Unito e gli Stati Uniti stabiliscono piani aggressivi per la crescita, il divario tra gli approcci normativi si sta ampliando. Il governo statunitense ha rapidamente revocato il suo precedente ordine esecutivo che avrebbe dovuto proteggere dai rischi che l’AI poneva a consumatori e sicurezza nazionale, che richiedeva importanti comunicazioni sulla protezione riguardanti lo sviluppo. L’inversione di rotta sottolinea l’impegno della nuova amministrazione a dare priorità all’innovazione rispetto ad aspetti come sicurezza, privacy e parzialità, considerati barriere al progresso.

    Su una falsariga simile, il Regno Unito sta mantenendo un approccio più leggero alla governance rispetto all’UE. Il suo AI Action Plan stabilisce una visione ideale per il futuro, ma, probabilmente, con un’insufficiente supervisione normativa. Ciò potrebbe potenzialmente esporre il Regno Unito a minacce cyber e minare la fiducia del pubblico nei sistemi di intelligenza artificiale.

    In netto contrasto, l’UE sta portando avanti il suo AI Act, un framework giuridico completo e vincolante che mette in primo piano regolamentazione dell’AI, trasparenza e prevenzione dei danni. Stabilisce obblighi inequivocabili per lo sviluppo e la diffusione dell’AI, tra cui l’obbligatorietà di valutazione dei rischi e sanzioni significative in caso di non conformità. In Italia, il Garante per la protezione dei dati personali ha già espresso preoccupazioni in merito all’uso indiscriminato dell’AI, avviando indagini su applicazioni come ChatGPT e sottolineando la necessità di un approccio prudente e rispettoso del GDPR.

    Adattare i principi di sicurezza all’AI

    Questa divergenza normativa sta creando un panorama complesso per le aziende che sviluppano e implementano sistemi di AI. La mancata coerenza crea condizioni di concorrenza ineguali e, presumibilmente, le basi per un futuro alimentato dall’AI, ma anche più rischioso.
    Le aziende saranno chiamate a identificare un modo per bilanciare innovazione e mitigazione del rischio, adottando solide misure di cybersecurity e adattandole specificamente alle esigenze emergenti dell’AI. Le aree che già destano preoccupazione includono l’avvelenamento dei dati e la catena di approvvigionamento dei dati.

    Avvelenamento dei modelli di dati

    L’avvelenamento dei dati, in cui i malintenzionati manipolano deliberatamente le informazioni di addestramento per alterare le prestazioni dei modelli, sarà un rischio particolarmente rilevante per l’AI. Potrebbero essere modifiche sottili difficili da identificare, lievi cambiamenti sufficienti a generare risultati errati. Oppure gli attaccanti potrebbero alterare il codice al fine di poter rimanere nascosti all’interno del modello e ottenere il controllo continuo sul suo comportamento. Tale manomissione, inizialmente impercettibile, potrebbe compromettere lentamente un’azienda nel tempo, portando a decisioni sbagliate e alla rovina finanziaria. Oppure, se motivata politicamente, potrebbe promuovere pregiudizi e influenzare i comportamenti.

    La natura stessa di questi attacchi, in cui i dati errati si fondono perfettamente con quelli legittimi, li rende difficili da rilevare fino a quando non è troppo tardi e il danno non può essere eliminato. Combattere l’avvelenamento delle informazioni richiede la loro solida convalida, il rilevamento di anomalie e il monitoraggio continuo dei set di dati per identificare e rimuovere le voci pericolose, poiché l’avvelenamento può essere perpetrato in qualsiasi fase. Può verificarsi durante la loro raccolta, iniettato successivamente nei repository o introdotto inavvertitamente da altre fonti infette.

    Proteggere la supply chain dei dati

    In prospettiva, è probabile che molte aziende dipendano da questi modelli per gestire la propria attività e operazioni quotidiane. Con i criminali che già sfruttano le capacità dell’AI per potenziare i propri attacchi, le conseguenze dell’ingresso di un’intelligenza artificiale malevola nell’ecosistema dei fornitori potrebbero essere catastrofiche, oltre che molto diffuse.

    I responsabili aziendali dovranno disporre di difese forti per garantire la resilienza in tutta la loro catena di approvvigionamento e avere piani collaudati di ripristino in caso di emergenza. Ciò significa dare priorità alle applicazioni fondamentali e definire ciò che costituisce un’attività minima sostenibile e una postura di rischio accettabile. Solo allora possono essere certi che i backup critici possano essere ripristinati in modo rapido e completo in caso di compromissione.

    Continua consapevolezza dei rischi

    Sebbene l’AI offra un immenso potenziale di innovazione, è fondamentale considerare la sua implementazione con cautela. Le sue estese capacità comportano rischi altrettanto importanti, in particolare in termini di cybersecurity, privacy ed etica. Man mano che i modelli di AI si radicano all’interno nelle infrastrutture organizzative, la portata delle violazioni di sicurezza e degli abusi aumenterà drasticamente.

    Mantenere protezioni affidabili, processi di sviluppo trasparenti e standard etici è fondamentale per mitigare questi rischi. Solo bilanciando l’innovazione con la mancanza assoluta di tolleranza per l’utilizzo improprio le aziende possono beneficiare in sicurezza dell’AI e proteggersi dai suoi pericolosi lati negativi. In parallelo, anche se sembra attualmente improbabile, una regolamentazione coordinata promossa dai governi rimane essenziale per stabilire framework applicabili per la sicurezza dell’AI in tutto il mondo.

    di Darren Thomson, Field CTO EMEAI di Commvault

    AI e cybersecurity CommVault Darren Thomson intelligenza artificiale (AI) normativa
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    World AI Appreciation Day: riconosciamo il valore dell’AI

    15/07/2025

    Intelligenza Artificiale: come concretizzarne i vantaggi?

    15/07/2025

    Dati: l’urgenza di un’archiviazione in cloud sovrani

    15/07/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Defence Tech

    Quantum Computing: pronti ai prossimi attacchi informatici?

    15/07/2025

    AI generativa: l’ancóra di salvezza del SOC

    14/07/2025

    Imprenditori europei impauriti dalle frodi digitali

    14/07/2025

    La sicurezza aziendale dipende dalla user experience

    11/07/2025
    Report

    Greenfield o Brownfield? Il dilemma del settore dei data center

    15/07/2025

    Il digitale in Italia raccoglie i frutti seminati dall’AI

    03/07/2025

    Continuità Digitale: leva strategica per l’evoluzione dell’A&D

    03/07/2025

    GenAI: aumenta l’adozione, ma anche i rischi

    02/07/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.