• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Sicurezza informatica: come costruire la resilienza nei settori critici
    • Una vera sovranità digitale non può fare a meno dell’open source
    • Stormshield classificata TEMPEST: massimo livello di sicurezza perimetrale per Difesa e PA
    • DataCore Puls8: storage persistente di classe enterprise per Kubernetes
    • Hybrid Identity Protection (HIP) arriva in Europa: appuntamento a Francoforte il 10 febbraio
    • Fatturazione elettronica: come la tecnologia può essere d’aiuto
    • AI: se non si gestisce si possono creare rischi di business, alla reputazione e normativi
    • TrueScreen e Tinexta Infocert insieme per la Digital Trust e la validazione dei dati digitali
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»AI: se non si gestisce si possono creare rischi di business, alla reputazione e normativi

    AI: se non si gestisce si possono creare rischi di business, alla reputazione e normativi

    By Redazione LineaEDP27/01/2026Updated:27/01/20263 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    L’ultimo studio Trend Micro evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o che utilizzano l’intelligenza artificiale in diverse aree geografiche

    Trend Micro-AI-report

    L’adozione di modelli linguistici di grandi dimensioni (LLM) senza un’adeguata governance, verifica e supervisione, rischia di esporre a danni legali, finanziari e di reputazione. Il dato emerge da “Risks of Unmanaged AI Reliance: Evaluating Regional Biases, Geofencing, Data Sovereignty, and Censorship in LLM Models”, l’ultima ricerca Trend Micro, specialista globale di cybersecurity.

    I sistemi di intelligenza artificiale possono generare risultati diversi a seconda della posizione geografica, della lingua, della progettazione del modello e dei controlli integrati. Nei settori dove si lavora a contatto con i clienti o si prendono decisioni importanti, queste incoerenze possono minare la fiducia, allontanare da regolamenti locali o norme culturali e portare a costose conseguenze per il business.

    Lo studio Trend Micro ha coinvolto oltre 100 modelli di intelligenza artificiale e ha utilizzato più di 800 prompt mirati progettati per valutare i bias, la consapevolezza politica e culturale, i comportamenti di geofencing, i segnali di sovranità dei dati e le limitazioni contestuali. Sono stati condotti migliaia di esperimenti, per misurare come gli output cambiano nel tempo e nei luoghi e sono stati analizzati più di 60 milioni di token di input e oltre 500 milioni di token di output.

    I risultati rivelano che prompt identici possono produrre risposte diverse a seconda dell’area geografica e dei modelli e persino variare nel corso di interazioni ripetute con lo stesso sistema. In scenari politicamente critici, come nel caso di territori contesi o di identità nazionale, i modelli hanno mostrato chiare differenze di allineamento a seconda del luogo. In altri test, i modelli hanno restituito risultati obsoleti o incoerenti in aree che richiedevano precisione, ad esempio calcoli finanziari e informazioni dove il tempo giocava un ruolo chiave.

    “In molte organizzazioni, si pensa che l’intelligenza artificiale si comporti come un software tradizionale e che lo stesso input produca in modo affidabile lo stesso output” afferma Marco Fanuli, Technical Director di Trend Micro Italia. “La nostra ricerca mostra che questo pensiero non è corretto. I LLM possono fornire risposte diverse in base all’area geografica, alla lingua, ai guardrail e possono anche cambiare da un’interazione all’altra. Quando i risultati dell’intelligenza artificiale vengono utilizzati direttamente dai clienti o per prendere decisioni di business, il rischio è di perdere il controllo sulla comunicazione, sulla compliance e sul rispetto delle norme culturali.”

    Lo studio evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o utilizzano l’intelligenza artificiale in diverse aree geografiche. Un servizio basato sull’intelligenza artificiale potrebbe essere regolamentato da diversi quadri giuridici, politici e socioculturali. Le criticità coinvolgono anche il settore pubblico. In questo caso, i risultati generati dall’intelligenza artificiale potrebbero essere interpretati come una guida ufficiale e la dipendenza da modelli non localizzati o non verificati potrebbe introdurre rischi di sovranità e di accessibilità.

    “L’intelligenza artificiale non dovrebbe essere trattata come uno strumento di produttività plug-and-play” conclude Marco Fanuli. “Le organizzazioni devono considerare i rischi di dipendenza, adottare una governance chiara, definire le responsabilità e introdurre la verifica umana per qualsiasi output rivolto agli utenti. Questo include la trasparenza dei fornitori di intelligenza artificiale su come si comportano i modelli, su quali dati si basano e dove vengono applicati i guardrail. L’intelligenza artificiale promuove innovazione ed efficienza, ma solo quando viene utilizzata con una chiara comprensione dei suoi limiti e con controlli che verificano come i sistemi si comportano negli ambienti del mondo reale”.

     

    trend micro
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Sicurezza informatica: come costruire la resilienza nei settori critici

    27/01/2026

    Stormshield classificata TEMPEST: massimo livello di sicurezza perimetrale per Difesa e PA

    27/01/2026

    Hybrid Identity Protection (HIP) arriva in Europa: appuntamento a Francoforte il 10 febbraio

    27/01/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Dal Forum Fiscale di Wolters Kluwer Italia le voci e le idee che stanno cambiando la professione
    Defence Tech

    Sicurezza informatica: come costruire la resilienza nei settori critici

    27/01/2026

    Stormshield classificata TEMPEST: massimo livello di sicurezza perimetrale per Difesa e PA

    27/01/2026

    AI: se non si gestisce si possono creare rischi di business, alla reputazione e normativi

    27/01/2026

    Kaspersky SIEM si aggiorna con il rilevamento delle minacce basato su AI e personalizzazione avanzata

    26/01/2026
    Report

    Kyndryl Retail Readiness Report: le leve per il retail nel 2026

    23/01/2026

    BCS: i data center IA posizionano l’Italia tra i primi mercati d’Europa, ma nodi energetici e insolvenze edili rischiano di frenare la corsa

    20/01/2026

    Data Center: come cresce l’ecosistema. I dati dell’Osservatorio POLIMI

    16/01/2026

    AI Diffusion Report: Microsoft presenta la nuova edizione

    13/01/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.