• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • SentinelOne Annual Threat Report: una guida per difendersi dall’industrializzazione delle violazioni informatiche moderne
    • Slackbot: il “teammate digitale” per le aziende
    • L’UE prepara il passaggio alla sicurezza post-quantistica: cosa cambia per le imprese
    • TA416, attore allineato alla Cina, riprende le attività di spionaggio contro i governi europei ed estende il suo raggio d’azione al Medio Oriente
    • Agenti AI e nuove regolamentazioni: il quadro normativo italiano ed europeo 2026 per le imprese
    • Brand Guardian aiuta le aziende a contrastare le frodi automatizzate
    • NetApp e Commvault insieme per la cyber resilience di nuova generazione
    • Come si stanno affrontando le minacce informatiche basate sull’intelligenza artificiale?
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Intelligenza artificiale: usare con cura

    Intelligenza artificiale: usare con cura

    By Redazione LineaEDP11/03/2025Updated:26/03/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Un uso improprio dell’Intelligenza Artificiale espone le aziende a rischi gravi dando spazio a fenomeni spesso difficili da gestire come la Shadow AI

    intelligenza-artificiale

    Quella che stiamo vivendo è l’era dell’Intelligenza Artificiale. Dopo un periodo iniziale caratterizzato da paura e scetticismo, spesso instillato nelle nostre menti da storie fantascientifiche, l’AI è entrata prepotentemente nelle nostre vite, modificando il nostro modo di agire e, soprattutto, di lavorare.

    I vantaggi che derivano dall’uso dell’Intelligenza Artificiale, in molti contesti e settori, è innegabile: dall’automazione di processi pericolosi in ambito industriale, al rilevamento delle minacce informatiche nel settore della cybersecurity, fino al miglioramento del customer service e alla personalizzazione della customer experience nel retail.

    Però, come ogni tecnologica rivoluzionaria, anche l’Intelligenza Artificiale deve essere usata con criterio e attenzione, in quanto potrebbe rappresentare un’arma a doppio taglio per la sicurezza aziendale. Per questo esistono delle normative che ne regolarizzano l’uso, la più recente è l’AI Act, un documento che introduce nell’Unione Europea la prima regolamentazione uniforme sulle tecnologie legate all’intelligenza artificiale.

    L’AI Act adotta un approccio simile al GDPR nel determinare l’ambito di applicazione. Infatti, non si estende solo ai fornitori di sistemi di Intelligenza Artificiale che operano all’interno dell’UE, ma anche a quelli al di fuori dell’Unione stessa, se i risultati delle elaborazioni dei loro sistemi sono utilizzati nell’UE. Inoltre, il regolamento si applica a chiunque sia coinvolto nell’uso di sistemi di Intelligenza Artificiale.

    In questo articolo scopriamo quali sono i rischi legati all’uso improprio e non regolamentato dell’Intelligenza Artificiale all’interno delle aziende e cosa possono fare i datori di lavoro per proteggersi da tali rischi.

    Rischi legati all’Intelligenza Artificiale: la minaccia dilagante della Shadow AI

    Uno dei fenomeni più diffusi nelle aziende oggi è la Shadow AI, ovvero l’utilizzo di servizi e applicazioni di Intelligenza Artificiale da parte dei dipendenti, senza l’autorizzazione dei datori di lavoro.

    Questo fenomeno sta crescendo insieme all’utilizzo da parte dei lavoratori di applicazioni di intelligenza artificiale generativa, come ChatGPT. I dipendenti, spesso, utilizzano queste piattaforme per le loro attività quotidiane, ma l’azienda non ha sempre una piena consapevolezza dell’utilizzo o, magari, non ha definito dei rigidi protocolli di sicurezza.

    Secondo uno studio di Palo Alto Networks, circa il 57% dei dipendenti utilizza applicazioni di AI generativa su base settimanale, mettendo in crisi i team di cybersecurity delle aziende, che si ritrovano costretti a rivedere strategie e controlli. Secondo gli esperti di cybersecurity, l’espansione dell’Intelligenza Artificiale è molto più rapida rispetto a quella di tecnologie precedenti, come gli smartphone o il web, e, di conseguenza, aumenta il rischio di utilizzi non regolamentati.

    Ma quali sono i rischi legati alla Shadow AI? Teresa Potenza, giornalista ed esperta di Intelligenza Artificiale che fa parte del JournalismAI, ne individua 4:

    1. Sicurezza dei dati. Uno dei rischi maggiori di un uso incontrollato dell’Intelligenza Artificiale sul posto di lavoro è senza dubbio la sicurezza dei dati. Utilizzare modelli creati ad hoc e magari anche efficienti, ma che non aderiscono agli standard di sicurezza aziendali, può portare a un uso superficiale ed esporre così informazioni sensibili a cyber attacchi. Per dati si intendono non solo quelli legati all’azienda, ma anche a quelli dei clienti. E questo porta inevitabilmente a gravi ripercussioni finanziarie e di immagine.
    2. Rischi legali. La conformità alle normative sulla privacy e sulla protezione dei dati, primo fra tutti il GDPR in Europa, è un altro punto da tenere bene a mente quando si parla di shadow AI. Quando si agisce in modo superficiale e senza supervisione, in contesti aziendali, è facile trascurare requisiti legali complessi ed esporre l’impresa (e se stessi) a cause legali – oltre che a danni di immagine. E questo porta a sua volta a cause finanziarie e alla perdita di fiducia sia di clienti che di partner commerciali. La shadow AI in ufficio va affrontata con consapevolezza ma anche flessibilità.
    3. Incoerenza dei dati. Qui entriamo in un argomento a cui spesso non si pensa quando si agisce da soli, cioè senza coordinarsi con altri dipartimenti aziendali: la frammentazione e l’incoerenza dei dati all’interno della società stessa. E questo può portare a decisioni basate su dati incompleti o inaccurati. Ma c’è di più. La diffusione della shadow AI può, a lungo termine, erodere la cultura aziendale e minare la fiducia e la collaborazione tra colleghe e colleghi. Anzi, se si porta lo sguardo ancora più in là, potrebbe insinuarsi la mentalità del “possiamo fare tutto ciò che vogliamo” perché la governance non fa sentire la sua presenza.
    4. Etica e trasparenza. E infine, l’etica. La questione dei bias dell’Intelligenza Artificiale generativa è cruciale e, senza supervisione, c’è il rischio che si impieghino algoritmi che diffondono discriminazioni e pregiudizi. L’etica deve ormai costituire la base di qualsiasi uso dell’Intelligenza Artificiale generativa, personale e professionale.

    Formazione come arma di difesa

    Quello che viene da chiedersi dunque è: come fare a difendersi da tali rischi e prevenire che fenomeni come la Shadow AI dilaghino in azienda? La soluzione è una: la formazione dei dipendenti.

    Le aziende possono investire in programmi di formazione che promuovano un ambiente lavorativo in cui la tecnologia venga utilizzata in modo etico, sicuro e conforme alle normative come l’AI Act.  Come anticipato all’inizio di questo articolo, l’Intelligenza Artificiale è una tecnologia vantaggiosa che, se usata con criterio, porta grandi benefici alle aziende. Dare ai propri dipendenti un vademecum su come utilizzare l’Intelligenza Artificiale, organizzare dei workshop o dei corsi di formazione, istituire dei protocolli di sicurezza, revisione e approvazione, può essere utile per proteggere lavoratori e azienda dai rischi sopra citati.

    adozione dell'AI intelligenza artificiale (AI) rischi aziendali shadow AI
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Slackbot: il “teammate digitale” per le aziende

    01/04/2026

    L’UE prepara il passaggio alla sicurezza post-quantistica: cosa cambia per le imprese

    01/04/2026

    Agenti AI e nuove regolamentazioni: il quadro normativo italiano ed europeo 2026 per le imprese

    01/04/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Nuova Transizione 5.0: cosa cambia?
    Il futuro del lavoro passa dai Personal Systems: l’innovazione HP tra AI e sicurezza
    AI in locale: la workstation secondo Syspack tra potenza e flessibilità
    Tra promesse e realtà: vita (vera) da System Integrator
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    Defence Tech

    SentinelOne Annual Threat Report: una guida per difendersi dall’industrializzazione delle violazioni informatiche moderne

    01/04/2026

    TA416, attore allineato alla Cina, riprende le attività di spionaggio contro i governi europei ed estende il suo raggio d’azione al Medio Oriente

    01/04/2026

    Brand Guardian aiuta le aziende a contrastare le frodi automatizzate

    01/04/2026

    NetApp e Commvault insieme per la cyber resilience di nuova generazione

    31/03/2026
    Report

    Cloud e outsourcing sono la chiave per la crescita delle PMI italiane

    17/03/2026

    Osservatorio Statistico 2025 di TeamSystem: 19 miliardi di email inviate (+12% rispetto al 2024), ma senza strategia l’efficacia diminuisce

    16/03/2026

    HR: l’applicazione concreta dell’AI rimane ancora limitata

    13/03/2026

    Report Cisco Splunk: i CISO e il ruolo centrale della IA Agentica nella resilienza aziendale

    09/03/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.