L’Intelligenza Artificiale (AI) è entrata nelle aziende e nelle case degli utenti, apportando enormi cambiamenti alle loro esperienze digitali. Di certo non mancano i lati positivi ma, purtroppo, anche quelli negativi si fanno sentire prepotentemente, soprattutto se parliamo di sicurezza informatica. Il mondo della cybersecurity sta attraversando una trasformazione profonda. Le minacce digitali sono sempre più pervasive, sofisticate e rapide nell’evolversi, alimentate da tecnologie emergenti come l’intelligenza artificiale generativa.
Il panorama odierno delle minacce digitali
In questo scenario in costante mutamento, Microsoft ha recentemente pubblicato i risultati del suo ultimo report Cyber Signals, che fornisce un’analisi approfondita delle evoluzioni più recenti nel panorama delle minacce digitali. Il report evidenzia come la sicurezza informatica abbia subito cambiamenti radicali: l’intelligenza artificiale, da strumento di innovazione, è ormai divenuta una risorsa cruciale anche per i criminali informatici. Le truffe digitali sono sempre più sofisticate grazie all’impiego dell’AI generativa. Tra aprile 2024 e aprile 2025, Microsoft ha bloccato tentativi di frode per un valore superiore ai 4 miliardi di dollari. Nello stesso periodo, sono state respinte oltre 49.000 richieste fraudolente di affiliazione a programmi di partnership, mentre sono stati neutralizzati in media 1,6 milioni di tentativi di registrazione automatica da parte di bot ogni ora. I criminali sfruttano tecniche di ingegneria sociale alimentate dall’AI per creare identità digitali e contenuti sempre più convincenti, dando vita a siti di e-commerce falsi con recensioni manipolate, chatbot ingannevoli e campagne di phishing mirate.
Questa escalation di minacce si inserisce in un quadro globale sempre più complesso, come evidenziato dal Microsoft Digital Defense Report 2024 (MDDR). Gli attacchi condotti da stati-nazione sono aumentati del 53%, con infrastrutture critiche e settori sensibili nel mirino. Anche le operazioni ransomware hanno raggiunto nuovi livelli di sofisticazione, grazie a tecniche di estorsione multipla e strumenti avanzati. L’intelligenza artificiale generativa amplifica ulteriormente il rischio, utilizzata dai criminali per migliorare phishing, automatizzare codice malevolo e creare deepfake.
Le superfici di attacco si estendono
Inoltre, secondo il MDDR 2024, Microsoft blocca 7.000 attacchi alle password al secondo rispetto ai 4.000 al secondo registrati nel 2023 – tra cui attacchi di password spraying, brute force, e replay di credenziali compromesse. Microsoft monitora attivamente oltre 1.500 gruppi di threat actor, un aumento significativo rispetto ai 300 osservati nel 2023. Questi numeri riflettono un panorama di minacce digitali caratterizzato da velocità, scala e sofisticazione senza precedenti.
Inoltre, oltre il 70% delle campagne di phishing sfrutta tecniche di ingegneria sociale avanzate, rendendo indispensabili strategie di difesa proattive basate sull’AI.
A questa pressione esterna dell’evoluzione delle minacce digitali, si aggiunge un cambiamento interno nelle organizzazioni. Secondo il Microsoft Work Trend Index 2024, il 78% dei lavoratori utilizza regolarmente strumenti di AI per automatizzare attività, spesso senza supervisione IT. Questo fenomeno, noto come shadow AI, aumenta la superficie d’attacco e pone le aziende davanti alla sfida di proteggersi senza ostacolare l’innovazione.
La sicurezza prima di tutto: proteggere l’innovazione con un approccio integrato
Nel novembre 2023, Microsoft ha lanciato la Secure Future Initiative (SFI), un progetto pluriennale volto a rafforzare la sicurezza dei suoi prodotti e servizi per affrontare le crescenti minacce digitali. Con il coinvolgimento di oltre 34.000 ingegneri dedicati, SFI rappresenta uno degli impegni più ambiziosi dell’azienda per garantire un ecosistema digitale resiliente e sicuro.
Nel corso dell’ultimo anno, Microsoft ha compiuto passi importanti su più fronti, dimostrando come la sicurezza sia diventata la priorità all’interno della cultura aziendale e delle operazioni quotidiane, con programmi di formazione per i dipendenti e nuovi meccanismi di governance come il Cybersecurity Governance Council. Sono stati migliorati strumenti chiave come Microsoft Entra ID, ridotta la superficie d’attacco eliminando milioni di tenant inattivi e centralizzati i log di sicurezza per il 99% delle risorse di rete. Inoltre, sono stati accelerati i tempi di mitigazione delle vulnerabilità critiche grazie alla collaborazione tra i team di ingegneria e il Microsoft Security Response Center.
L’iniziativa SFI si basa su tre principi fondamentali: integrare la sicurezza fin dalla progettazione, abilitare protezioni predefinite e migliorare continuamente il monitoraggio delle operazioni. Grazie a questi sforzi, Microsoft sta ridefinendo gli standard di sicurezza globale, offrendo soluzioni avanzate contro le minacce digitali che coprono identità, endpoint, dati, e-mail, applicazioni, hardware e cloud.
“Con la Secure Future Initiative, Microsoft sta dando una risposta concreta alle sfide sempre più complesse della sicurezza informatica. La nostra missione è integrare la protezione fin dalla progettazione dei nostri prodotti, garantendo soluzioni avanzate che coprono ogni livello dell’ecosistema digitale. La sicurezza non è più una scelta, è un imperativo strategico, e con SFI stiamo facendo un passo decisivo verso un futuro digitale sicuro e resiliente, supportato da una governance proattiva e tecnologie innovative”, ha dichiarato Tamara Zancan, Direttrice Cybersecurity, Compliance e Identity in Microsoft.
Microsoft Security Copilot e gli agenti specializzati
Per aiutare i team di sicurezza a rispondere con maggiore rapidità e precisione, Microsoft ha introdotto Security Copilot, una soluzione AI progettato per fornire insight strategici, suggerire azioni e automatizzare processi di rilevamento e risposta agli incidenti. Questo strumento rappresenta un cambio di paradigma nella gestione della sicurezza, consentendo ai professionisti di analizzare enormi quantità di dati in tempo reale e di identificare schemi di minacce digitali difficili da rilevare con metodi tradizionali.
A completare questa innovazione ci sono i nuovi Security Copilot Agents, agenti che automatizzano attività critiche come la gestione delle vulnerabilità e il monitoraggio delle infrastrutture, aiutando a ridurre la finestra di esposizione alle minacce digitali e aumentando la resilienza operativa. Integrati nelle piattaforme Microsoft Defender e Sentinel, combinano l’intelligenza del linguaggio naturale con capacità avanzate di automazione, offrendo supporto strategico per classificare gli incidenti e implementare policy di sicurezza mirate.
Una protezione dalle minacce digitali che va dal chip al cloud: dispositivi sicuri e governance dei dati
Nel contesto di una strategia di sicurezza che parte dall’hardware e si estende fino al cloud, Microsoft rafforza la protezione degli endpoint attraverso dispositivi progettati secondo i principi Zero Trust e dotati del processore di sicurezza Pluton, integrato nei nuovi Surface Copilot+ PC. Questa architettura consente aggiornamenti firmware sicuri direttamente da Microsoft, protezione contro attacchi firmware e autenticazione avanzata senza password. Le funzionalità di sicurezza avanzate di Windows 11 Pro, abilitate di default, offrono una base protetta per ogni utente, mentre strumenti come Microsoft Intune permettono una gestione centralizzata e conforme anche in ambienti ibridi.
A completare l’approccio end-to-end, Windows 365 consente di accedere a un PC nel cloud sicuro, sempre aggiornato e gestibile da qualsiasi dispositivo. La centralizzazione dei dati, la protezione integrata e la semplicità di gestione fanno di Windows 365 una soluzione chiave per il lavoro distribuito, riducendo la superficie d’attacco e semplificando la protezione di utenti, app e dati dalle minacce digitali, ovunque si trovino.
A questa infrastruttura si affianca un nuovo paradigma di protezione pensato per l’intelligenza artificiale. Strumenti come Copilot Chat, Microsoft 365 Copilot e gli agenti sono costruiti su una piattaforma sicura e affidabile, all’interno del perimetro Microsoft 365, dove si applicano in modo nativo tutte le policy di sicurezza, privacy, conformità e governance. I dati vengono cifrati, isolati e protetti in ogni fase; le etichette di classificazione e le regole di data loss prevention restano attive anche durante l’elaborazione da parte dei tool di AI generativa come Copilot e agent. Le organizzazioni possono definire chi crea, utilizza e pubblica gli agenti, monitorarne l’attività e gestirne l’intero ciclo di vita in modo scalabile. L’approccio Secure by Design è fondamentale: anche le soluzioni AI più semplici includono modelli embedded, ed è quindi essenziale garantire controlli granulari, visibilità operativa e protezione contro minacce digitali emergenti come il prompt injection. Questo consente alle aziende di integrare l’AI in modo responsabile, senza compromessi su sicurezza e controllo.
Un aspetto sempre più cruciale in questo ecosistema è la sicurezza dei dati e delle informazioni. Microsoft Purview consente alle aziende di identificare, classificare e proteggere i dati sensibili anche in ambienti ibridi e multicloud. Con funzionalità avanzate di data loss prevention, Purview aiuta le organizzazioni a rispondere ai requisiti normativi, ridurre i rischi e mantenere il controllo sulle risorse informative, rafforzando così la postura di sicurezza complessiva.
Il parere dell’esperto
“Per analizzare il panorama relativo alle minacce digitali, è necessario cominciare dalle informazioni raccolte: quelle acquisite dai threat intelligence analyst di Microsoft nel corso delle loro ricerche – provenienti da milioni di fonti diverse, che raggiungono 84 trilioni di signals ogni giorno – ci permettono di identificare dei modelli di attività sospetta prima ancora che diventino incidenti. Questa è la base del nostro approccio actor-centric”, ha spiegato Sherrod DeGrippo, Director of Threat Intelligence Strategy di Microsoft. “L’AI è ancora in una fase iniziale, ma è solo una questione di tempo prima che gli attackers trovino il modo per sfruttarla su larga scala. Al momento, la stanno utilizzando in un modo analogo al nostro: come uno strumento di produttività per rendere i loro attacchi più efficaci. Ad esempio, migliorando la qualità delle e-mail di phishing, oppure creando deepfake per gli attacchi di social engineering. Sebbene non siano ancora emerse nuove tecniche d’attacco basate esclusivamente sull’AI, ci aspettiamo una crescente fase di sperimentazione da parte dei threat actors nel futuro”.