La criminalità informatica basata sull’intelligenza artificiale ha superato il periodo di sperimentazione ed è entrata in una fase più stabile e professionale, che rispecchia l’evoluzione di altri mercati clandestini ormai maturi. Il dato emerge da “They Don’t Build the Gun, They Sell the Bullets. An Update on the State of Criminal AI”, l’ultimo studio di TrendAI business unit di Trend Micro e specislita globale nella sicurezza dell’intelligenza artificiale
La ricerca ha analizzato servizi clandestini, malware e campagne di attacco basati sull’intelligenza artificiale a fine 2025. I risultati mostrano che i cybercriminali non inseguono più la novità, ma perfezionano le tecniche, riducono i costi e migliorano l’affidabilità degli attacchi basati su frodi, malware e deepfake.
I precedenti studi di TrendAI avevano evidenziato l’utilizzo di chatbot jailbroken, truffe deepfake e attacchi isolati di tipo proof-of-concept. Gli ultimi risultati mostrano che queste idee si sono trasformate in servizi che possono essere noleggiati, riutilizzati e adottati su larga scala, anche senza competenze tecniche.
“Le previsioni per il futuro non sono apocalittiche, ma incrementali”, afferma Marco Fanuli, Technical Director di TrendAI™ Italia, una business unit di Trend Micro. “Non assisteremo a un’improvvisa esplosione di caos guidato dall’intelligenza artificiale, ma a un costante perfezionamento professionale degli strumenti che vediamo già oggi. Questo tipo di progresso silenzioso è il modo che rende gli ecosistemi criminali più difficili da distruggere.”
La ricerca identifica le tre fasi che definiscono lo scenario dell’intelligenza artificiale criminale. La prima fase è quella del consolidamento. Nuovi strumenti di intelligenza artificiale “non censurati” continuano ad apparire sui forum underground, ma la maggior parte scompare rapidamente. I servizi che persistono sono quelli che offrono jailbreak e la possibilità di violare le principali piattaforme di intelligenza artificiale tramite prompt, piuttosto che modelli realmente indipendenti. I criminali sfruttano la portata e gli investimenti dei provider commerciali di AI invece di creare dal nulla.
La seconda fase è la comparsa dei primi malware in grado di generare o modificare codice maligno tramite query AI integrate o remote. Questi campioni rimangono limitati da vincoli pratici, ma segnalano uno spostamento verso progetti di malware più adattivi che possono variare da un attacco all’altro.
La terza fase vede la rapida diffusione della tecnologia deepfake nell’utilizzo criminale quotidiano. Strumenti per la sostituzione di volti, la clonazione della voce e la manipolazione delle immagini sono ora ampiamente disponibili a un costo minimo o nullo. Questo permette nuove ondate di frodi, tra cui truffe di impersonificazione, infiltrazioni all’interno di aziende, rapimenti virtuali e la diffusione di immagini sintetiche non consensuali, con gravi implicazioni per individui, organizzazioni e la fiducia generale nell’identità digitale.
L’analisi di TrendAI mostra che le capacità di difesa attualmente rimangono in vantaggio, grazie al rilevamento basato sull’intelligenza artificiale, all’intelligence sulle minacce e agli strumenti di indagine automatizzata. Tuttavia, questo vantaggio si sta riducendo man mano che i criminali imparano a estrarre più valore dalle stesse tecnologie, spesso più velocemente di quanto possano essere applicate le contromisure.
Lo studio conclude che il rischio più grave non è un incredibile miglioramento delle capacità cybercriminali, ma la normalizzazione della criminalità basata sull’intelligenza artificiale. Man mano che queste tecniche diventeranno più economiche e facili da utilizzare, si diffonderanno in tutto l’ecosistema del crimine informatico e vi rimarranno.
“Le organizzazioni devono prepararsi agli attacchi basati sull’intelligenza artificiale come condizione di base, anziché come un’anomalia emergente”, conclude Marco Fanuli. “Le frodi basate sui deepfake, l’abuso di identità e i malware AI non sono più minacce marginali, ma criticità che devono essere incluse nella strategia di sicurezza, nei processi di verifica e nella pianificazione della risposta agli incidenti”.


