• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Intelligenza Artificiale nella PA: le Linee guida AgID per sviluppo e procurement dei sistemi IA
    • Cybersecurity: serve il Super-analista
    • Data center: l’Italia diventa hub strategico del Mediterraneo
    • HR: l’applicazione concreta dell’AI rimane ancora limitata
    • Deepfake al telefono: come individuarli e non caderne vittima?
    • Archiva Group conferma il suo impegno nella protezione e tutela dei dati
    • Batterie: come prepararsi al nuovo Regolamento UE
    • Acquisti: digitalizzarli per pmi più competitive
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»Deepfake al telefono: come individuarli e non caderne vittima?

    Deepfake al telefono: come individuarli e non caderne vittima?

    By Redazione LineaEDP13/03/2026Updated:13/03/20265 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Sabrina Curti, Marketing Director di ESET Italia, analizza  come funzionano questi attacchi, quali sono i segnali utili che possono aiutare a individuare una voce sintetica e quali le misure da valutare per difendersi

    Sabrina Curti-ESET-sicurezza-competenze-password-deepfake
    Sabrina Curti, Marketing Director di ESET Italia

    Possiamo ancora fidarci di ciò che sentiamo? Sempre più spesso la risposta è negativa. L’AI generativa (GenAI) ha reso accessibile a chiunque la creazione di deepfake audio e video: oggi bastano pochi passaggi per produrre una clip artefatta. Una dinamica che espone a rischi concreti anche le aziende.

    I deepfake vengono utilizzati per aggirare controlli “Know Your Customer” e meccanismi di autenticazione degli account. Possono persino consentire ad attori con intenzioni ostili di spacciarsi per candidati a un’offerta di lavoro. Il pericolo più rilevante riguarda però le frodi finanziarie, in particolare i bonifici fraudolenti e la compromissione degli account del Top Management di un’azienda. Sottovalutare la minaccia dei deepfake può avere conseguenze serie. Secondo il governo britannico, lo scorso anno sarebbero stati condivisi fino a otto milioni di contenuti fake, rispetto ai 500.000 del 2023. Il numero reale potrebbe essere ancora più elevato.

    Come funzionano gli attacchi

    Un esperimento condotto da Jake Moore, Global Security Advisor di ESET, dimostra quanto sia semplice lanciare un attacco audio deepfake contro un’organizzazione. È sufficiente un breve campione vocale della persona da impersonare e alla generazione del resto provvede la GenAI. Un possibile schema di attacco può svilupparsi così:

    1. L’attaccante sceglie chi impersonare: un CEO, un CFO o magari un fornitore.

    2. Reperisce online un campione audio. Per i manager che intervengono in pubblico è relativamente semplice: social media, interviste TV o video pubblici. Bastano pochi secondi.

    3. Individua la persona da contattare, spesso dopo una ricerca su LinkedIn per identificare membri dell’helpdesk IT o del team finance.

    4. Può contattare direttamente il bersaglio oppure anticipare la richiesta via email: ad esempio un CEO che sollecita un bonifico urgente, una richiesta di reset password/MFA o un fornitore che chiede il pagamento di una fattura scaduta.

    5. Effettua la chiamata utilizzando una voce deepfake generata con GenAI per impersonare il CEO o il fornitore. A seconda dello strumento, può limitarsi a frasi predefinite oppure usare sistemi più avanzati “speech-to-speech”, che trasformano quasi in tempo reale la voce dell’attaccante in quella della vittima.

    Quando l’udito inganna

    Questi attacchi stanno diventando sempre più economici, accessibili e convincenti. Alcuni strumenti riescono ad aggiungere rumori di fondo, pause e incertezze per rendere la voce più credibile. Migliora anche la capacità di imitare ritmo, inflessione e tic linguistici di ciascun individuo. In una conversazione telefonica, eventuali anomalie legate all’AI risultano meno evidenti.

    Gli hacker ricorrono inoltre a tecniche di social engineering, creando un senso di urgenza per spingere l’interlocutore ad agire rapidamente. Un’altra leva frequente è la richiesta di riservatezza. Se a questo si aggiunge l’autorità percepita di un dirigente senior, si comprende come le vittime possano cadere in inganno.

    Esistono comunque segnali che possono aiutare a individuare una voce sintetica, soprattutto se la tecnologia impiegata non è particolarmente sofisticata:

    · ritmo del parlato innaturale

    · tono emotivo eccessivamente piatto

    · respirazione irregolare o frasi pronunciate senza pause

    · timbro vagamente robotico (con strumenti meno evoluti)

    · rumore di fondo assente in modo sospetto o troppo uniforme

    Come difendersi dai deepfake

    Il motivo per cui i criminali investono tempo in queste frodi è evidente: il potenziale guadagno. I casi concreti si moltiplicano. Uno dei più noti risale al 2020, quando un dipendente di un’azienda negli Emirati Arabi Uniti trasferì 35 milioni di dollari dopo aver creduto alla telefonata del proprio direttore, apparentemente impegnato in un’operazione di M&A.

    Considerando i progressi compiuti dalla tecnologia deepfake negli ultimi anni, conviene adottare misure mirate per ridurre il rischio.

    Il punto di partenza è la formazione del personale. I programmi di awareness dovrebbero includere simulazioni di audio deepfake, così che i dipendenti comprendano cosa aspettarsi, quali siano le conseguenze e come comportarsi. È utile insegnare a riconoscere le dinamiche tipiche del social engineering e scenari come quelli descritti. Esercitazioni pratiche possono poi verificare l’effettiva assimilazione delle procedure.

    Segue l’aspetto organizzativo. Tra le misure da valutare:

    · verifica fuori banda delle richieste ricevute telefonicamente, ad esempio tramite canali di messaggistica aziendali indipendenti

    · doppia autorizzazione per bonifici di importo elevato o modifiche ai dati bancari dei fornitori

    · passphrase o quesiti predefiniti da impiegare nelle chiamate come meccanismo di verifica dell’identità.

    Anche la tecnologia offre supporto. Esistono strumenti in grado di analizzare diversi parametri per rilevare la presenza di una voce sintetica. Un’opzione più complessa da attuare consiste nel ridurre la disponibilità pubblica di campioni audio, limitando le occasioni in cui i dirigenti espongono la propria voce online.

    Persone, processi e tecnologia

    I deepfake restano facili ed economici da produrre. Considerando le somme potenzialmente in gioco, le truffe basate sulla clonazione vocale continueranno a rappresentare una minaccia concreta. L’approccio più efficace per contrastarle si basa su tre pilastri: persone, processi e tecnologia.

    Una volta definito un piano, occorre rivederlo periodicamente per mantenerlo adeguato all’evoluzione dell’AI. Il nuovo scenario delle frodi informatiche richiede attenzione costante e capacità di adattamento.

    A cura di Sabrina Curti, Marketing Director di ESET Italia

     

    Eset
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Cybersecurity: serve il Super-analista

    13/03/2026

    Worldstream e Cubbit lanciano il cloud storage S3 indipendente e sovrano per le imprese olandesi

    12/03/2026

    Clusit, cyber attacchi + 49% nel 2025 rispetto al 2024

    11/03/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Defence Tech

    Cybersecurity: serve il Super-analista

    13/03/2026

    Deepfake al telefono: come individuarli e non caderne vittima?

    13/03/2026

    Clusit, cyber attacchi + 49% nel 2025 rispetto al 2024

    11/03/2026

    Attacchi alla supply chain: la minaccia informatica più comune per le aziende nell’ultimo anno

    11/03/2026
    Report

    HR: l’applicazione concreta dell’AI rimane ancora limitata

    13/03/2026

    Report Cisco Splunk: i CISO e il ruolo centrale della IA Agentica nella resilienza aziendale

    09/03/2026

    AI, c’è il problema dei dati. Solo il 7% delle aziende sono pronte, secondo un report di Cloudera e Harvard Business Review Analytic Services

    09/03/2026

    Cloud storage e infrastrutture dati: il 59% delle aziende europee aumenterà la spesa in infrastruttura a supporto dell’IA

    04/03/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.