Sempre più persone usano l’intelligenza artificiale come ChatGPT per avere consigli in materia di sicurezza informatica, ma molte di loro, senza saperlo, rivelano dati e informazioni personali mentre lo fanno.
Dalla paura che i tostapane intelligenti si ribellino alle password sussurrate per evitare che hacker in ascolto possano rubarle, l’ultimo studio della società di cybersecurity NordVPN ha passato in rassegna le domande più comuni (e più ridicole) in materia di sicurezza informatica che le persone pongono all’intelligenza artificiale e ciò che inconsapevolmente rivelano.
Scopriamole insieme in questo articolo.
Buona lettura!
Eliminare virus e tostapane hackerati: cosa chiedono le persone a ChatGPT?
Circa 800 milioni di persone — ovvero quasi il 10% della popolazione mondiale — usa ChatGPT, e milioni lo consultano ogni giorno per ricevere consigli su come proteggere la propria privacy e mettere al sicuro la propria vita digitale. Le domande più frequenti rivelano le paure più profonde degli utenti rispetto al mondo online: truffe, violazioni di dati e come navigare in modo sicuro. Paradossalmente, però, molti finiscono per condividere inconsapevolmente informazioni personali proprio mentre cercano aiuto per proteggerle.
I ricercatori di NordVPN hanno analizzato le domande più frequenti e curiose rivolte dagli italiani a ChatGPT riguardo la sicurezza informatica, fornendo poi una sintesi dei risultati ottenuti.
“Mentre alcune domande sono assolutamente sensate, altre sono piuttosto esilaranti e bizzarre, ma tutte raccontano una realtà preoccupante: molte persone continuano a ignorare la sicurezza informatica. Questa lacuna le espone a truffe, furti di identità e attacchi di ingegneria sociale. Peggio ancora, gli utenti condividono inconsapevolmente dati personali mentre cercano aiuto”, afferma Marijus Briedis, CTO di NordVPN.
Le 5 domande più comuni (almeno finora) sulla sicurezza informatica nel 2025
Nel 2025, le principali preoccupazioni degli utenti in materia di sicurezza informatica si concentrano su tre aspetti fondamentali: la protezione dei dati personali, la sicurezza degli account online e la riservatezza delle comunicazioni private. Queste priorità si riflettono chiaramente nelle domande più frequenti poste a ChatGPT:
- “ChatGPT è sicura da usare? Posso utilizzarla senza mettere a rischio la privacy dei miei dati?”
- “Come riconosco un attacco di phishing o un deepfake generato dall’AI?”
- “Quali sono le minacce informatiche emergenti basate sull’AI nel 2025?”
- “Come posso proteggere i miei dispositivi IoT, a casa o al lavoro, dagli attacchi informatici?”
- “Che cos’è il ransomware-as-a-service (RaaS) e come posso proteggermi?”
Si tratta di preoccupazioni del tutto legittime, ma che spesso sfiorano solo la superficie del problema. Alcune domande — sorprendentemente strane o fuorvianti — rivelano un malinteso più profondo e diffuso su cosa significhi davvero proteggersi nel mondo digitale.
Le domande più sorprendenti che le persone pongono a ChatGPT sulla sicurezza informatica
Al di là delle preoccupazioni legittime sulla sicurezza online, ecco alcune delle domande più bizzarre e assurde poste dagli utenti a ChatGPT:
- “Gli hacker possono rubare i miei pensieri attraverso il mio smartphone?”
- “Se elimino un virus premendo il tasto Canc, il mio computer è al sicuro?”
- “Il mio tostapane intelligente può entrare in una botnet e attaccarmi?”
- “Se sussurro la mia password mentre la digito, gli hacker possono comunque sentirla?”
- “Posso essere hackerato se carico il telefono durante un temporale?
Queste domande possono far sorridere, ma evidenziano un problema più profondo: molti utenti hanno una comprensione profondamente errata di come funziona davvero la sicurezza digitale.
Il vero problema: gli utenti rivelano dati personali senza rendersene conto
“Sebbene alcune domande possano risultare divertenti, rivelano un problema più serio: molti utenti tendono a condividere informazioni personali senza essere pienamente consapevoli dei rischi che ciò comporta”, sostiene Marijus Briedis.
Ecco alcune delle informazioni personali che gli utenti tendono a rivelare più frequentemente:
- Nomi completi e recapiti. Gli utenti spesso includono i loro nomi completi, indirizzi email o numeri di telefono, soprattutto quando chiedono aiuto tramite email o per il recupero dell’account.
- Dati sulla posizione. Spesso le persone condividono la propria città, l’indirizzo o le coordinate GPS quando cercano consigli su una località specifica o hanno bisogno di assistenza tecnica.
- Profili sui social media. Gli utenti potrebbero incollare i link ai propri profili o i nomi utente quando cercano consigli sulla sicurezza dell’account.
- Dati finanziari. Alcuni utenti forniscono dettagli sensibili come numeri di conto bancario, informazioni sulla carta di credito o screenshot dei pagamenti quando chiedono aiuto per i pagamenti online.
- Credenziali di accesso. Gli utenti a volte rivelano nomi utente, password o persino codici di autenticazione a due fattori quando chiedono aiuto per accedere al proprio account.
Questa condivisione involontaria di informazioni è un promemoria del fatto che, anche quando si cercano consigli sulla sicurezza informatica, gli utenti devono prestare attenzione alle informazioni personali che forniscono. In fondo, proteggere la propria privacy inizia con la consapevolezza di ciò che si condivide. Per maggiore sicurezza, gli utenti di ChatGPT possono disabilitare l’utilizzo dei dati per l’addestramento andando su Controlli dati, disattivando l’opzione Migliora il modello per tutti o cliccando su Chat temporanea in alto a destra.
“Perché è importante? Perché quella che può sembrare una domanda innocua può trasformarsi rapidamente in una minaccia reale”, afferma Marijus Briedis. “I truffatori possono sfruttare le informazioni condivise dagli utenti, che si tratti di indirizzi email, credenziali di accesso o dettagli di pagamento, per lanciare attacchi di phishing, dirottare account o commettere frodi finanziarie. Una semplice chat può compromettere l’intera identità digitale”.