Deepfake e AI: come difenderti dalle nuove truffe digitali
Hai mai sentito parlare di deepfake? Si tratta di video o audio generati con l’intelligenza artificiale che stanno diventando sempre più realistici e convincenti.
Se usati per scopi leciti, i deepfake possono essere utili. Ma sempre più spesso vengono sfruttati per truffe sofisticate.
Con pochi secondi di audio o video, i truffatori possono creare un deepfake estremamente realistico per ingannare le vittime e ottenere pagamenti fraudolenti. Solo nel 2023, la Polizia Postale ha gestito 3.360 casi di falso trading online, molti dei quali sfruttavano questa tecnologia.
Le truffe basate sull’intelligenza artificiale stanno diventando sempre più sofisticate. Un esempio eclatante è la diffusione di video deepfake in cui personaggi noti come Elon Musk, Giorgia Meloni, Fabio Fazio e persino il Presidente della Repubblica Sergio Mattarella sembravano promuovere investimenti miracolosi per diventare milionari. In realtà, si trattava di contenuti generati dall’AI per attirare gli utenti in schemi fraudolenti.
Ma come funzionano queste nuove truffe digitali? E, soprattutto, come puoi difenderti dai deepfake? Vediamolo insieme.
Deepfake e voice cloning: la nuova frontiera del phishing
L’AI generativa ha reso incredibilmente semplice creare video e audio manipolati. Oggi, con appena tre secondi di registrazione vocale, un software può clonare una voce, replicando tono, accento e ritmo del respiro. L’algoritmo sfrutta questi dati per generare nuove frasi, fino a farle sembrare esattamente come se fossero pronunciate dalla persona originale.
Se questa tecnologia viene usata in modo lecito per il doppiaggio o per assistenza vocale, nelle mani sbagliate diventa uno strumento perfetto per truffe online.
Quante tipologie di truffe si possono fare con l’AI?
- Truffe romantiche.
I truffatori creano profili falsi sui social network o sulle app di incontri, utilizzando deepfake video e vocali per simulare persone reali. Una volta conquistata la fiducia della vittima, inventano storie strappalacrime: problemi di salute, viaggi bloccati, emergenze improvvise e chiedono denaro in prestito. Una truffa che sfrutta i sentimenti delle persone e che solo nel 2021 ha visto 4,5 milioni di euro sottratti alle vittime, come indicato dalla Polizia Postale. - Falsi dirigenti aziendali.
Grazie al voice cloning, i cybercriminali possono imitare la voce di un CEO, di un manager o di un superiore aziendale, contattando i dipendenti con richieste di bonifici urgenti o cambiamenti di coordinate bancarie. Questa truffa, nota come Business Email Compromise (BEC) o Whale Phishing, ha già causato perdite milionarie in aziende di tutto il mondo. Non tutti dunque sono le vittime designate per questo tipo di truffa, ma solo persone specifiche con accesso a dati sensibili. - Finti familiari in difficoltà.
Di come funziona il Family Emergency Scam ne abbiamo già parlato, ma ricorda che i truffatori possono anche utilizzare un deepfake vocale per riprodurre la voce di un figlio o un nipote e chiedere aiuto economico.
Cos’è successo al Ministro della Difesa Guido Crosetto?
Uno degli episodi più eclatanti che riguarda il deepfake ha coinvolto il Ministro della Difesa. La sua voce è stata clonata per contattare imprenditori con la scusa di un falso riscatto per giornalisti rapiti.
Questo episodio dimostra quanto sia difficile distinguere un deepfake da una voce reale. Nessuno – privati, aziende o istituzioni – può sentirsi al sicuro.

Come difendersi dalle truffe deepfake?
La tecnologia per rilevare deepfake video e vocali è ancora in sviluppo, ma ci sono strategie efficaci per proteggersi dalle truffe AI. Vediamole insieme:
- Verifica sempre l’identità di chi ti sta contattando.
Se ricevi una richiesta sospetta via video o audio, la regola n1 che devi tenere a mente è questa, richiama la persona su un numero salvato in rubrica, non su quello dal quale ti ha contattato. Chiedile se ti ha scritto o chiamato e in caso non sia così procedi immediatamente a segnalare questo tentativo di truffa alla Polizia Postale.
Se invece ricevi una chiamata sospetta dalla banca, con il servizio “È davvero ING?” potrai verificare con facilità se sia davvero un nostro operatore a contattarti. Trovi qui tutte le informazioni utili. - Fai domande personali.
Se il messaggio proviene da un presunto familiare, chiedi qualcosa che solo lui può sapere. - Evita di pubblicare audio e video personali.
I truffatori raccolgono campioni vocali dai social per creare deepfake credibili. Ti suggeriamo di selezionare con cura il materiale che decidi di pubblicare sui tuoi profili social. - Diffida dalle richieste urgenti.
Creare panico è una tattica classica delle truffe informatiche.
Truffe deepfake: prevenire è meglio che curare
Le truffe digitali con AI sono sempre più convincenti e difficili da smascherare. Essere informati e adottare le giuste precauzioni è il modo migliore per proteggere la propria identità online.
Tieni alta l’attenzione e segui sempre le buone pratiche di cybersicurezza.
Disclaimer
VoceArancio è un periodico registrato al Tribunale di Milano, n.315 del 20/05/2008. Proprietario ed editore: ING Bank N.V. Milan Branch - V.le F. Testi, 250. Direttore responsabile: Elisa Pavan.