La nuova fronteria dell’Intelligenza Artificale è diventata anche la nuova frontiera degli hacker e di abilissimi truffatori della Rete. E-mail perfette per il phishing (confezionate con l’AI) ma anche la voce (clonata) di un nipote, di un figlio, di un parente usata per truffare soprattutto gli anziani ed estorcere loro grosse somme di denaro.
Il fenomeno in costante e preoccupante aumento di chiama deepfake della voce. I deepfake sono audio, ma anche foto e video, creati grazie a software di Intelligenza Artificiale che, partendo da contenuti reali (immagini e audio), riescono a imitare in tutto e per tutto una determinata voce oltre che modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo.
Se ne stanno occupando da molte settimane i media di diversi Paesi, tra cui il Canada e la Svezia, dove parecchie persone sono state raggirate al telefono da voci identitiche a quelle di nipoti e figli che chiedevano con urgenza, come le cronache hanno riportato in più di un’occasione, ingenti somme, perfino tremila euro, per uscire di prigione, per pagare una multa, per un acquisto inderogabile o per altre urgenze. E così i famigliari premurosi hanno sganciato il denaro, per poi rendersi conto che si trattava di una voce finta, prodotta dall’Intelligenza Artificiale per imitare in tutto e per tutto quella dei parenti più stretti.
C’è stata una nuova ondata di deepfake vocali. Ne ha scritto anche il Washington Post che ha messo in guardia i lettori da questa recrudescenza di truffe ad altissimo contenuto tecnologico. Nel 2022 sono state ben 36mila le segnalazioni di tentativi di truffe o truffe andata a segno. Lo ha reso noto la Federal Trade Commission americana e ne ha scritto il Washington Post, mettendo in guardia il pubblico da questa nuova ondata di deep fake, usata per raggirare le persone più disparate. Fingere che qualche membro della famiglia abbia un problema funziona bene.
Ci avverte Paolo Anastasio, giornalista e content manager di Key4biz, che “le cose stanno peggiorando, considerando che le voci clonate dall’Intelligenza Artificiale fanno esattamente quello che fanno i truffatori veri: imitano la voce di qualcuno di cui ti fidi. Un bambino, un parente, un amico. Le voci contraffatte, tra l’altro, non devono nemmeno essere prese dall’originale in modo volontario. Basta un video caricato su Youtube, un podcast o un frammento di video su TikTok, Instagram o Facebook per creare una voce falsa ma identica all’originale”.
Come difenderci? Il consiglio è di farsi venire qualche dubbio quando qualche parente chiede con urgenza dei soldi. Nel caso chiamarlo subito per verificare che sia davvero lui a domandarteli.
Le e-mail malevoli. L’Intelligenza Artificiale generativa è diventata anche uno strumento al servizio del phishing, ovvero un attacco informatico con una e-mail scritta per spingere la vittima a cadere in una trappola. Spesso l’intento è portare gli utenti a rivelare informazioni bancarie, credenziali di accesso o altri dati sensibili.
Anche in questo caso le cronache ci avvertono che gli autori di email truffa sfruttano i modelli Generative Pre-trained Transformer (Gpt) per ottenere vantaggi di velocità e automazione, e per abbassare la soglia tecnica di accesso. In parole povere, l’Intelligenza Artificiale ha reso il phishing più semplice da confezionare ma senza comprometterne l’efficacia.
Cynet, società di sicurezza informatica israeliana, ha riscontrato che attualmente la percentuale di vittime di e-mail di phishing scritte con l’Intelligenza Artificiale è cinque volte superiore rispetto alla norma. Verosimilmente, secondo Cynet i modelli linguistici di grandi dimensioni come ChatGPT-4 (la versione più evoluta del software di OpenAI) stanno aiutando i criminali informatici a creare attacchi più sofisticati ed efficaci, con e-mail linguisticamente accurate e dunque molto convincenti.
La sofisticazione risiede nella precisione linguistica, ma anche nell’integrazione di codice. In passato gli attacchi di phishing complessi venivano creati da sviluppatori, da persone con competenze tecniche elevate, e condotti materialmente da altri attori malevoli, gli ideatori della truffa. Adesso invece, grazie all’IA generativa, l’ideatore della truffa può anche materialmente confezionare e scagliare l’attacco. Cynet sottolinea che con i modelli linguistici generativi si possono creare attacchi molto sofisticati e su larga scala in modo relativamente facile.