Truffe 3.0: come Facebook è diventato il supermercato globale dei raggiri digitali
Gli ultimi report confermano che le piattaforme di Meta — Facebook, Instagram e WhatsApp — sono tra le più bersagliate dalle truffe online, soprattutto quelle indirizzate a utenti vulnerabili come gli anziani.
C’è un momento preciso in cui il social network più popolare del pianeta smette di essere un luogo di connessione e diventa un grande mercato dell’inganno. Succede quando, tra un video di gattini e la foto dei nipotini in vacanza, appare un annuncio “miracoloso”, una richiesta d’amicizia un po’ strana o un messaggio urgente che invita a “verificare subito il tuo account”. Da lì in poi, Facebook diventa una zona grigia in cui la fiducia è la moneta più preziosa e la disattenzione si paga cara.
Per questo motivo, Meta, la holding che riunisce sotto lo stesso tetto alcune delle piattaforme social più popolari al mondo, avrebbe rimosso circa 8 milioni di account fraudolenti su Facebook e Instagram, legati a reti globali di truffatori che sfruttano offerte di investimento false, pagine di assistenza clienti contraffatte e schemi di rimborso ingannevoli.
Inoltre, WhatsApp ha disattivato 6,8 milioni di account associati a centri di truffa, spesso operanti in paesi del Sud-Est asiatico come Cambogia, Laos e Myanmar. Questi account erano utilizzati per diffondere schemi di investimento fraudolenti, truffe su criptovalute e frodi legate a offerte di lavoro false.
Per contrastare queste attività, Meta ha introdotto nuove funzionalità di sicurezza su WhatsApp e Messenger, tra cui avvisi in tempo reale quando si tenta di condividere lo schermo con un contatto sconosciuto durante una videochiamata, e l’uso dell’intelligenza artificiale per identificare e segnalare messaggi sospetti.
Questi interventi sono parte di una campagna più ampia di Meta per sensibilizzare gli utenti, in particolare gli anziani, sui rischi delle truffe online e fornire strumenti per proteggersi.
Tuttavia, nonostante gli sforzi, le truffe continuano a proliferare, spesso sfruttando tecniche come i deepfake e la manipolazione psicologica per ingannare le vittime.
In questo ambito sono moltissimi i casi di truffe “pig-butchering”, in cui le vittime vengono convinte a investire ingenti somme di denaro in criptovalute false.
Negli ultimi mesi, una serie di ricerche – dai report di Kaspersky Securelist agli studi pubblicati su IJFMR (International Journal of Future Market Research) – hanno raccontato con chiarezza un fenomeno in crescita: Facebook non è più solo il posto dove condividere foto e opinioni, ma anche il terreno ideale per chi vive di truffe digitali. Le frodi si evolvono, si specializzano e si appoggiano all’intelligenza artificiale per sembrare sempre più vere.
Il vecchio phishing, quello delle email scritte male e dei link sgrammaticati, è ormai roba da museo. Oggi i truffatori parlano un italiano perfetto, localizzano le trappole in ogni lingua e usano link “blob”, come li chiamano i ricercatori di Securelist, che si aprono dentro il browser e imitano alla perfezione le pagine originali di banche, poste o dello stesso Facebook.
A volte fingono di essere il servizio clienti e chiedono di confermare un codice via SMS. Quel codice è l’autenticazione a due fattori del tuo profilo: lo comunichi, e il tuo account diventa il loro. È un phishing industriale, alimentato da strumenti automatici e da un mercato nero di dati personali che gira nel dark web.
Poi c’è la truffa più subdola e più “social” di tutte: la clonazione dei profili.
Ti arriva una richiesta d’amicizia da… te stesso. Foto, nome, città, tutto uguale. I truffatori ricreano la tua identità, contattano i tuoi amici e si presentano come “te”. È una trappola che funziona perché sfrutta la fiducia, ciò che tiene insieme amici e contatti.
Secondo uno studio pubblicato su IJFMR nel 2025, quasi il settanta per cento delle vittime di clonazione aveva impostazioni di privacy deboli e un’attività online molto visibile. A quel punto basta poco: un messaggio, una ricarica telefonica “per emergenza”, un link da aprire “subito”. E il portone si spalanca.
Ma le truffe più redditizie non arrivano più dai messaggi, bensì dagli annunci pubblicitari.
Sì, proprio quelli che scorrono tra un post e l’altro, colorati e accattivanti. Gli algoritmi pubblicitari di Meta, spiega uno studio dell’Università di Princeton, tendono a privilegiare le inserzioni che generano più interazione, anche quando sono ingannevoli. E così, in un mondo dove l’attenzione è tutto, vincono le menzogne più virali. Negli ultimi mesi, il Tech Transparency Project ha denunciato una valanga di annunci deepfake: video in cui personaggi famosi – da Elon Musk a Trump – invitano a investire in schemi finanziari che nascondo vere e proprie truffe. Le immagini sono generate con l’intelligenza artificiale, le voci ricreate digitalmente. Le persone cliccano, investono, perdono soldi. Meta, intanto, incassa comunque dalle visualizzazioni.
In questo panorama, la truffa che più racconta il presente si chiama pig-butchering, letteralmente “macellazione del maiale”. Il nome, già di per se inquitante, consiste nell’essere contattati da un truffatore che, fingendosi un potenziale partner, costruisce una relazione affettiva con la vittima.
Ci parla per settimane, la ascolta, la lusinga. Poi, quando la fiducia è matura, arriva la proposta: investire insieme in criptovalute o in una piattaforma di trading. A quel punto la vittima è già dentro, e i soldi se ne vanno.
In una ricerca del 2024 condotta da Bhupendra Acharya e Thorsten Holz, intitolata “An Explorative Study of Pig Butchering Scams”, e che ha raccolto oltre 2.000 testimonianze dirette di vittime di truffe online, si capisce la gravità del fenomeno.
Lo studio ha analizzato dati provenienti da più di 430.000 account sui social media, 3.200 segnalazioni pubbliche di abusi e circa 1.000 articoli che hanno riportato notizie di truffe.
In totale, sono stati documentati oltre 146 utenti truffati sui social media, 2.570 testimonianze di abusi e 50 casi di studio, con perdite finanziarie stimate superiori a 521 milioni di dollari. La ricerca evidenzia la crescente sofisticazione di queste truffe, spesso realizzate attraverso tecniche di ingegneria sociale e l’uso di deepfake per costruire fiducia con le vittime nel tempo.
È una truffa che usa l’amore come esca e la pazienza come arma.
Altre volte, l’esca è la solidarietà. “Dona ora per i bambini affamati”, “Aiutaci a salvare i cani abbandonati”: molte di queste campagne sono autentiche, ma un numero crescente è falso. Lo studio Pirates of Charity, ha identificato oltre dodicimila pagine Facebook dedicate a raccolte fondi fasulle. Rubano foto vere, inventano storie credibili e creano wallet di criptovalute per ricevere donazioni non tracciabili. È una truffa che gioca con i sentimenti migliori, quella che trasforma l’empatia in un business.
E mentre alcuni truffatori sfruttano la generosità, altri puntano sulla fragilità
Le truffe agli anziani stanno diventando sempre più sofisticate. Uno studio dell’Università della California, pubblicato nel 2025, racconta casi di telefonate e messaggi in cui la voce del “nipote” che chiede aiuto non è reale, ma generata dall’intelligenza artificiale. Bastano pochi secondi di audio presi da un video su Facebook per clonare la voce di un familiare. “Nonna, ho avuto un incidente, mi servono soldi subito”: è tutto finto, ma per chi ascolta è impossibile distinguerlo. È il volto più inquietante del deepfake, quello che entra nelle case e gioca con l’emozione più umana di tutte, la paura di perdere una persona amata.
Ci sono poi truffe che non rubano soldi, ma reputazione. È il caso dei falsi engagement, i “pacchetti” di like, follower e commenti che si comprano online. Gli studiosi dell’IJFMR hanno mostrato come questi sistemi vengano usati per gonfiare profili fasulli, farli apparire autorevoli e poi usarli per promuovere truffe o prodotti inesistenti. Un account con centomila follower, anche se il novantacinque per cento è finto, appare affidabile. E quando pubblica un annuncio, la gente ci crede. È l’economia dell’illusione.
In tutto questo, l’intelligenza artificiale è il nuovo complice. Genera testi perfetti, traduce automaticamente, costruisce conversazioni credibili con chatbot che sanno essere seducenti o rassicuranti a seconda dei casi. Secondo il Scam Intelligence Report di F-Secure, sette persone su dieci credono di saper riconoscere una truffa online, ma quasi un terzo ci è cascato comunque nell’ultimo anno. La convinzione di essere troppo furbi per farsi fregare è, oggi, la vulnerabilità più grande.
Facebook dichiara ogni anno di investire miliardi in sicurezza, ma i risultati non convincono. Un report dell’European Digital Media Observatory pubblicato nel 2025 parla apertamente di “fallimento sistemico nel controllo delle truffe digitali” da parte di Meta. La piattaforma, scrive il documento, “non riesce a limitare la diffusione di annunci fraudolenti né a proteggere gli utenti più vulnerabili”. Il problema è strutturale: l’algoritmo che dovrebbe difenderti è lo stesso che guadagna da ogni clic, anche da quelli truffaldini.
È vero che la tecnologia si fa sempre più sofisticata e i truffatori con lei, ma il meccanismo di fondo che fa funzionare i raggiri è sempre lo stesso da sempre: il punto vulm+nerabile sono i nostri sentimenti e i nostri desideri.
La paura, l’amore, la fiducia, la curiosità: basta toccare il punto giusto. Gli esperti di sicurezza lo chiamano “hacking umano”. Non serve violare un sistema, basta violare una persona.
Serve educazione digitale, serve parlarne, serve smontare i meccanismi del raggiro prima che ci caschino i nostri genitori o i nostri figli, o noi stessi. Ogni truffa raccontata qui è anche una storia di fiducia tradita, e ogni vittima avrebbe potuto evitarla se avesse saputo riconoscerne i segnali. È per questo che la battaglia contro le truffe non si vince nei server, ma nelle teste: con l’informazione, con la cultura, con la curiosità di capire prima di cliccare.