
(immagine realizzata con Grok)
Il Foglio AI
La truffa del finto Martin Wolf: perché i social hanno un problema a distinguere i volti
Un deepfake di Martin Wolf promuove una truffa su Instagram, ma il vero scandalo è l’inerzia delle piattaforme: algoritmi che ignorano il falso e monetizzano l’inganno, lasciando gli utenti esposti
Chi investirebbe dei soldi seguendo il consiglio di Martin Wolf, il serissimo editorialista del Financial Times? In molti, probabilmente. E se quella faccia calma, quegli occhiali intellettuali, quella voce autorevole comparissero in un video a dirti che “ci sono tre azioni che raddoppieranno in due mesi”, tu forse ci crederesti. Anche se il video arriva su Instagram, anche se ti invita a entrare in un gruppo WhatsApp “esclusivo”, anche se qualcosa stona, ma non capisci bene cosa.
Ecco il problema. Quel video, che gira da settimane sui social, è un falso. Un deepfake. Un video creato artificialmente usando l’immagine e (più o meno) la voce di Martin Wolf per promuovere una truffa d’investimento. E non è un caso isolato: è solo l’ultimo di una lunga serie. Prima Martin Lewis, poi Elon Musk, poi Taylor Swift, poi il Cfo della Arup, una multinazionale truffata per 25 milioni di dollari grazie a un clone digitale. Il copione è sempre lo stesso: rubare credibilità, generare fiducia sintetica, far pagare gli ingenui.
Ma il punto non è solo l’abilità dei truffatori. Il punto – ben più inquietante – è l’inazione delle piattaforme. Meta (Instagram e WhatsApp) ha fatto sapere al Financial Times che i video segnalati sono stati “rimossi”. Grazie. Ma nel frattempo? Quanti clic? Quanti messaggi inviati? Quanti soldi persi? Perché ci vuole così tanto per intervenire? Come può un’azienda che sa tutto del tuo comportamento – se ti piacciono più le storie di gatti o di fitness, quanto tempo passi a guardare i reels, se preferisci le cornici in stile barocco o minimal – non accorgersi che uno dei giornalisti economici più noti al mondo è stato trasformato in un robot vendi-azioni?
Martin Wolf stesso lo ha chiesto pubblicamente: “Come è possibile che Meta, con tutte le sue risorse e strumenti di intelligenza artificiale, non riesca a individuare automaticamente queste truffe, soprattutto dopo essere stata avvisata?”. E’ una domanda che fa tremare. Non per il tono, ma per la sua evidenza. Perché se non è negligenza, allora è tolleranza. E se è tolleranza, allora siamo tutti più vulnerabili di quanto pensiamo.
Certo, i portavoce si difendono: “Abbiamo rimosso i contenuti, rafforzato i controlli, usiamo il riconoscimento facciale…”. Ma sappiamo come funziona: basta un’ora perché un post diventi virale. Un falso ben confezionato fa il giro del mondo prima che un moderatore umano abbia finito il caffè. Intanto, gli algoritmi sorridono. Perché ogni clic, anche truffaldino, è un clic monetizzabile. La logica della piattaforma non distingue tra vero e falso. Distingue solo tra attivo e passivo.
Il problema non è la tecnologia dei truffatori. E’ la passività degli intermediari. Ed è qui che si apre la questione politica. In un mondo in cui le immagini possono essere generate artificialmente, le identità falsificate e le fiducie imitate, servirebbe una responsabilità sociale delle piattaforme pari almeno a quella di una televisione. Ma le regole sono ancora quelle del vecchio Internet: “Non siamo editori, siamo solo contenitori”.
E così il nuovo Far West digitale è pieno di saloon eleganti, ma senza sceriffi. L’Online Safety Act del Regno Unito comincia a porre dei paletti, ma siamo solo all’inizio. Le piattaforme dovrebbero investire miliardi – non milioni – in moderazione, verifica, filtri anti-deepfake. Dovrebbero rispondere non solo con scuse, ma con indennizzi. Perché quando un volto viene rubato, non si perde solo un’identità: si mina la fiducia collettiva nel reale.
Nel frattempo, il consiglio è uno solo: se un volto familiare su Instagram vi promette soldi facili, fate come suggerisce lo stesso Wolf: uscite dall’app, entrate in un browser, controllate chi siete. E ricordate che i truffatori oggi hanno la faccia dei buoni. E l’irresponsabilità ha il logo in blu.