Mark Zuckerberg partecipa all' APEC CEO Summit (foto LaPresse)

“Media company” o grande censore: il bivio di Facebook sulle fake news

Eugenio Cau

Abbiamo un problema, ammette Mark Zuckerberg, ma come risolverlo?

Roma. Il primo passo verso la guarigione è accettare di avere un problema. Dopo quasi due settimane di smentite e dinieghi, durante le quali diceva che non era possibile nemmeno immaginare che le notizie false diffuse senza controllo su Facebook potessero aver influito sulle elezioni americane, né tanto meno far vincere l’odiato Donald Trump, Mark Zuckerberg ha finalmente ammesso: Menlo Park, abbiamo un problema. Aveva ragione fin dall’inizio, Zuck, quando diceva che non c’erano prove che Facebook avesse influenzato le elezioni a tal punto da decidere il risultato del voto, ma nascondeva la testa sotto la sabbia quando diceva che le notizie inventate erano “appena l’un per cento” del totale delle notizie che circolavano su Facebook. Poche altre polemiche dalla fondazione del social network hanno travolto così violentemente Facebook e il suo fondatore. Complice anche lo sdoganamento della dicitura “post truth”, Facebook si è trovato improvvisamente a essere il principale veicolo e ispiratore di un fenomeno malsano che ben presto ha trasceso la contesa elettorale. Se i populismi proliferano in tutto il mondo, se gli elettori non si informano più e quando si informano lo fanno male, se i media hanno perso copie e autorevolezza la colpa è del maledetto algoritmo.

 

 

L’esagerazione è evidente, così come è evidente il tentativo di scaricabarile da parte dei media tradizionali, ma l’accusa è a tal punto grave che Zuck non l’ha più potuta ignorare. Così sabato, in un lungo post, il fondatore di Facebook ha ammesso che “c’è ancora molto lavoro da fare” e ha delineato alcune possibili soluzioni, tra cui usare l’esperienza di società terze che si occupano della identificazione di bufale e fare affidamento sulle segnalazioni della comunità. Tutto giusto e promettente. Se non fosse che anche questa volta Zuck manca volontariamente il bersaglio. Per Facebook, le modalità tecniche secondo cui combattere le notizie false passano in secondo piano se non si affronta il problema della natura intima del social network, problema che la dirigenza di Menlo Park si è sempre rifiutata categoricamente di affrontare. Con un’influenza sui lettori pari forse a nessun altro mezzo giornalistico della storia, e con una percentuale eccezionale di utenti che dice che usa Facebook come fonte di news (per l’America è quasi il 50 per cento) Facebook è a tutti gli effetti quella che gli americani definiscono una “media company”, vale a dire una società editoriale con responsabilità e obblighi legali. Certo, Facebook è anche infinite altre cose, e certo, Facebook non produce contenuti propri, ma la definizione di media company, proposta già anni fa, sarebbe calzante per un segmento notevole del social network. Ma per la dirigenza di Facebook  – l’hanno ribadito tutti con forza, da Zuck a Sheryl Sandberg – la definizione di media company, e dunque la necessità di assumersi in qualche modo la responsabilità per ciò che accade e viene pubblicato sul social, è inaccettabile. Per due ragioni. La prima, più evidente, è che assumendosi la responsabilità della verità Facebook perderebbe un sacco di utenti. Impossibile quantificare, ma è facile immaginare che la pagine di odiatori, di cospirazionisti, di grillini infuriati cambierebbero lidi se Facebook iniziasse a cancellare le pagine di bufale, o anche se soltanto rendesse più difficile la loro promozione e monetizzazione, privando gli odiatori della loro fonte di rabbioso sostentamento.

La seconda ragione è che per un’organizzazione che gestisce una parte consistente delle vite di quasi due miliardi di persone, iniziare a gestire le informazioni come farebbe una media company, e dunque scegliere, censurare, cancellare è un peso che anche una persona dalla smisurata e globale ambizione come Mark Zuckerberg faticherebbe a portare sulle spalle. Ipoteticamente, trovare un modo per individuare le notizie false ed eventualmente eliminarle è alla portata di Facebook. I filtri contro la pornografia e la nudità funzionano che è una meraviglia (fin troppo se si ricorda che fu censurata perfino la foto della bambina che fuggiva dal napalm in Vietnam), l’eliminazione dei post di hate speech è relativamente efficiente. Ma le notizie false, al contrario della pornografia, presentano il problema che la gente ci crede. Chi lo spiega ai complottardi italiani, tanto per citare una specie particolarmente pervicace, che lo “scoop” che ha finalmente messo in luce con prove inconfutabili il complotto pluto giudaico di Renzi, di JP Morgan e dei Savi di Sion per distruggere il paese e che è stato diffuso dai coraggiosi giornalisti di una pagina mai sentita perché i media mainstream non lo dicono e che va condiviso assolutamente se sei indignato – che lo scoop, dicevamo, non è stato censurato dai poteri forti di Facebook, ma nascosto (o “flaggato”, o qualsiasi cosa possa inventarsi il social) in base alle nuove regole pro verità volute da Zuck? Si scatenerebbe il finimondo, e si tornerebbe al punto uno: Facebook perderebbe utenti.

Ma anche quando i grillini infuriati e i trumpisti veraci se ne fossero andati tutti il problema rimarrebbe. Zuck lo scrive nel suo comunicato: “Non vogliamo diventare noi stessi gli arbitri della verità”. E qui si capisce perché il dibattito è infinitamente più complesso di come lo pongono Zuck o i giornali, e la domanda diventa semplice: cosa fa più paura, la post verità e le notizie false che fanno vincere Trump o il grande social network che si erge a censore unico della verità?

  • Eugenio Cau
  • E’ nato a Bologna, si è laureato in Storia, fa parte della redazione del Foglio a Milano. Ha vissuto un periodo in Messico, dove ha deciso di fare il giornalista. E’ un ottimista tecnologico. Per il Foglio cura Silicio, una newsletter settimanale a tema tech, e il Foglio Innovazione, un inserto mensile in cui si parla di tecnologia e progresso. Ha una passione per la Cina e vorrebbe imparare il mandarino.