Foto Unsplash

Social

Lo shadowban di Meta (e altri) alla guerra in Israele

Filippo Lubrano

A differenza di quello che fanno i regimi, i principali social riducono i post che trattano della guerra ad Hamas per fini commerciali: engagement su temi positivi aiuta l’effetto benefico su acquisti e inserzionisti pubblicitari

Sembra qualcosa più di un sospetto, l’applicazione da parte di Meta del cosiddetto “shadowban”, ovvero la forte riduzione esercitata dagli algoritmi dei principali social (Instagram e Facebook in primis) della capacità di raggiungere le persone nel caso di utenti che parlano di guerra. Diverse persone hanno denunciato di aver visto le visualizzazioni delle proprie storie diminuire dopo essersi espresse su Gaza, e anche influencer e professionisti hanno recentemente segnalato varie forme di applicazione o censura disomogenea. Tra questi ultimi compare anche la giornalista vincitrice del premio Pulitzer del New York Times Azmat Khan, che ha affermato che il suo account Instagram da 7 mila follower “è stato oscurato” dopo aver pubblicato una storia sulla guerra a Gaza. Ma c’è anche a chi è andata peggio: il giornalista Ahmed Shihab-Eldin ha dichiarato che il suo account Instagram – che aveva più di 100 mila follower e pubblicava spesso post sulla Palestina – è stato permanentemente chiuso, con poche spiegazioni da parte della piattaforma. A denunciare pubblicamente il fenomeno sono solo persone che hanno condiviso informazioni sulla Palestina, nessuno lo ha fatto parlando di Israele ­– il che da solo non costituisce una prova schiacciante, ma ribadisce il forte sospetto, che sia un fenomeno limitato agli account pro-pal.

Meta non ha mai usato ufficialmente la parola shadowban nelle sue dichiarazioni, e ha affermato anzi che “non è mai nostra intenzione sopprimere una particolare comunità o punto di vista”, ma che a causa del “maggiore volume di contenuti segnalati” riguardanti il conflitto in corso, “i contenuti che non violano le nostre politiche potrebbero essere rimossi per errore”. L’azienda ha attribuito alcuni di questi errori a problemi nel suo sistema di moderazione algoritmica che riduceva la portata dei post secondo loro “in maniera eguale in tutto il mondo”, indipendentemente dall’argomento. Meta diede spiegazioni simili anche nel maggio 2021, in una delle escalation in Palestina durante la quale gli utenti di Facebook e Instagram che pubblicavano post pro-pal hanno segnalato fenomeni simili. Questi incidenti hanno portato a una petizione firmata da più di 200 dipendenti di Meta che chiesero all’azienda di affrontare tali lacune. Una successiva analisi indipendente commissionata da Meta rilevò poi che i social network avevano violato i diritti umani dei palestinesi censurando i contenuti relativi agli attacchi israeliani a Gaza.

Ma la pratica shadowban è diversa per modi e finalità dalla censura dei paesi autoritari, perché mossa da ragioni di profitto ancor prima che politiche: a Meta e sorelle interessa in primis mostrare e fare engagement su temi positivi, che aumentano l’effetto benefico su acquisti e inserzionisti (con buona pace di chi vorrebbe fare informazione solo tramite social network). La censura politica è altra cosa, e guidata direttamente dai regimi: poco prima dello scoppio della pandemia era diventato virale il video di una teenager statunitense che era riuscita ad aggirare i severi filtri di TikTok facendo passare il proprio messaggio sul genocidio della minoranza musulmana uigura in Cina embeddandolo in un finto tutorial di make-up. In Cina le tecniche per evitare la censura online assumono caratteri totalmente diversi, spesso con uno slittamento della scrittura degli ideogrammi verso altri la cui pronuncia suona in maniera simile: il tutto, per superare l’ostacolo del Great Firewall, la grande muraglia digitale cinese, alimentata anche dall’”esercito dei 50 cents”, i moderatori dei social cinesi pagati 50 centesimi di yuan, appunto, a commento rimosso o moderato.

Anche i social occidentali fanno spesso ricorso alla manodopera umana per complementare il lavoro ottuso delle IA, alimentando una serie di “turchi meccanici” - dal nome dell’automa creato nel ‘700 dall’ungherese Wolfgang von Kempelen che, teoricamente, avrebbe dovuto simulare un giocatore di scacchi, mentre al suo interno nascondeva in realtà un giocatore umano. Tant’è che si parla ormai di “intelligenze artificiali artificiali”, per spiegare questa apparente inversione di ruoli tra umani e macchine.

La risposta più diffusa ed efficace di “resistenza digitale”, come la definisce Diletta Huyskes, ricercatrice nel campo dell’etica delle tecnologie e dell’intelligenza artificiale, è l’algospeak, ovvero una lingua autocensurata in cui si crittografano le parole-chiave su cui si sospetta vengano applicati i filtri degli algoritmi. Si sostituiscono quindi numeri a lettere (P4l3st1n4, G4z4), oppure si utilizzano le chiocciole (P@lest1n@, G@z@), o ancora le emoji.

“Ho iniziato a usare l’algospeak quando il mio account è entrato in shadowban per un meme che avevo fatto su Meloni e sul digiuno di Cospito, dove avevo riportato il modo di dire popolare o mangi sta minestra o salti dalla finestra” racconta al Foglio Giulio Armeni, animatore del seguitissimo Filosofia Coatta su Instagram. “All’epoca mi saltarono parecchie collaborazioni, e fui fortemente ridotto nel mio reach per mesi. Formalmente mi si accusò di “istigazione al suicidio”, a conferma del fatto che gli algoritmi su questo capiscono poco”.

Il punto focale qui, è che quando parliamo di algoritmi per i social siamo davanti a intelligenze artificiali di tipo “machine learning”, dove è la macchina da sola che apprende dalla grande quantità di dati in ingresso, prendendo dunque decisioni in maniera autonoma e senza avere delle “regole del gioco” date in pasto da un programmatore. Si presenta quindi il problema noto come quello della “black box”: non siamo solo noi a non capirci nulla, per quanto possiamo sobbarcarci l’impresa di leggere le sterminate sbobinature di termini e condizioni che si accettano automaticamente quando entriamo a far parte di un social network; ma nemmeno gli stessi programmatori hanno chiari tutti i passaggi. Esiste quindi sempre un certo grado di tolleranza e discrezionalità nell’applicazione delle regole. “La frustrazione più grande è proprio quella di non avere un interlocutore umano che possa comprendere la situazione”, continua Armeni, “e se è un problema di libertà di espressione per tutte e tutti, è ancora più assurdo per chi con l’algoritmo ci lavora”. Armeni ha trovato però una maniera creativa di riutilizzare il surplus di contenuti che il capitalismo della sorveglianza gli ha sottratto: ha creato uno spettacolo live, denominato “Fuga dall’algoritmo”, in cui porta in scena dal vivo tutti i meme che non potrebbe pubblicare sulle piattaforme. La resistenza digitale passa ancora – dove possibile - per l’analogico.