cerca

Violenza e cospirazioni online passano alla vita reale, e le piattaforme non hanno soluzioni

Il terrorista di Pittsburgh scriveva su Gab, un social network di nicchia ed estremista. Il confine tra libertà d’espressione e censura

Eugenio Cau

Email:

cau@ilfoglio.it

30 Ottobre 2018 alle 12:56

Violenza e cospirazioni online passano alla vita reale, e le piattaforme non hanno soluzioni

Gab.com, il social network su cui Robert Bowers ha annunciato l’attacco terroristico nella sinagoga di Pittsburgh

Roma. Ieri Gab.com, il social network su cui Robert Bowers ha annunciato l’attacco terroristico nella sinagoga di Pittsburgh e su cui pubblicava materiale razzista e antisemita, è stato tolto da internet, almeno momentaneamente. Nel corso del fine settimana, tutte le aziende che fornivano pubblicità e sistemi di pagamento a Gab hanno ritirato i loro servizi, e infine anche il provider che forniva lo spazio in rete ha dato un ultimatum al social network. Gab è un servizio a metà tra Twitter e Reddit, ed è stato fondato da un programmatore di destra, Andrew Torba, con l’intento esplicito di fornire un’alternativa ai prodotti mainstream della Silicon Valley in cui, diceva, il politicamente corretto è diventato un “cancro culturale”. Così, con l’intento di creare un ambiente libero dal politicamente corretto, Torba ha prodotto un social network quasi completamente privo di regole. Risultato: Gab si è trasformato in poco tempo in una ridotta di neonazisti, razzisti e antisemiti. Uno di questi, sabato scorso, è entrato nella sinagoga di Pittsburgh e ha ucciso undici persone inermi mentre attendevano ai servizi religiosi, il più grave attentato antisemita della storia d’America.

 

Ci sono molti posti come Gab in giro per internet, anche relativamente famosi, come per esempio il forum 4chan, e uno potrebbe pensare: il problema è in queste ridotte di estremisti, questi siti oscuri e reclusi dove fomenta l’odio lontano dagli occhi di tutti, per poi esplodere. L’altro caso di terrorismo di estrema destra di questi giorni, tuttavia, ci dimostra che non è così: Cesar Sayoc Jr, il presunto terrorista che ha inviato almeno dodici pacchi bomba ad altrettanti critici famosi del presidente americano Donald Trump, era molto attivo su social mainstream come Facebook e Twitter. Su Twitter, in particolare, un’utente aveva segnalato al social network il fatto che Sayoc le aveva fatto delle minacce di morte, ma Twitter, dopo aver controllato, le aveva risposto che le minacce di Sayoc non violavano il regolamento interno. Dopo che Sayoc si è rivelato un bombarolo, Twitter ha chiesto scusa, ma il punto è: la violenza razzista e antisemita e di estrema destra si è diffusa incontrollata su internet, tanto sulle piattaforme di nicchia quanto su quelle mainstream, spesso trasformando i social network in luoghi di esaltazione reciproca e di proselitismo. Questo non significa che i social network siano colpevoli in qualche modo: senza Gab e Twitter e Facebook, Bowers e Sayoc avrebbero presumibilmente agito lo stesso. Ma le comunità in cui le loro ideologie di violenza si sono formate sono comunità online, come dimostra per esempio il furgone di Sayoc, che era pieno di adesivi legati alla controcultura digitale dell’estrema destra americana.

 

Le piattaforme digitali si sono sempre vantate di difendere la libertà di espressione, e il loro ruolo raggiunse l’apoteosi durante le primavere arabe. Ma ben presto vari gruppi hanno cominciato ad abusare di questa libertà, e si è presentato un enorme dilemma: lasciarli fare o reagire? Nel primo caso, lasciare che gruppi estremi di vario tipo monopolizzassero il discorso significava scacciare gli utenti più moderati e, potenzialmente, gli sponsor e gli inserzionisti: è antieconomico ed eticamente ambiguo. Al tempo stesso, reagire significava per le piattaforme trasformarsi in un censore che discerne ciò che è giusto e ciò che è sbagliato, e mettere in campo risorse enormi per applicare questa censura: ugualmente antieconomico ed eticamente ambiguo.

 

L’unica circostanza in cui le piattaforme acconsentirono a una reazione dura fu quando le attività di propaganda, radicalizzazione e reclutamento online dello Stato islamico generarono, a partire dal 2014, un allarme sociale enorme. Allora, Twitter e gli altri cominciarono a eliminare profili e pagine a grappoli, grossolanamente, e nessuno si fece scrupoli sulla violazione della libertà d’espressione dei jihadisti, o supposti tali. Lo Stato islamico era un fenomeno così disumano e così prepolitico che nessuno ritenne fosse il caso di fare troppi distinguo.

 

Con l’estremismo di destra (si parla di quello di destra perché è di gran lunga il più attivo, ma vale anche per gli altri) tutto è più complesso, perché le istanze legittime si mischiano di continuo con il proselitismo e l’incitamento alla violenza. Per rendere l’idea, si pensi all’intervista lunare che Mark Zuckerberg, il ceo di Facebook, ha rilasciato questa estate, quando disse che per lui sarebbe stato perfettamente legittimo mantenere sulla sua piattaforma contenuti che sostenevano la negazione dell’Olocausto, fintantoché questa negazione fosse stata “non intenzionale”. In pratica, se sei un negazionista consapevole vieni censurato, se sei un negazionista ingenuo puoi pubblicare su Facebook. Zuckerberg, che è di origini ebraiche e non è certo accusabile di antisemitismo, in seguito si è scusato e corretto, ma la sua risposta rende bene l’idea del processo mentale di chi prende le decisioni nelle grandi piattaforme online, sempre sul crinale tra permissivismo, censura e timore per le possibili ricadute politiche di ogni azione.

 

Tolto il caso dello Stato islamico, che dopo qualche tentennamento iniziale è stato gestito con – giusta – risoluzione censoria, le piattaforme online hanno sempre evitato di affrontare un problema che sembra non avere soluzioni semplici, anche perché, finora, il dibattito era rimasto relativamente confinato tra politici e giornalisti. Adesso, però, pare che la violenza dei gruppi estremisti stia debordando nella vita reale. Nel 2016 un uomo sparò in una pizzeria a Washington perché credette a una teoria cospiratoria online che collegava Hillary Clinton a un network di pedofili. Nel 2017 le manifestazioni di estrema destra a Charlottesville, in cui morì una manifestante di sinistra, furono organizzate e coordinate sui forum estremisti online. I seguaci di una teoria del complotto chiamata QAanon sono una presenza costante ai discorsi di Trump, con magliette e cartelli. Se il trend dovesse proseguire, per le piattaforme online diventerebbe sempre più difficile attenersi alla loro politica di relativa neutralità.

Eugenio Cau

Eugenio Cau

E’ nato a Bologna, si è laureato in Storia, fa parte della redazione del Foglio a Milano. Ha vissuto un periodo in Messico, dove ha deciso di fare il giornalista. E’ un ottimista tecnologico. Per il Foglio cura Silicio, una newsletter settimanale a tema tech, e il Foglio Innovazione, un inserto mensile in cui si parla di tecnologia e progresso. Ha una passione per la Cina e vorrebbe imparare il mandarino.

Più Visti

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Commenti all'articolo

  • marco.ullasci@gmail.com

    marco.ullasci

    30 Ottobre 2018 - 15:03

    Il problema non e' tanto la censura, che e' probabilmente meglio evitare finche' non ci sono collegamenti fra comunicazione e azione, quanto il prestare attenzione a chi comunica e cosa comunica per potere agire.

    Report

    Rispondi

Servizi