unsplash

Il caso

Substack è piena di newsletter naziste che non vuole censurare. Le uscite di scena

Pietro Minto

La piattaforma assomiglia sempre più a un “parco giochi di estrema destra”. E i fuoriusciti migrano verso nuova startup, Ghost, che ha assicurato di rimuovere "contenuti sessisti, eterosessisti, razzisti e di odio"

Substack sta perdendo pezzi. Nata come piattaforma per la pubblicazione di newsletter nel 2017, Substack ha creato un notevole business per molti giornalisti, che, complice la crisi del settore, hanno aperto una newsletter, anche a pagamento, chiedendo sostegno direttamente ai loro lettori. Fin qui sembra una storia a lieto fine, e per anni lo è stata. Poi vennero i grossi investimenti ricevuti dai principali fondi del settore, a cui è seguita l’inevitabile corsa alla crescita. In tutto questo, Substack ha sempre mantenuto un approccio aperto, laissez-faire, nella moderazione dei contenuti: zero censure, zero bandi.

Lo scorso novembre, però, l’Atlantic ha svelato il lato oscuro della piattaforma, che ospiterebbe un buon numero di pubblicazioni suprematiste bianche, e almeno sedici titoli apertamente nazisti. Nei meandri di Substack c’è un mare di contenuti dalle posizioni più estremiste, post antisemiti sul “problema ebraico” e sulla teoria della sostituzione etnica, ma anche newsletter No vax, la cui esistenza è in realtà nota da anni. A peggiorare il quadro per l’azienda c’è un dettaglio: alcune di queste newsletter sono a pagamento e per ogni abbonamento Substack trattiene una quota (il 10 per cento). Insomma, sostiene l’accusa, Substack non si limita a ospitare contenuti nazisti ma trae profitto dal loro business.  Apriti cielo. Nelle settimane successive al pezzo dell’Atlantic, centinaia di autori e blogger hanno condiviso una lettera aperta (firmata “Substackers Against Nazis”) in cui chiedevano ai dirigenti della società di cambiare corso e bandire i nazisti dalla piattaforma. Casey Newton, autore di Platformer, collosso con più di 170 mila iscritti, ha commentato laconico: “Il numero giusto di newsletter che utilizzano simbologia nazista e che traggono profitto dalla vostra piattaforma è zero”.

Pochi giorni prima di Natale, è arrivata la risposta di Hamish McKenzie, co-fondatore dell’azienda, che non ha migliorato il clima: “Non siamo contenti che ci siano nazi, qui, vorremmo che nessuno avesse quelle idee. Ma alcune persone hanno posizioni estreme e non crediamo che la censura (inclusa la demonetizzazione dei contenuti) faccia sparire il problema. Anzi, lo peggiora”. A questo sono seguite le prime uscite di scena da parte di nomi relativamente grossi (Rusty Foster, con 40 mila iscritti), alle quali Substack ha provato a rispondere nei giorni scorsi annunciando la rimozione di alcune newsletter naziste (cinque, per l’esattezza). Arriviamo così a questa settimana, che ha visto l’addio del citato Newton e di Ryan Broderick (circa 70 mila iscritti). Entrambi hanno raccontato di essersi confrontati con gli iscritti e gli abbonati paganti e di aver registrato un certo disagio nella community nei confronti di Substack.

Broderick in particolare ha puntato il dito su come Substack non sia riuscita a creare un prodotto in grado di aumentare gli abbonati e gli iscritti dei loro utenti, che nella grande maggioranza dei casi arrivano grazie al passaparola. “Se solo Substack avesse investito meno tempo ed energia in prodotti simili invece di costruire un parco giochi per la nuova destra”. Buona parte dei fuoriusciti sembra pronta a migrare verso Ghost, un servizio simile che ha assicurato di rimuovere “contenuti sessisti, eterosessisti, razzisti e di odio”. Il designer Matt Birchler, tra gli autori di newsletter che ha recentemente optato per Ghost, ha però ricordato che si tratta  un servizio open source, che chiunque può scaricare e installare sul proprio server: in questo modo è tecnicamente possibile aggirare le regole dell’azienda.

La crisi di Substack conferma quanto il tema della moderazione dei contenuti sia ormai fondamentale per la stessa identità di un qualsiasi social e servizio digitale. Se n’era parlato molto quando Elon Musk comprò Twitter, alla fine del 2022, presentandosi come un paladino della libertà d’espressione – e abbiamo visto i risultati – ma il rischio è che il dibattito diventi identitario, un modo per le piattaforme di distinguersi e attirare nuovo pubblico, senza nemmeno più convenire sul trattamento da riservare a chi incita all’odio e alla violenza.
 

Di più su questi argomenti: