La Haugen è stata ascoltata ieri dal Congresso americano (Foto Ansa) 

La “dura verità” su Fb è che le interazioni degli utenti sono oro, e pazienza se così circola più odio

Rolla Scolari

Sheera Frenkel e Cecilia Kang ci spiegano perché per riformarsi il social dovrebbe rinunciare ai profitti. Se potessero fare una domanda a Zuckerberg sarebbe: ne vale la pena?

Dopo l’assalto al Campidoglio del 6 gennaio, Mark Zuckerberg ha riunito la Commissione di sorveglianza esterna di Facebook, una specie di comitato, nato soltanto nel 2020, formato da accademici, esperti in giurisprudenza, attivisti per i diritti umani ed ex politici con il compito di garantire un parere indipendente, quando richiesto, sulla rimozione di contenuti e la sospensione di utenti. A quel punto, i vertici di Facebook avevano già preso una decisione, non basata su alcuna norma o regolamentazione esistente, sulla rimozione dell’ex presidente americano Donald Trump dalla piattaforma. Il fondatore e amministratore delegato del social network cercava dunque la legittimazione dei “saggi” della Commissione, che avrebbero però risposto qualcosa di molto simile a questo: non prenderemo questa decisione per voi, non avete creato leggi per gestire questo tipo di situazioni, non aspettatevene ora da noi. 


Ce lo ha raccontato Sheera Frenkel, giornalista del New York Times e autrice, assieme con Cecilia Kang, di “Facebook: l’inchiesta finale” (Einaudi), un libro che alla sua uscita a luglio negli Stati Uniti aveva fatto molto rumore e aveva dato parecchio fastidio al quartier generale di Zuckerberg, a Menlo Park. Con un titolo in inglese più evocativo – “An Ugly Truth”, una dura verità – l’indagine mette a nudo le responsabilità di Facebook nella diffusione di disinformazione, teorie del complotto, incitamento all’odio e violenza.

 

Secondo le autrici, la riluttanza dell’azienda nel moderare o arginare i contenuti tossici sarebbe legata all’ambizione di crescita – economica e tecnologica – e a un profitto che si gonfia con l’aumentare del coinvolgimento degli utenti sulla piattaforma. E poco importa se le persone coinvolte condividono uno studio scientifico sul cambiamento climatico o un post firmato dai complottisti di QAnon o da suprematisti bianchi.

 

Conclusioni simili sono emerse dalle inchieste pubblicate in queste ore dal Wall Street Journal attraverso i documenti e le rivelazioni fornite da Frances Haugen, ingegnere informatico che dopo anni di lavoro a Facebook ha deciso di raccontare alla stampa una storia riassumibile così: più complotti, più odio e più contenuti incendiari attirano utenti, creano traffico e quindi generano utili. La Haugen è stata ascoltata ieri dal Congresso americano, anche su un possibile ruolo di megafono di Facebook nell’assalto al Campidoglio del 6 gennaio.

 

I documenti resi pubblici dalle rivelazioni dell’ex dipendente dell’azienda provano che i vertici di Facebook siano a conoscenza dei mali del loro sistema, ma che nonostante le audizioni al Congresso di Zuckerberg e i diversi interventi sui media, l’azienda abbia spesso deciso di non agire, o di agire limitatamente. E’ quanto ci hanno raccontato anche Sheera Frenkel e Cecilia Kang in una lunga chiacchierata sulla “dura verità” di Facebook, il social network nato nei dormitori universitari di Harvard, tra nerd ad alta tecnologia e studenti protetti da un’esistenza facile e sicura. Alle origini di tutto, o poco dopo, il giovane Zuckerberg sapeva che nel momento in cui avesse definito la sua creazione una piattaforma mediatica, l’azienda avrebbe dovuto creare regolamentazioni e assumersi responsabilità che in termini di business avrebbero complicato la situazione, ci dice Frenkel: “All’inizio c’è stata una scelta cosciente da parte di Zuckerberg e dei suoi nell’essere nebulosi sulla natura di Facebook: era semplicemente un’altra piattaforma tecnologica, e quindi non valeva la pena impostare le stesse regole rigorose dei media tradizionali, come fact checking e controllo dei contenuti, tutto ciò che rende il nostro lavoro di reporter più lento rispetto a Fb, dove pubblichi con un click”.

 

Sotto molti aspetti, quanto accaduto al Campidoglio quel 6 gennaio non ha cambiato Facebook, “perché l’azienda ha fatto quello che spesso fa: aspettare che qualcosa di brutto accada prima di agire”, e in quel caso prima di rimuovere dalla piattaforma Donald Trump, dice Frenkel, che sostiene che il rischio di violenze era già stato individuato durante la campagna elettorale per il voto del 2020. Nonostante il parere di esperti e osservatori preoccupati dai toni virulenti di alcuni post firmati da sostenitori di Trump che parlavano di elezioni truccate o rubate, Fb decise allora di mantenere quei contenuti. “Sapevano da tempo che cosa stesse accadendo sulla loro piattaforma e come fosse utilizzata prima del 6 gennaio”.

 

Se siamo arrivati al punto in cui siamo oggi, con i vertici di Facebook chiusi nella fortezza impenetrabile di Menlo Park a gestire una crisi senza precedenti fatta scoppiare come nel più tradizionale dei copioni dalle rivelazioni di una ex dipendente, in principio entusiasta e poi sempre più spaventata dalla metamorfosi del social network, è secondo Cecila Kang a causa di “una cultura che prima di tutto rende prioritaria la crescita”. Fin dall’inizio, tra il nucleo dei fondatori di Facebook dominava una “cultura che premiava l’avanzamento della tecnologia e della crescita sopra ogni cosa: questa idea del muoversi veloce, di arrivare prima degli altri – una specie di cliché – era veramente la stella polare, la filosofia portante in quel momento. Facebook ha tentato poi di trovare una soluzione ad alcuni suoi problemi, ma quell’identità culturale non è cambiata. Il modo che l’azienda ha per crescere è far tornare gli utenti sulla piattaforma spesso, farli rimanere lì il maggior tempo possibile: più interagiscono più Fb ha successo, perché raccoglie un maggior numero di dati degli utenti da vendere agli inserzionisti. In questo modo cresce il profitto. Dare priorità alla crescita ha portato a dare priorità al coinvolgimento. E questo sfortunatamente ha portato a sua volta ad avere persone che interagiscono con contenuti che possono essere molto dannosi, perché il contenuto dannoso fa tornare le persone: o interagiscono con bugie, disinformazione e incitamento all’odio perché sono arrabbiati, o perché sono d’accordo o perché sono contrari, comunque sia questo rende Fb il centro della conversazione”.

 

Se le due autrici potessero porre oggi una domanda a Mark Zuckerberg, che non ha mai accettato un incontro con loro durante la stesura del libro, gli chiederebbero se Facebook non possa fare a meno di questo altissimo grado di coinvolgimento per mantenere il business ad alti livelli. L’azienda l’anno scorso ha raggiunto  2,8 miliardi di utenti, con ricavi pari a 86 miliardi di dollari. Quest’anno Fb prevede ricavi pari a 100 miliardi di dollari, molti dei quali potrebbero essere investiti nello studio di metodi per arginare l’odio online.

 

“La costante crescita di Fb, il suo successo – dice Cecilia Kang – è complicata da questioni esistenziali: che cosa significa essere una piattaforma di espressione libera? I vertici di Facebook cominciano a capire soltanto adesso che non è così semplice come pensavano all’inizio, quando difendevano la convivenza di tutte le forme d’espressione. Ora sanno che alcune forme di espressione possono diventare armi. E fare male”.

 

Di più su questi argomenti: