L'audizione perfetta per smontare Mark Zuckerberg

Daniele Raineri

La specialista di dati Frances Haugen ed ex dipendente di Facebook è andata al Congresso a testimoniare davanti ai senatori; l’appuntamento era stato fissato per capire se il social – che include anche Instagram e Whatsapp – è pericoloso e se questa pericolosità può essere neutralizzata. L'impressione è che sia la volta buona per l'inizio di un intervento serio

Due giorni dopo avere abbandonato lo pseudonimo di “Sean”, che usava per passare alla stampa informazioni che Facebook avrebbe voluto tenere riservate, la specialista di dati Frances Haugen ed ex dipendente di Facebook è andata al Congresso a testimoniare davanti ai senatori. L’appuntamento era stato fissato per capire se Facebook – che include anche Instagram e Whatsapp – è pericoloso e se questa pericolosità può essere neutralizzata. La scena era perfetta, come se il casting e il set fossero stati pensati da un regista. Lei era sicura e concisa nelle risposte, teneva lo sguardo alto e infilava una dietro all’altra frasi che da sole possono diventare un titolo di giornale. Aveva l’aria inattaccabile di una che sa di che cosa parla. Nella sua escalation personale in fasi sempre più esposte – prima le ricerche passate al Wall Street Journal, poi il disvelamento in tv e ora la testimonianza in diretta nazionale davanti ai politici – ha senz’altro ricevuto appoggio e preparazione. I senatori, che di solito in queste audizioni ad alto tasso tecnologico sono un po’ spaesati, facevano domande precise. La sottocommissione che ospitava l’audizione era una stanza più piccola del solito e facilitava di molto la conversazione e l’immedesimazione.

 

Facebook, perché l'audizione di Haugen può essere una svolta per intervenire sul social

 

L’azienda Facebook era uscita da una crisi imbarazzante poche ore prima, l’equivalente informatico di un infarto causato da un errore interno che per più di cinque ore ha fatto preoccupare o fatto ridere miliardi di persone e che per essere risolto aveva richiesto l’intervento fisico di tre dipendenti. Mark Zuckerberg, il bersaglio della situazione, per sua scelta ha deciso di non rispondere a questo round di accuse e si vedrà se è una strategia solida oppure se si sta danneggiando ancora di più. L’impressione è che questa audizione che molti osservatori definiscono “devastante” sia la volta buona, dopo tante false partenze: l’inizio di un intervento per studiare e regolamentare come funzionano i social media. Un’ultima informazione preliminare prima di passare a che cosa ha detto Haugen: l’audizione è stata impostata come se si parlasse dell’industria del tabacco – era un paragone ricorrente – quindi un altro settore che rifiutava di essere regolamentato e negava di essere dannoso e che poi si è adeguato.

 

La specialista di dati ha spiegato la pericolosità del cosiddetto engagement based ranking, che è un argomento che è tornato spesso nel corso della testimonianza. L’algoritmo di Facebook sceglie cosa farci vedere in base a quante reazioni provoca negli utenti – l’engagement. Più reazioni sollecita, più like ottiene, più diventa visibile e ottiene altri altri like da altre persone. C’è un effetto moltiplicatore. Il contenuto normale cade nell’ombra e scivola via nell’indifferenza della piattaforma, quello controverso è premiato. Il risultato è che davanti ai nostri occhi è proiettato un rullo di contenuti sempre più controversi. Risultato pratico: vent’anni fa l’antivaccinismo quasi non esisteva, oggi è un problema. Haugen ha spiegato che Facebook è consapevole che settare l’algoritmo su questi parametri è pericoloso ma aumenta il traffico e che sceglie l’aumento di traffico perché porta più guadagni. E’ un modello matematico per incentivare e accelerare la disinformazione. Haugen nota: l’azienda fa profitti dell’ordine di mille miliardi di dollari, ma i danni sono pagati all’esterno, dalla comunità – anche in termini di conseguenze politiche della disinformazione.

 

La ex dipendente dice che la disponibilità di questi dati e di queste ricerche dovrebbe essere pubblica – ed è per questo che lei ha passato molto materiale alla stampa – e che invece Facebook tiene tutto segreto. “Quando l’industria del tabacco negava che il fumo fosse dannoso i ricercatori non hanno avuto problemi a dimostrare il contrario. Invece in questo caso è Facebook che ha i dati: e li tiene nascosti”. Tra i dati che Facebook nasconde ci sono quelli sugli effetti depressivi tra le adolescenti che usano Instagram. In generale le piattaforme di Fb creano dipendenza negli utenti più giovani perché sono meno capaci di autoregolamentarsi, ma i loro genitori sono inattrezzati ad affrontare il problema perché non lo conoscono, è troppo recente, non c’era ai loro tempi. 

 

In tutta l’audizione ricorre questo tema: Fb è incapace di autocorreggersi. E’ impensabile affidarsi alla responsabilità di Facebook e di Zuckerberg – che mantiene il controllo pieno di quello che avviene – per migliorare le cose perché non lo faranno ed è la ragione per la quale siamo finiti in questa audizione. Facebook non è trasparente proprio perché non vuole cambiare. La stessa innovazione del 2018 quando l’algoritmo fu modificato per favorire le interazioni tra gente reale – meaningful social interactions nella metrica della piattaforma – è diventata un acceleratore di complotti e teorie deviate. “Facebook non ha la struttura per fermare la disinformazione sui vaccini”. Anche sull’insurrezione del 6 gennaio, le salvaguardie poste da Facebook per proteggere le elezioni erano state tolte subito dopo, con conseguenze gravi. “Quando Facebook non vuole affrontare un problema gli dedica poco personale. Lo ha fatto con il reparto che dovrebbe impedire agli under 13 di iscriversi e lo ha fatto anche con il reparto che si occupa di controspionaggio”. 

 

Haugen sostiene che la soluzione non dev’essere basata sul contenuto, quindi sulla censura delle cattive idee a favore delle buone idee, ma sul funzionamento. Le piattaforme devono essere meno reattive. I link devono essere impossibili da condividere se prima non li si è aperti (così girerebbe meno spazzatura informativa). L’algoritmo non dovrebbe decidere più cosa vediamo: sarebbe meglio tornare all’ordine cronologico. Sarebbe più casuale e meno distorsivo. Ci sarebbe un premio minore in dopamina – la sensazione di benessere che riceviamo quando molti reagiscono a qualcosa di nostro sui social – e meno estremismo. Questa testimonianza è l’inizio di una campagna politica che riguarderà i social e che fino a fino a oggi aveva stentato molto a partire. 

  • Daniele Raineri
  • Di Genova. Nella redazione del Foglio mi occupo soprattutto delle notizie dall'estero. Sono stato corrispondente dal Cairo e da New York. Ho lavorato in Iraq, Siria e altri paesi. Ho studiato arabo in Yemen. Sono stato giornalista embedded con i soldati americani, con l'esercito iracheno, con i paracadutisti italiani e con i ribelli siriani durante la rivoluzione. Segui la pagina Facebook (https://www.facebook.com/news.danieleraineri/)