PUBBLICITÁ

Zuckerberg manipolaci meglio

Daniele Ranieri

Una fazione idealista dentro Facebook voleva che l’algoritmo ci desse più informazione e meno spazzatura

PUBBLICITÁ

Un’inchiesta di tre giornalisti del New York Times rivela informazioni interessanti e preoccupanti sul funzionamento interno di Facebook. Subito dopo le elezioni americane a Facebook hanno notato un incremento serio della disinformazione in circolo sul sito. Era una cosa che ci si aspettava e infatti nelle settimane precedenti al voto erano già stati presi dei provvedimenti, come la cancellazione in massa di pagine che spargono contenuti complottisti, ma non era bastato. Per questo nell’azienda hanno deciso di modificare in modo temporaneo l’algoritmo che decide che cosa vediamo su Facebook e quanto ne vediamo e, su ordine del fondatore Mark Zuckerberg in persona, i tecnici hanno aumentato il peso dei cosiddetti punteggi Neq. Questi punteggi segreti sono quelli che distinguono l’informazione seria dai siti spazzatura (sta per “News ecosystem quality”), sono assegnati da Facebook e rispondono dal punto di vista matematico a una domanda che si fanno tutti i dipendenti di Facebook:  che percentuale di roba buona e che percentuale di roba scadente stiamo facendo girare là fuori? In pratica è come un termostato delle schifezze: se lo regoli in un certo modo l’utente medio vede più contenuti prodotti da fonti credibili e meno propaganda e questo contribuisce a rendere il clima meno esplosivo. Viene in mente quando qualche anno fa si scoprì che Facebook aveva sperimentato come rendere un po’ più tristi alcuni utenti. In questo caso recente lo scopo era rendere tutti meglio informati e meno esposti alla propaganda. 

ABBONATI PER CONTINUARE A LEGGERE
Se hai già un abbonamento:

Altrimenti


Un’inchiesta di tre giornalisti del New York Times rivela informazioni interessanti e preoccupanti sul funzionamento interno di Facebook. Subito dopo le elezioni americane a Facebook hanno notato un incremento serio della disinformazione in circolo sul sito. Era una cosa che ci si aspettava e infatti nelle settimane precedenti al voto erano già stati presi dei provvedimenti, come la cancellazione in massa di pagine che spargono contenuti complottisti, ma non era bastato. Per questo nell’azienda hanno deciso di modificare in modo temporaneo l’algoritmo che decide che cosa vediamo su Facebook e quanto ne vediamo e, su ordine del fondatore Mark Zuckerberg in persona, i tecnici hanno aumentato il peso dei cosiddetti punteggi Neq. Questi punteggi segreti sono quelli che distinguono l’informazione seria dai siti spazzatura (sta per “News ecosystem quality”), sono assegnati da Facebook e rispondono dal punto di vista matematico a una domanda che si fanno tutti i dipendenti di Facebook:  che percentuale di roba buona e che percentuale di roba scadente stiamo facendo girare là fuori? In pratica è come un termostato delle schifezze: se lo regoli in un certo modo l’utente medio vede più contenuti prodotti da fonti credibili e meno propaganda e questo contribuisce a rendere il clima meno esplosivo. Viene in mente quando qualche anno fa si scoprì che Facebook aveva sperimentato come rendere un po’ più tristi alcuni utenti. In questo caso recente lo scopo era rendere tutti meglio informati e meno esposti alla propaganda. 

PUBBLICITÁ

 

Finito il periodo d’emergenza (quando sembrava che i repubblicani americani potessero andare da un momento all’altro davanti ai centri per i conteggi dei voti con le armi in pugno) una parte dei lavoratori di Facebook ha chiesto alla dirigenza di lasciare l’algoritmo com’era: non possiamo avere l’algoritmo buono sempre? Il problema, risponde la fazione realista, è che l’algoritmo buono fa diminuire il numero di accessi giornalieri degli utenti. Quando alzi la dose di schifezze, gli utenti tornano con più frequenza e passano più tempo sul sito – e questa, per ragioni commerciali, è la ragione di esistere del sito. Se abbassi la dose di schifezze fai bene al paese ma fai male agli affari. A fare il riassunto dell’inchiesta del New York Times si scopre che dentro Facebook una fazione idealista e una che guarda più agli affari discutono in modo quasi sindacale su quanto e come la temperatura politica degli Stati Uniti deve essere manipolata. 

  
Il dissenso interno produce conseguenze. Quest’estate quando si parlava molto delle proteste del movimento Black Lives Matter sulla chat aziendale che in teoria dovrebbe servire per arrivare a decisioni migliori è nato un gruppo “Take action” formato da 1.500 dipendenti che critica molto la linea ufficiale. BuzzFeed e il New York Times spiegano che il sondaggio interno che a intervalli regolari dovrebbe stabilire il livello di soddisfazione è sceso di molto perché c’è l’impressione di essere dannosi – nel senso che Facebook contribuisce a distorcere il genere di informazioni al quale siamo esposti e quindi peggiora le nostre decisioni – e gli abbandoni sono aumentati. A settembre una nuova regola ha stabilito che i dipendenti devono mettere la loro foto e la loro iniziale quando partecipano alle chat interne dell’azienda. Guy Rosen, un dirigente che segue le correzioni e gli effetti dell’algoritmo, ha però criticato l’inchiesta del New York Times e ha detto che abbassare il livello di disinformazione non è così facile come verrebbe da credere a sentire le fonti del giornale americano. 
 

PUBBLICITÁ
Di più su questi argomenti:
PUBBLICITÁ