Mark Zuckerberg (Foto LaPresse)

L'algoritmo del male

Daniele Raineri

Perché Facebook considerava del tutto normale vendere pubblicità agli “odiatori di ebrei”

E’possibile vendere pubblicità su Facebook – e fin qui tutto normale – ed è possibile venderla soltanto a potenziali clienti che hanno un profilo predeterminato – per esempio gli under trenta, oppure gli appassionati di cinema, e fin qui ancora tutto normale – ma il social network più grande del mondo aveva messo tra le fasce di clienti che è possibile scegliere anche “gente che odia gli ebrei”. Un sito di giornalismo investigativo che si chiama ProPublica ha provato questa settimana a vendere tre pubblicità per 30 dollari l’una a Facebook e come target ha potuto scegliere un bacino di 2.274 persone individuate perché avevano tra i loro interessi “odiatore di ebrei”, “come bruciare ebrei” oppure “storia di come il mondo è stato rovinato dagli ebrei”.

 

Quando la storia è venuta fuori Facebook ha subito rimosso la possibilità di fare pubblicità a questa fascia antisemita, nel caso voleste mettere in vendita busti di Hitler, e ha risposto che non si tratta di una possibilità creata in modo intenzionale, ma che è colpa di un algoritmo, che ha individuato la categoria da solo e l’ha inserita tra quelle che possono essere target di pubblicità. Ne esiste una lista che l’anno scorso includeva ventinovemila categorie, dai profili interessati alla “salsiccia ungherese” a quelli “che vivono in famiglie che hanno un reddito familiare compreso tra i 100 mila e i 125 mila dollari”. Alcune categorie sono state annullate da Facebook, per esempio quelle che identificano la razza.

 

La spiegazione regge, ma mette anche un po’ di paura. L’algoritmo per esempio ha suggerito a quelli di ProPublica di indirizzare la loro pubblicità anche ai profili interessati al soggetto “Secondo emendamento” (119 mila persone) e questo è successo molto probabilmente perché il sottoinsieme “odiatori di ebrei” e il sottoinsieme molto più numeroso “gente che ama le armi” hanno punti in comune che non sono sfuggiti agli occhi automatici di Facebook. L’algoritmo fa il suo lavoro – quindi individua e suggerisce collegamenti – ma non riesce a fare distinzioni tra la varie categorie di clienti e quindi adoratori dei gatti, filatelici, fan della musica disco e nazisti sono soltanto fasce di utenti da mettere in contatto con chi vuole vendere loro qualcosa. Il cervello elettronico di Facebook riconosce ma non discerne, setaccia ma non filtra. Se si distrae, come è successo in questo caso, è un problema. Quelli di ProPublica hanno soltanto fatto un esperimento, ma non c’è dubbio che era questione di tempo prima che qualcuno nel mondo del business ripetesse la stessa ricerca come strategia di marketing. Del resto una ricerca di cui ha parlato la Bbc questa settimana diceva che un quarto degli inglesi in qualche modo è “antisemita”: roba da far drizzare le antenne a chi sfruculia le nicchie commerciali.

 

La settimana scorsa si è parlato molto di come i russi hanno speso soldi su Facebook per condizionare l’opinione pubblica americana nel 2016 durante la campagna elettorale, e di come per farlo abbiano usato molti finti profili (che però pagavano in rubli, secondo un aggiornamento arrivato ieri dalla rete Cbs). E’ chiaro che l’algoritmo di Facebook che permette di trovare il bacino di utenti più vulnerabili alle nostre pubblicità è uno strumento di persuasione sopraffino, al cui confronto la televisione, che mostra a tutti gli stessi spot e al massimo differenzia a seconda degli orari, è un soprammobile obsoleto.

Di più su questi argomenti:
  • Daniele Raineri
  • Di Genova. Nella redazione del Foglio mi occupo soprattutto delle notizie dall'estero. Sono stato corrispondente dal Cairo e da New York. Ho lavorato in Iraq, Siria e altri paesi. Ho studiato arabo in Yemen. Sono stato giornalista embedded con i soldati americani, con l'esercito iracheno, con i paracadutisti italiani e con i ribelli siriani durante la rivoluzione. Segui la pagina Facebook (https://www.facebook.com/news.danieleraineri/)