L’algoritmo di Facebook non genera bolle ideologiche. Uno studio e alcuni dubbi

Due ricercatori di Facebook hanno analizzato il comportamento di 10 milioni di utenti che dichiarano le proprie simpatie politiche e hanno concluso che il social network non funziona come cassa di risonanza ideologica.
L’algoritmo di Facebook non genera bolle ideologiche. Uno studio e alcuni dubbi

Foto LaPresse

New York. In un Ted talk di quattro anni fa, un attivista del network progressista MoveOn di nome Eli Pariser ha coniato il termine “filter bubble”, per identificare la tendenza della vita online a farci vivere in una bolla in cui tutti i contenuti ci arrivano filtrati a seconda delle nostre ricerche e preferenze. Gli algoritmi sempre più sofisticati dei motori di ricerca e dei social ci propongono prodotti che molto probabilmente desideriamo, basandosi sul nostro comportamento in rete, ma il centro della critica di Pariser è che questo meccanismo di mercato assume contorni inquietanti quando i prodotti filtrati non sono vacanze ai Caraibi e macchine fotografiche ma notizie, opinioni, idee. Il rischio è di finire prigionieri di una bolla ideologica confortevole e monocolore in cui i newsfeed accuratamente filtrati suggeriscono fonti d’informazione che esprimono una linea affine a quella dell’utente, idee con le quali è già d’accordo, con l’effetto non soltanto di tagliare fuori dallo schermo (e dalla mente) versioni di fatti e idee provenienti da altri circoli, ma di fomentare quel processo di polarizzazione ideologica che in America molti sono concordi nel ritenere il male definitivo che inquina il clima politico. Occorre anche tenere presente il contesto politico americano: quando Pariser ha dato rigore concettuale a una percezione diffusa, il Tea Party si era affacciato con roboante potenza comunicativa sulla scena, e in seno alla sinistra stava nascendo una corrente radicale, tutta orientata alla giustizia sociale e alla lotta contro i banchieri di Wall Street. Due bolle perfettamente impermeabili.

 

Nella logica della “filter bubble”, Facebook è un caso di scuola. Il nostro network di amici che liberamente scegliamo tende a includere persone che hanno visioni politiche e culturali simili alle nostre; su questa tendenziale omogeneità di opinioni si innesta l’algoritmo del social, che seleziona notizie appetibili per il nostro palato. Nel newsfeed di Facebook, un conservatore che ha soprattutto amici conservatori vedrà più spesso o in posizione più alta le notizie di Fox News, quelle di Msnbc faticheranno a penetrare nella bolla. Le proporzioni della faccenda sono enormi: il 30 per cento degli americani accede alle notizie attraverso Facebook. A Mark Zuckerberg non è sfuggito il potenziale dirompente della questione sollevata da Pariser, parte della più generale controversia sulla neutralità dei social rispetto ai contenuti informativi, e ha messo i suoi stregoni dei dati al lavoro per verificare l’impatto del network sulla polarizzazione politica. Il risultato della ricerca è uscito qualche giorno fa sulla rivista Science.

 

Eytan Bakshy e Solomon Messing, due ricercatori di Facebook, hanno analizzato il comportamento di 10 milioni di utenti che dichiarano le proprie simpatie politiche e hanno concluso che il social network non funziona come cassa di risonanza ideologica che seleziona notizie a senso unico, ma permette quello che i ricercatori chiamano cross-cut, l’esposizione a contenuti di segno politico opposto. Il 23 per cento degli utenti ha amici con simpatie politiche diverse e in media il newsfeed di Facebook propone a ciascuno un 29 per cento di contenuti che è in linea con il proprio pensiero. C’è un’asimmetria fra destra e sinistra: i democratici si trovano nel feed il 22 per cento di articoli tendenti a destra, mentre la percentuale sale al 33 per i conservatori. Questo, dicono, è perché i conservatori tendono a cliccare meno su contenuti al di fuori della loro bolla rispetto ai liberal. L’impatto “puro” del social sulla fruizione delle news è quantificato in una percentuale: 6 per cento. Chi legge le notizie attraverso Facebook ha il 6 per cento di possibilità in meno di incontrare punti di vista a lui affini rispetto alla navigazione fuori dal social. In sostanza, la ricerca dimostra che Facebook con i suoi algoritmi non guida né alimenta la polarizzazione, semplicemente asseconda le libere scelte degli utenti, fatta eccezione per quel 6 per cento. Fa con un meccanismo guidato da strumenti matematici quello che gli utenti altrimenti farebbero manualmente, ovvero scandagliare la rete alla ricerca di notizie che confermano il loro punto di vista. In questa visione, l’algoritmo è uno strumento quasi perfettamente neutro, un puro mezzo senza vizi né preferenze.

 

[**Video_box_2**]Nel presentare lo studio Facebook ha sottolineato proprio questo aspetto: le scelte delle persone contano più di quelle fatte dagli algoritmi. Caso chiuso? Non così in fretta. Pariser scrive che l’effetto “è minore di quanto avessi immaginato” e tuttavia “non è insignificante”, perché si tratta di un piano inclinato: più uno è dentro la bolla più tenderà nel tempo a non uscirne. Soprattutto, scrive, “ogni algoritmo contiene un punto di vista sul mondo. In realtà l’algoritmo è esattamente questo: una teoria sul modo in cui un pezzo di mondo dovrebbe funzionare, espressa in termini matematici”. Christian Sandvig, professore dell’Università del Michigan, ha ribattezzato lo studio “non è colpa nostra” e in una lunga analisi mette in luce tutte le contraddizioni e i punti deboli della ricerca, suggerendo che si tratta di un modo elegante e autorevole per mettersi al riparo dalle critiche. Tanto per citare la falla più eclatante: Facebook ha basato la ricerca soltanto sugli utenti che esplicitamente dichiarano la propria affiliazione politica, persone con una visione del mondo abbastanza chiara da essere segnalata pubblicamente. E’ naturale che chi ha idee politiche ben distinte in testa sappia cosa cliccare con più chiarezza di chi, alla ricerca di informazioni per farsi un’idea su chi votare alle prossime elezioni, si trovi sul social notizie preselezionate secondo criteri imperscrutabili. L’algoritmo si nutre e prospera a contatto con utenti incerti, non con quelli che hanno le idee chiare.

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Servizi