La post verità è una bolla

Giuseppe A. Veltri

Sulla rete conosciamo solo quello che sappiamo già e per farlo usiamo scorciatoie che ci portano alle bufale. Servono educazione e “spinte gentili” per uscirne

Pubblichiamo stralci del paper “Scorciatoie mentali, bolle e post-verità: la sfera pubblica 3.0”, di Giuseppe A. Veltri a cura del think tank Volta. Veltri è professore di Metodologia della ricerca presso il dipartimento di Sociologia e Ricerca sociale all’Università di Trento.

 


 

Nel 2011, Eli Parisier pubblicò un libro intitolato “The Filter Bubble: what the Internet is hiding from you” in cui l’autrice discuteva gli effetti sociali della diffusione di filtri personalizzati nella ‘dieta informativa’ delle persone. La sua argomentazione procedeva in questo modo: il mondo online ha dato alle persone accesso a una quantità di informazione sterminata ma allo stesso tempo ha creato il problema di come poter selezionare ciò che è rilevante e utile per ciascuno. Avendo tempo e attenzione limitati, trovare o ottenere delle informazioni rilevanti per una persona diventa un aspetto importante rispetto al navigare enormi quantità di “rumore”. Per questa ragione, tutti i principali attori tecnologici che operano nella rete hanno investito tempo e denaro nel creare dei filtri che potessero costruire un flusso di informazioni rilevante per ognuno. L’esempio principale è Google che nel 2009 introdusse la sua “personalised search” (Google, 2009). In sostanza, l’uso del motore di ricerca di Google venne modificato per mostrare i risultati di una ricerca in base alla storia di navigazione web di ogni utente. In questo modo, se per esempio io fossi un negazionista del riscaldamento globale con una storia di visitare siti negazionisti, se cercassi “riscaldamento globale” su Google, i primi siti che sarebbero mostrati nella lista dei risultati sarebbero siti negazionisti. Diventa chiaro ora perché Eli Pariser parla di “filter bubble” (la bolla del filtro): in questo modo, ognuno si ritrova in una bolla in cui riceve solo informazioni che confermano ciò che credono e quindi senza essere esposti a punti di vista differenti. Abbiamo già discusso come il confirmation bias sia già presente tra le scorciatoie mentali umane, in questo caso una solu-zione tecnologica lo potenzia di molto. In una democrazia, il confronto tra posizioni differenti è l’unico modo di risolvere pacificamente conflitti tra gruppi sociali. Se le informazioni sulle posizioni degli altri sono difficili da reperire, mentre le proprie convinzioni ricevono degli “steroidi informativi”, diventa difficile trovare un punto di convergenza. Questa forma di algorithmic gatekeeping quindi modifica il libero flusso di informazioni. Visto che un numero sempre maggiore di persone utilizza i social network per informarsi (PEW, 2014), il timore riguardo gli effetti sociali di questi filtri appare giustificato. Per questa ragione si parla oggi di echo chambers, una metafora che sta a indicare il fatto che membri di una comunità online si possano trovare nella situazione in cui le loro opinioni sono costantemente ripetute indietro rinforzandole. Questa dinamica può rendere molto difficile una discussione critica perché la continua esposizione alle nostre convinzioni ci rende meno flessibili a cambiarle (entrano in gioco diverse scorciatoie mentali discusse in precedenza, come la availability heuristic, il confirmation bias e il false consensus effect). Nelle echo chambers, il valore di veridicità di un’informazione è difficilmente verificabile visto che informazioni discordanti non sono presenti e la provenienza da reti sociali fidate ne rafforza l’affidabilità a prescindere.

 

Se prendiamo in considerazione quanto discusso sinora, possiamo riassumere il rapporto tra i vari livelli di fenomeni che sono alla base dell’attuale facilità di polarizzazione in due livelli che interagiscono. Partiamo dal secondo livello, come viene spesso chiamato in ambito scientifico, che consiste nel livello sociale e contestuale in cui ci troviamo a essere nella nostra quotidiana esposizione a notizie e in generale a informazione sullo stato del mondo. Siamo soggetti sempre più alla preselezione di contenuto da parte dei filtri, che siano essi algoritmi o le nostre reti sociali su cui facciamo affidamento per ricevere informazioni. Entrambi hanno la tendenza a creare delle bolle in cui riceviamo informazioni che ci confermano le nostre convinzioni piuttosto che metterle in discussione e indurci al pensiero critico.

 

I membri di una comunità online si trovano nella situazione in cui le loro opinioni sono ripetute di continuo, venendo rinforzate

Piccola divagazione, è interessante notare come il trovarci in queste bolle o filter bubble, come definite da Pariser, non fa altro che dare maggiore possibilità alle nostre scorciatoie mentali di funzionare male una volta attivata la modalità di ragionamento del sistema.

 

Rimane sempre possibile utilizzare forme di pensiero critico ma le scorciatoie mentali che utilizziamo ogni giorno hanno il sopravvento nella maggior parte dei casi perché siamo dei ‘risparmiatori cognitivi’. Il livello 1, quello che riguarda l’individuo, diventa inestricabilmente legato al livello 2 in cui effetti di rinforzo positivo possono rendere una persona estremamente resistente al cambiamento di opinione.

 

Per quale ragione ci arrabbiamo anche quando una offesa non ci riguarda direttamente? Solo per apparire più credibili agli altri

L’esito di tale processo può essere rappresentato, con qualche licenza, dal personaggio Napalm51 inventato dal comico Maurizio Crozza in cui una persona che fa il troll su Internet è anche portavoce di grottesche teorie sui recenti avvenimenti nel mondo (e visivamente simile al personaggio Walter Sobchak, interpretato da John Goodman, nel film “The Big Lebowski”). Il suo mondo è quello di uno stato di oltraggio perenne. Una piccola divagazione sulla questione dell’oltraggio. In un recente studio pubblicato su Nature (Jordan et al., “Third-Party Punishment as a Costly Signal of Trustworthiness”), un gruppo di ricercatori ha trovato una risposta al quesito sul perché, da un punto di vista evolutivo, alcune persone investano molto tempo nel denunciare il comportamento scorretto, disonesto o sbagliato di altre persone anche quando non ci coinvolge direttamente. Per quale ragione ci arrabbiamo anche quando una offesa non ci riguarda direttamente? La risposta sembrerebbe ovvia: lo facciamo perché teniamo molto alla giustizia e alla correttezza, perché desideriamo un mondo migliore. La nostra indignazione appare come priva di interesse personale, ed è spesso così, almeno dal punto di vista della nostra consapevolezza. Eppure, nello studio pubblicato su Nature, si dimostra come tale oltraggio serva un fine evolutivo ben preciso. Infatti, la ragione dell’esistenza di questo comportamento da un punto di vista evolutivo è rimasta per lungo tempo un mistero. Secondo l’ingegnoso studio sperimentale di Jordan e colleghi, la ragione invece sembra essere molto meno altruista. Manifestare oltraggio morale serve come forma di “personal advertisement”: le persone che investono maggior tempo e impegno nel condannare coloro che si comportano male sono considerati degni di maggiore di fiducia da parte degli altri. Questo risultato dà una risposta al mistero evolutivo su come un comportamento apparentemente disinteressato e potenzialmente con un costo per chi lo fa sia rimasto nel corso dell’evoluzione umana. La ragione è che esprimere oltraggio morale in realtà è vantaggioso per la persona nel lungo termine perché aumenta e migliora la sua reputazione. Sebbene siamo abituati a pensare che l’oltraggio morale sia una forma altruistica di comportamento, è bene tenere in mente che chi lo manifesta con una certa frequenza probabilmente ha in mente anche il vantaggio personale prodotto da tale forma di autopromozione. Il problema di questa dinamica di polarizzazione è stato discusso dallo studioso Cass Sunstein, uno degli autori del saggio “Nudge”, nel libro “Republic.com”. In questo testo, Sunstein ammonisce, in alcuni passaggi in modo molto lungimirante, il problema della bolle informative e di come esse possano influenzare la vita democratica di una società. D’altra parte, un numero sempre crescente di servizi online legati alla distribuzione di notizie e informazione cerca di creare filtri sempre più accurati in modo da fornire esattamente quello che vogliamo ed evitando la possibilità di random encounters. Esiste anche chi ha provato a trovare una soluzione tecnologica al problema delle filter bubble: servizi online come StumbleUpon prevedono esattamente il contrario di una bolla, vale a dire il navigare in modo quasi random tra pagine web che altrimenti non incontreremmo stabilendo dei criteri generali di domini di contenuto.

 

A questo punto, possiamo volgere la nostra attenzione su cosa possa essere fatto per ridurre o perlomeno limitare gli effetti polarizzazione che abbia-mo descritto sinora cercando di descriverne in modo sufficientemente dettagliato le origini e dinamiche.

 

E’ importante tenere a mente la futilità di tentare di convincere qualcuno di qualcosa di cui non si può “permettere” di credere. Quando l’accettazione di nuova credenza mette in discussione la propria identità e riferimenti sociali, la persona troverà un modo di razionalizzare la sua intransigenza. L’uso di nudge (“spinte gentili”, ndr) per modificare il comportamento umano utilizza un altro approccio: a) si cerca di modificare il contesto decisionale in cui le persone si trovano in modo da minimizzare l’uso del sistema 1 (e di conseguenza di indurre le persone all’uso del sistema 2) e potenziali scorciatoie mentali dannose alla persona medesima; b) in alternativa, in alcuni casi ben definiti, si usano le scorciatoie mentali cognitive “a fin di bene”, nel senso che quando vi è un obiettivo ben definito in termini di comportamento chiaramente benefico per la persona e la società, in questo caso si può “spingere” (nudge) la persona verso la decisione migliore per quest’ultima. Chiaramente, non esistono soluzioni magiche a tale problema di polarizzazione. Nelle scienze comportamentali, appare chiaro che è preferibile ridurre l’esposizione delle persone a informazione di parte (biased) piuttosto che intervenire a posteriore cercando di ridurre l’effetto del bias o smontarlo. La tendenza di vedere dei bias in altri ma non in noi stessi (un bias chiamato self-serving) gioca un ruolo critico nella creazione ed escalation di conflitti. Il problema principale rimane che molte piattaforme online sono progettate in modo tale da favorire l’attivazione della dinamica che abbiamo discusso in precedenza, per cui interventi legislativi possono avere solo una funzione palliativa. In questa sezione, affronteremo tre esempi di come il quadro concettuale descritto sinora possa informare degli interventi di policy e come possa guidare la gestione del dibattito pubblico per evitare o limitare dinamiche di polarizzazione dannose alla vita democratica di una società.

 

Il primo caso si tratta di una classica soluzione di nudging: cambiare le opzioni di default. Precedenti studi hanno dimostrato come le persone spesso tendano ad usare il cosiddetto path of least resistance, in altre parole, tendono a rimanere con le opzioni di default piuttosto che fare uno sforzo per cambiarle. Per questa ragione, impostare le opzioni di default verso una direzione prescelta si traduce in un nudge verso tale esito di scelta o comportamento. Nella nostra esperienza quotidiana di consumatori, possiamo vedere questo nudge in atto in tantissimi casi. Ad esempio, quando acquistiamo qualcosa online spesso troviamo delle opzioni preselezionate per noi che dobbiamo rimuovere per evitare di ritrovarcele nel costo finale. Esempi di questo genere si trovano sui siti delle compagnie aeree e di molti siti di e-commerce. […]

 

Nel campo delle relazioni internazionali e diplomazia, esiste una corposa storia di esempi e strategia su come gestire conflitti e aiutare le parti in causa a raggiungere un accordo. Una delle tecniche usate che rispecchia bene quanto detto sinora è quella del reframing. Per reframing si intende il riformulare problemi in un frame (un quadro di riferimento) diverso per evitare che siano elaborati in termini di scorciatoie mentali polarizzanti e cercando di creare una base comune di discussione. […].

 

E’ esperienza quotidiana il fatto che ormai qualsiasi studente usi Internet come fonte principale di conoscenza, dalla semplice ricerca su Google all’uso di Wikipe-dia. Hanno accesso a una quantità di informazioni che non ha precedenti nella storia della istruzione umana. Eppure, nella maggioranza dei casi non ricevono delle “istruzioni d’uso” su come usare questo potente strumento di conoscenza in modo critico e utile. Quando ci troviamo in una condizione di abbondanza informativa, la capacità di selezionare il valore e la qualità delle informazioni è fondamentale specialmente alla luce dei bias cognitivi che abbiamo e dalla quantità di informazione scadente o disinformazione presente online. La mia personale opinione è quella che non abbiamo migliore difesa delle modalità e della “grammatica” di ragionamento che viene fuori dai decenni di ricerca scientifica, i quali non sono perfetti, ma costituiscono il modo più efficace per stabilire il valore epistemico dell’informazione che troviamo di fronte. Non si tratta di creare tanti piccoli Spock (il personag-gio di “Star Trek” tutto logica e freddo ragionamento) ma dotare gli studenti di modi per dare giudizi sul valore di attendibilità delle informazioni che trovano online. Per la verità, questo sarebbe altrettanto utile anche per gli adulti, ma per gli studenti possediamo un luogo dove fornire questa forma di istruzione. A questo si aggiunge la considerazione che esistono meccanismi di “fiducia epistemica” , vale dire il fidarsi della attendibilità delle informazioni che troviamo su Internet, che sono specifici della Rete stessa. Nel contesto offline, esistono delle norme sociali, spesso tacite, di criteri di valutazione della qualità delle informazioni che spesso dipendono dalla chiara riconoscibilità della competenza dei nostri informatori attraverso, ad esempio l’appartenenza a istituzioni che si preoccupano di mantenere alti gli standard. Per questa ragione, ci si rivolge agli “esperti”, pur essendo questa definizione ormai diventata molto elastica e sotto attacco (soprattutto in termini di imparzialità e buona fede di tali esperti). Online quest’ordine epistemico tradizionale non è rispecchiato per cui l’esercitare fiducia epistemica diventa molto più problematico. Questo problema si è reso particolarmente visibile nelle piattaforme che richiedono delle fiducia epistemica per funzionare, come i sistemi di e-commerce dove il sistema delle recensioni sia di prodotti che di venditori (ad esempio, Ebay) ha cercato di implementare un sistema di validazione e fiducia epistemica. Lo stesso si può dire delle piattaforme di collaborazione come Wikis che hanno un sistema per verificare le fonti e la validità delle informazioni prodotte. Rendere consapevoli i giovani utenti della Rete è lo scopo di tanti programmi di digital literacy che sono stati introdotti nei curricula di vari paesi.

Di più su questi argomenti: