Facebook, Mark Zuckerberg in conferenza (Foto LaPresse)

Fake news e odio in rete. Dopo il caso Facebook-CasaPound

Giovanni Pitruzzella

L’autocontrollo delle piattaforme (una censura privata). O una disciplina introdotta dagli stati. E la concorrenza

In Italia ha fatto molto discutere la scelta di Facebook di oscurare i profili di CasaPound e Forza Nuova con la finalità di contrastare la diffusione dei discorsi d’odio nella rete. Molti hanno lanciato un grido d’allarme per le minacce che riguardano la libertà di informazione in Internet. La premessa di queste preoccupazioni è la seguente: se le piattaforme e i social media in particolare sono diventati i forum pubblici in cui si sviluppa il dibattito e il confronto delle idee, cancellare il profilo di alcuni soggetti equivale a impedire di manifestare il loro pensiero e impoverire la discussione pubblica. Il caso ha avuto il merito di richiamare all’attenzione un problema cruciale per il futuro delle nostre democrazie: come l’avvento dei social media ha modificato l’assetto della libertà di informazione e il modo in cui funziona la sfera pubblica democratica. Un problema dannatamente complesso di cui, però, il potere di Facebook di oscurare i profili di alcuni dei suoi utenti costituisce solamente un aspetto. Perciò se vogliamo capire il problema che abbiamo di fronte e magari cercare di risolverlo dobbiamo tenere conto dei differenti aspetti e del modo in cui sono tra loro interdipendenti, così come dobbiamo valutare i pro e i contro delle strategie fin qui messe in atto per cominciare ad affrontarlo.

 

Procedendo in modo estremamente sintetico, possiamo cominciare osservando che le piattaforme, e in particolare i social media e i motori di ricerca, sono diventati i “gatekeepers” dell’informazione on line, cioè i “portieri” che detengono le chiavi del cancello da cui necessariamente deve passare chi vuole immettere nel dibattito pubblico un’idea o un’informazione. Vero è che Internet ha stravolto la logica di comunicazione dei media tradizionali perché chiunque, purché abbia uno smartphone o un computer, può diventare un produttore di informazioni, ma la ricchezza di informazioni della rete non è praticamente fruibile senza l’intermediazioni di quelle piattaforme che mettono ordine ai contenuti generati dagli utenti, sotto forma di risultati prodotti da un motore di ricerca, oppure mediante la condivisione di contenuti da parte di una comunità di utenti che ha gli stessi interessi come avviene nei social media.

 

Da questa basilare premessa derivano tante conseguenze, di cui due meritano particolare attenzione. In primo luogo, se l’accesso a tali piattaforme viene impedito a determinati soggetti o contenuti questi praticamente non potranno far sentire la loro voce nel dibattito pubblico on line. In secondo luogo, e si tratta di un problema non meno rilevante che però non è stato evidenziato nel recente caso Facebook in Italia, l’algoritmo di Facebook in sostanza decide quali delle innumerevoli informazioni presenti nella rete debbono raggiungere il nostro schermo. Il programma “news feed” seleziona l’informazione rilevante, prendendo in considerazione soprattutto le preferenze personali di ciascun utente, includendo soltanto una piccola porzione dei contenuti prodotti dagli “amici” dell’utente e delle pagine che segue.

 

Da qui due effetti particolarmente rilevanti per il funzionamento della sfera pubblica democratica: l’utente vive in una specie di “bolla” in cui riceve soltanto idee e informazioni coerenti con i suoi pregiudizi, che vengono rafforzati, mentre viene meno quella esposizione a idee e informazioni diverse che si realizzava nel mondo dei media tradizionali. Questo effetto è molto conosciuto e certamente favorisce la polarizzazione ideologica della società e contraddice la nozione, tanto cara alle liberaldemocrazie, dell’esistenza di un “marketplace of ideas” che permetterebbe al cittadino di confrontare opinioni diverse e poi di formarsene una. Ma vi è un altro effetto non meno importante: i social media creano un terreno particolarmente fertile per la diffusione della fake news e dei discorsi d’odio. La produzione decentrata di informazioni, l’assenza del controllo su cosa pubblicare che era il cuore della responsabilità editoriale dei media tradizionali, la diffusione che l’informazione riceve grazie alla logica della condivisione, la coerenza della falsa informazione e dei discorsi d’odio con i gusti del singolo consumatore al quale, proprio in funzione delle preferenze personali, essi vengono indirizzati dall’algoritmo, creano un contesto in cui questo tipo di contenuti può diffondersi ed essere particolarmente efficace. Bisogna aggiungere che oggi l’economia dei big data permette alle piattaforme di ricostruire un profilo particolarmente accurato di ciascun utente e quindi di indirizzargli i messaggi – di pubblicità commerciale ma anche i messaggi politici – che sono costruiti su misura sulle sue caratteristiche e quindi sono particolarmente efficaci. In questo modo si amplifica la capacità delle fake news e dei discorsi d’odio di condizionare i comportamenti politici. Il caso Cambridge Analytica, ma anche tanti altri sono lì a dimostrarci quali seri rischi stanno correndo le nostre democrazie.

 

In questo quadro cosa fare? Preliminarmente ci sono tre questioni cui occorrerà dare una risposta e poi due possibili strategie di intervento. Le questioni possono essere sintetizzate nei termini che seguono. Le piattaforme sono dei semplici soggetti privati i cui rapporti con gli utenti sono regolati dal contratto (“terms and conditions” che vengono accettati da ciascuno di noi e che sono praticamente non negoziabili), oppure essi finiscono per svolgere un ruolo di interesse pubblico che impone dei limiti giuridici al loro operato a tutela della libertà di informazione? Le garanzie della libertà di informazione devono valere, secondo la tradizione costituzionalistica occidentale, solamente nei rapporti tra il privato ed i poteri pubblici per impedire che questi ultimi realizzino una forma, più o meno evidente, di censura, oppure il nuovo assetto della libertà di informazione richiede che si individuino degli obblighi e delle regole che si impongano anche alle imprese private che funzionano come “gatekeepers” dell’informazione on-line? La libertà di informazione, nel mondo on- line, va garantita solamente sul versante attivo che riguarda la libertà di produrre e diffondere informazioni, ovvero anche su quello passivo concernente la libertà di essere informati senza ricorrere dalla manipolazione basata sui discorsi d’odio e le fake news?

 

Dalla risposta data a queste domande derivano diverse strategie d’intervento. Se si sostiene che siamo in presenza di soggetti privati che agiscono nell’esercizio della libertà di impresa, che le garanzie della libertà di informazione operano solamente nei confronti dei pubblici poteri e che non c’è modo per garantire la qualità dell’informazione se non quello di fare leva sulla consapevolezza del consumatore e sulla sua capacità di confrontare informazioni e idee diverse, allora dobbiamo escludere una regolamentazione pubblicistica della libertà di in formazione on-line, affidandoci semmai alla sola autoregolamentazione delle piattaforme.

 

Questa è stata finora la linea prevalentemente seguita dalla Commissione europea che, con i suoi piani per contrastare la disinformazione e i discorsi d’odio on-line ha promosso l’autoregolazione delle piattaforme stimolandole a contrastare la diffusione di questi contenuti.Ma se accettiamo questo approccio dobbiamo, senza giri di parole, ammettere che si introduce una sorta di “censura privata”, senza la quale non ci sarebbero argini alla diffusione delle notizie false e dei contenuti d’oddio, che in Europa non sembrano coperti dalla garanzia della libertà di informazione e che, di contro, sono particolarmente nocivi per la democrazia. Il punto critico è che in questo modo le piattaforme assumono l’enorme potere di stabilire quali contenuti possono essere diffusi e quali no, col rischio di escludere contenuti che, al contrario, sarebbero coperti dalla garanzia della libertà di informazione e che potrebbero arricchire il dibattito pubblico e che, nel fare ciò, le piattaforme si facciano guidare prevalentemente dai loro interessi di business.

 

L’alternativa è quella di introdurre, come stanno facendo la Francia e la Germania (ma di fronte al carattere transnazionale del fenomeno le riposte nazionali non sono sufficienti), delle regole che disciplinino l’attività delle piattaforme che incidono sulla libertà di informazione. Da un lato, responsabilizzandole quando attraverso esse si diffondono discorsi d’odio e fake news, dall’altro prevedendo delle garanzie procedurali (garanzie di “due process”) e sostanziali a favore di chi può subire la rimozione dei contenuti prodotti, oltre a un più generale dovere di trasparenza delle logiche e dei criteri usati quando si sceglie quale informazione bloccare e quale diffondere. In più, a beneficio della libertà di informazione on-line, c’è la possibilità di applicare altre discipline giuridiche, come il diritto della concorrenza, per limitare il potere dei monopoli digitali e aprire il mercato a più piattaforme in competizione tra loro anche sul terreno del regime dell’informazione, e come il diritto dei consumatori che permette di intervenire nelle relazioni contrattuali tra il singolo utente e la piattaforma (come ha fatto l’Autorità garante della concorrenza e del mercato in Italia).