LaPresse/Fabio Cimaglia

L'algoritmo della legge

David Allegranti

Monitorare “le schifezze in rete”, fare una legge (ma forse nella prossima legislatura) per responsabilizzare i gestori e proteggere la democrazia. Lo scontro politico. Perché l’idea del Pd di passare all’azione non è una fake idea

Un report del Pd ogni 15 giorni “sulle schifezze in rete”, ha annunciato Matteo Renzi alla Leopolda. Un disegno di legge, a firma Zanda-Filippin, non ancora depositato e che realisticamente non vedrà la luce in questa legislatura, “ma – spiega il Pd di Palazzo Madama – può essere una buona base di partenza per la prossima legislatura”. Un “algoritmo verità”, cui sta lavorando la società di Marco Carrai, la Cys4, per capire tramite artificial intelligence “se una notizia è falsa”. Il Pd va alla cyberguerra, un tema serio, ma in ordine sparso. Renzi dice che “forse non servono leggi. Almeno, non credo che servano in questa fase”, il Pd al Senato ne vuole presentare una “per il contrasto della diffusione su internet di contenuti illeciti e delle fake news” e Matteo Orfini, presidente del Pd, dice che “non so se lo strumento migliore è una legge, o dare maggiori poteri all’Agcom, o cercare di coinvolgere (e questo penso sia fondamentale) in modo più attivo le piattaforme, a cominciare da Facebook, però una soluzione va trovata”.

  

L’obiettivo del disegno di legge Zanda-Filippin è quello di “limitare fortemente la pubblicazione e la circolazione di contenuti che configurino delitti contro la persona e alcune altre gravi fattispecie di reato che potremmo definire complessivamente come delitti contro la Repubblica”. Il disegno di legge prevede alcuni obblighi a carico del fornitore di servizi delle reti sociali. Come la “predisposizione di una procedura efficace e trasparente, accessibile a tutti gli utenti, per la gestione dei reclami relativi a contenuti illeciti”, la “rimozione o il blocco di tali contenuti entro un tempo definito” e la “pubblicazione ogni sei mesi di un dettagliato rapporto concernente la gestione dei reclami ricevuti per contenuti apparsi sulle proprie piattaforme. Il rapporto pubblicato sulla home page del social network deve essere facilmente individuabile, direttamente accessibile e permanentemente disponibile”. E nel caso in cui la rimozione o il blocco dell’accesso ai contenuti illegali non avvenga nei termini prescritti “il social network incorre in una sanzione da cinquecentomila a cinque milioni di euro”. Carrai ha anche un’altra idea, oltre all’“algoritmo verità” di cui ha parlato in un’intervista al Corriere: “Creare una piattaforma di natural language processing che analizzi le fonti giornalistiche e gli articoli correlandoli e, attraverso un grafico, segnali le anomalie. A mio avviso ciò dovrebbe essere fatto anche a livello istituzionale”. In attesa che il Pd chiarisca la propria linea sulla legge (sì o no?), il garante della privacy Antonello Soro dice che “come sempre ci sono spazi perché la legislazione diventi più puntuale, tutte le volte che si sposta il faro dal regime off line a quello online”. Tuttavia, dice Soro, bisogna evitare di attribuire a un algoritmo il compito di “arbitro della verità” in materia di fake news. 

  

“Quello che bisogna evitare – dice Soro – è da una parte attribuire ai gestori delle piattaforme digitali il ruolo di semaforo, lasciando loro una discrezionalità totale nella individuazione di contenuti lesivi. E dall’altra evitare di immaginare di attribuire a un algoritmo il compito di arbitro della verità. Mi sembra davvero in controtendenza non solo rispetto alla storia del diritto ma anche della cultura democratica e del buon senso”. Oltre a una questione normativa però c’è una questione culturale e riguarda l’ecosistema informativo e politico in cui viviamo. Secondo un rapporto del Reuters Institute for the Study of Journalism, il 72 per cento della popolazione online usa Facebook e il 51 per cento lo utilizza per le notizie, seguito da WhatsApp, YouTube, Twitter e Facebook Messenger. “La popolazione – dice al Foglio Cristian Vaccari, che insegna Comunicazione politica alla Royal Holloway, University of London – ha poca fiducia nell’informazione tradizionale, quindi può essere più portata a informarsi su canali alternativi”. La questione chiave, dice Vaccari, è che l’impatto di queste fake news “dipende da chi le vede. Se si tratta di una persona che già si informa su altri canali, l’impatto di un singolo messaggio può essere molto basso. Se invece si tratta di un elettorato disinteressato, poco informato, che segue poco il dibattito pubblico, allora l’effetto di un singolo messaggio può essere maggiore. Insomma, ci sono elettori più o meno sensibili alla disinformazione, dipende da quanto si interessano alla politica”. C’è un altro elemento da tenere in considerazione: “La natura visiva della disinformazione in rete. Le persone tendono a fidarsi più di un’immagine che di un testo scritto, perché pensano che un contenuto audiovisivo sia più difficile da contraffare, anche se sappiamo che non è così”. Chi produce fake news sfrutta l’emotività per catturare l’attenzione. “Ma una persona avveduta e informata mette istintivamente in dubbio una informazione o una immagine, come può essere quella la foto falsa di Boschi e Boldrini al funerale di Riina. Durante una campagna elettorale le persone sono esposte a tantissimi messaggi, ma non è mai un singolo messaggio a cambiare il corso di un’elezione. Berlusconi nel 1994 non fu votato solo per il famoso slogan in cui prometteva un milione di posti di lavoro, ma perché rappresentava istanze diffuse e in particolare il bisogno di cambiamento. Tutto però era coerente con le preferenze degli elettori, precedenti quel singolo messaggio. Secondo un articolo di BuzzFeed, uno dei contenuti più condivisi durante la campagna elettorale americana era la notizia falsa dell’appoggio del Papa a Trump. Ora, è vero che Trump ha vinto grazie a qualche decina di migliaia di voti in tre stati incerti, ma quante sono le persone che leggono quella notizia, ci credono e sulla base di quella informazione decidono di non votare più la Clinton ma Trump? E’ un tipo di elettore difficile da immaginare”. Quanto all’intervento dello stato, “bisogna stare attenti a non introdurre surrettizie, per quanto bene intenzionate, forme di censura”. E’ molto importante casomai, dice Vaccari, sviluppare “una cultura diffusa della rete, una maggiore consapevolezza di come funziona l’informazione in rete e sui social media, di come funzionano gli algoritmi e l’economia della rete. I clic portano soldi e dobbiamo spiegare bene al pubblico che se usa gratuitamente Facebook, Google, YouTube è perché c’è qualcun altro che ha pagato”. Con le inserzioni, con i nostri dati e in parte anche con le fake news che portano tanti soldi ai social media.

  • David Allegranti
  • David Allegranti, fiorentino, 1984. Al Foglio si occupa di politica. In redazione dal 2016. È diventato giornalista professionista al Corriere Fiorentino. Ha scritto per Vanity Fair e per Panorama. Ha lavorato in tv, a Gazebo (RaiTre) e La Gabbia (La7). Ha scritto cinque libri: Matteo Renzi, il rottamatore del Pd (2011, Vallecchi), The Boy (2014, Marsilio), Siena Brucia (2015, Laterza), Matteo Le Pen (2016, Fandango), Come si diventa leghisti (2019, Utet). Interista. Premio Ghinetti giovani 2012. Nel 2020 ha vinto il premio Biagio Agnes categoria Under 40. Su Twitter è @davidallegranti.