PUBBLICITÁ

I vincoli legati all’audience. Idee contro il far west dei social

Stefano Quintarelli

Oltre il caso Trump. Come fare un passo in avanti nella regolamentazione dei comportamenti individuali sul web

PUBBLICITÁ

Può un presidente di una nazione essere cancellato da Twitter o Facebook? Sono servizi privati che non hanno alcun obbligo di universalità, quindi la risposta breve è: si, non esiste un diritto a priori di partecipazione ad un social. In alcuni casi, tuttavia, qualche tribunale ha ordinato al gestore il reintegro dell’utente escluso perché la sua espulsione non era legalmente valida e gli avrebbe generato un danno. E’ successo in Italia per Casapound e Facebook. Essere su Twitter, Facebook, Instagram, Tiktok può essere un diritto a priori ? Se lo chiedessimo ad un adolescente, la risposta sarebbe ovviamente si. In quell’ambiente si svolge una parte importantissima della sua vita relazionale. Forse andrebbe riconosciuto il loro ruolo di servizio al pubblico. Ma chi è responsabile delle cose che vengono dette sui social ? In USA, secondo la sezione 230 della legge sulla “decenza nelle comunicazioni”, il gestore non è responsabile per i contenuti ospitati. Lo diventa se, a fronte di una segnalazione, non agisce per rimuoverli.

ABBONATI PER CONTINUARE A LEGGERE
Se hai già un abbonamento:

Altrimenti


Può un presidente di una nazione essere cancellato da Twitter o Facebook? Sono servizi privati che non hanno alcun obbligo di universalità, quindi la risposta breve è: si, non esiste un diritto a priori di partecipazione ad un social. In alcuni casi, tuttavia, qualche tribunale ha ordinato al gestore il reintegro dell’utente escluso perché la sua espulsione non era legalmente valida e gli avrebbe generato un danno. E’ successo in Italia per Casapound e Facebook. Essere su Twitter, Facebook, Instagram, Tiktok può essere un diritto a priori ? Se lo chiedessimo ad un adolescente, la risposta sarebbe ovviamente si. In quell’ambiente si svolge una parte importantissima della sua vita relazionale. Forse andrebbe riconosciuto il loro ruolo di servizio al pubblico. Ma chi è responsabile delle cose che vengono dette sui social ? In USA, secondo la sezione 230 della legge sulla “decenza nelle comunicazioni”, il gestore non è responsabile per i contenuti ospitati. Lo diventa se, a fronte di una segnalazione, non agisce per rimuoverli.

PUBBLICITÁ

 

 

PUBBLICITÁ

In Europa, rispetto a contenuti violenti/diffamatori vale la Direttiva eCommerce con disposizioni molto simili alla sezione 230. Valutare la liceità di un contenuto è un compito che spetta a una corte. Affidarne la rimozione preventiva ad un privato, come determina la Direttiva  Copyright per i contenuti protetti, equivale ad affidargli un primo livello di giudizio. I tweet di Trump sono illeciti? E’ praticamente impossibile a dirsi. Lo dovrebbe stabilire una corte. Di certo sono pieni di falsità, ma mentire, generalmente, non è illecito. Lo diventa quando dalla menzogna scaturiscono effetti nocivi per qualcuno (per es. diffamazione), casi che devono essere valutati da una corte. A ben vedere esiste un caso in cui la menzogna è illecita in sé: si tratta dell’aggiotaggio informativo per cui non occorre che, a fronte di una menzogna, il prezzo delle azioni sul mercato borsistico sia effettivamente variato. La menzogna stessa, tesa ad alterare un corso borsistico, è di per sé un reato. Ora ci si interroga se la rimozione degli account di Trump sia un atto legittimo e opportuno e si invocano dei cambiamenti regolamentari. Lo stesso Trump è intervenuto più volte sulla sezione 230 ed in Europa la Commissione ha presentato lo scorso dicembre una nuova proposta di regolamentazione per i servizi digitali. Intervenire per regolamentare i social è tema assai delicato: si toccano alcuni diritti fondamentali. Nel merito si possono detestare i messaggi di incitamento alla violenza che circolano in alcune parti dell’app Parler, ma non deve essere Amazon a chiudere i loro server ed Apple a rendere impossibile installare l’app sugli iphone eliminandola dall’app store. Non possono essere le meganazionali di Internet i custodi dei diritti delle persone. Le persone devono poter essere libere di esprimersi, eventuali illeciti devono essere accertati solo da corti. Prima dei social le persone potevano esprimersi rivolgendosi a piccoli gruppi in totale libertà: pensiamo allo speakers’ corner a Londra, ai cineforum o ai bar. Chi si poteva rivolgere a platee vaste erano gli editori per i quali valevano (e valgono) regole diverse che prevedono un Direttore – per l’appunto – Responsabile, l’obbligo di rettifica, aggravanti per determinati illeciti, ecc. Con i social si estende la potenzialità di espressione del singolo individuo dalle precedenti audience limitate a audience caratteristiche di grandi editori, ma senza una regolamentazione specifica. Sulla base delle considerazioni che “free speech is not free reach” e che da grandi audience derivano grandi responsabilità, si potrebbe prevedere una gradualità regolamentare (regulatory ladder) che ponga dei vincoli crescenti in funzione dell’audience. Ad esempio, non cambiare nulla della situazione attuale per persone con un numero di follower inferiore a 20mila, prevedere l’obbligo di identificabilità (ad esempio con un meccanismo simile a quello dell’uso dei wifi al bar) in caso di illeciti per gli utenti con un numero di follower compreso tra 20 e 100 mila, prevedere una identificazione preventiva per gli utenti con più di 100mila follower e, per le persone con maggiori audience, misure simili a quelle che regolano gli editori, come ad esempio il diritto alla rettifica. Come abbiamo imparato con il COVID, la velocità di diffusione è un elemento cruciale nelle epidemie. Ci sono stati esperimenti che hanno dimostrato che si può limitare la viralità di determinati contenuti introducendo delle frizioni alla diffusione. Questa tecnica è stata usata in modo radicale da Twitter, impedendo il retwit di alcuni twit di Trump. Una misura simile potrebbe essere amministrata con maggiore gradualità. Ad esempio i primi 1000 utenti potrebbero vedere il twit in tempo reale, i primi 10mila dopo un’ora dalla pubblicazione, i primi 100mila dopo quattro ore, il primo milione dopo otto ore, ecc. Questa misura di “rate limiting”, che è pratica comune in alcune attività informatiche, potrebbe scattare per i grandi operatori per i soli tweet che una intelligenza artificiale giudicasse come potenzialmente controversi. Infine, per alcune categorie di particolare rilevanza per la società, si potrebbe prevedere, solo riguardo persone con audience molto vaste, un illecito di manipolazione informativa dolosa, procedibile in tribunale per querela di parte da chi sia danneggiato anche indirettamente. Le multe potrebbero essere comminate in funzione del numero di follower, poniamo ad esempio un massimo di 5 centesimi a follower. Dato che personalmente ho 25 mila follower su Twitter, secondo questa proposta ricadrei nei soggetti identificabili indirettamente e, qualora un tribunale accertasse l’intento doloso di una mia menzogna, potrei essere sanzionato con un massimo di 1250 euro. Trump, con i suoi 88 milioni di follower, a fronte di una denuncia per manipolazione informativa dolosa che fosse riscontrata fondata, potrebbe essere sanzionato con un massimo di 4 milioni.

 

I social sono qui per restare e la loro rilevanza è destinata ad aumentare. Per quelli che non svolgono attività di curatela di contenuti, prevedere responsabilità analoghe a quelle degli editori sarebbe decisamente controproducente mettondone a rischio la sussistenza, sfavorendo in special modo i nuovi entranti nel mercato. Prevedere obblighi e vincoli per tutti gli utenti è parimenti sproporzionato e foriero di compressione di diritti. D’altro canto, continuerà certamente ad aumentare la pressione per una responsabilizzazione dell’attività di pubblicazione online di contenuti che possono avere effetti anche drammatici sulle società. Bisogna stare molto attenti a non privatizzare la giustizia, non ridurre le garanzie per le persone e non limitare i diritti acquisiti.  Estremi regolatori, quali nessuna norma o misure bianco/nere per tutti, non possono funzionare. Se vogliamo fare dei passi in avanti bisogna ragionare su regolamentazione dei comportamenti degli utenti e non solo delle piattaforme, su approcci graduati per livello di audience, su gradualità delle misure ed entità delle sanzioni.

Di più su questi argomenti:
PUBBLICITÁ