Google vuole creare la trappola perfetta per i troll online

Non solo Bebe Vio, anche persone comuni sono vittime degli attacchi in rete. Ecco il machine learning per migliorare le conversazioni sul web

Google vuole creare la trappola perfetta per i troll online

C’è un video che circola in rete da parecchio tempo: un cancello automatico separa un branco di cani da un altro. Ringhiano, sbraitano, si scagliano a ondate contro l’inferriata. Poi, mentre il cancello lentamente si apre, il parapiglia si raffredda. Sicché, trovandosi faccia a faccia, i due gruppi si allontanano senza azzuffarsi. Il video è stato usato più volte come esempio perfetto (e lo è) delle baruffe su internet. Lo schermo è il cancello virtuale dietro cui abbaiano hater, troll e cyber-bulli. Bebe Vio, leonessa da pedana, ha risposto con ironia agli sciacalli da tastiera che hanno aperto una pagina Facebook per attaccarla con minacce a sfondo sessuale e insulti. La campagna di Vio “dona un neurone a un hater” è un affondo ironico e micidiale: “E’ una raccolta per tutti quei disagiati che passano le loro giornate chiusi nelle loro stanzette a insultare gli estranei. E’ una raccolta di neuroni. Basta poco: dona un neurone anche tu. Se doni un neurone a un hater, hai già raddoppiato il numero dei suoi neuroni. Insieme possiamo farcela”. Game, set, match. Enrico Mentana invece abbandonò Twitter a causa delle offese online e Higuain, dopo il suo passaggio dal Napoli alla Juve ha dovuto chiudere il suo profilo Instagram.

 

Non sono solo i vip a subire l’odio su internet. Un'inchiesta pubblicata su "Novaja Gazeta" lo scorso maggio ha scoperchiato una serie di gruppi che istigano teenager al suicidio su VKontakte, il social network più diffuso in Russia. Nel novembre scorso il primo arresto: il 21enne Filipp Budejkin, noto come "Lis", amministratore di uno degli otto "gruppi della morte" avrebbe portato almeno 15 teenager ad uccidersi. Senza spingersi a tanto, anche i semplici commenti sui siti di informazione si trasformano spesso in tafferugli virtuali, con dosi massicce di insulti e violenza.

 

“Il 72 per cento degli utenti internet americani è stato testimone di episodi di questo tipo e almeno la metà di loro ha avuto un’esperienza diretta. Almeno un terzo di loro si autocensura per paura delle reazioni”, ha scritto Jared Cohen, presidente di Jigsaw, think thank di Google, in un post sul blog ufficiale della compagnia. “Pensiamo che la tecnologia possa aiutare a risolvere questo fenomeno”. Oggi Google e Jigsaw hanno lanciato Perspective, una tecnologia in fase sperimentale che usa il machine learning per identificare i commenti offensivi. Attraverso un’interfaccia di programmazione gli editori e le piattaforme possono avere accesso a questa tecnologia e utilizzarla per i propri siti.

 

Perspective dovrebbe funzionare come un moderatore virtuale: rivede i commenti e assegna loro un punteggio basato su quanto siano simili a commenti che gli utenti hanno indicato come “tossici” o tali da spingere le persone ad abbandonare la conversazione. Per imparare a identificare il linguaggio aggressivo, Perspective ha esaminato decine di migliaia di commenti che sono stati etichettati manualmente da revisori umani. E ogni volta che trova nuovi esempi di commenti offensivi, o la sua valutazione viene corretta dagli utenti, migliora la capacità di valutazione, in un meccanismo di autoapprendimento: anche se i modelli sono complessi, continueranno a migliorare nel tempo.

 

“Abbiamo testato una versione di questa tecnologia con il New York Times, dove c’è un team che controlla e modera ogni commento prima che venga pubblicato, revisionando oltre 11 mila commenti ogni giorno”, aggiunge Cohen. “Sono davvero moltissimi commenti, troppi per essere letti da un solo team. E infatti il Times offre la possibilità di commentare solo sul 10 per cento circa dei propri articoli. Abbiamo lavorato insieme per educare dei modelli che consentano ai moderatori del Times di selezionare i commenti più velocemente e speriamo che questo possa aumentare il numero di articoli commentabili.

 

Sinora la soluzione più comune agli attacchi dei troll era tentare di ignorare le provocazioni o applicare filtri che rendono invisibili al resto della comunità i messaggi inviati dagli utenti segnalati al sistema come disturbatori. Perspective potrebbe essere la trappola decisiva nella caccia a troll e hater.

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Servizi