Così YouTube è diventato un grande esperimento sulla radicalizzazione

Un articolo del New York Times e le reazioni (blande) dell'azienda, che per combattere le fake news si vuole affidare a Wikipedia
di
15 MAR 18
Immagine di Così YouTube è diventato un grande esperimento sulla radicalizzazione

Foto via Pexels

Finché si tratta di vegetariani e vegani, non è un gran problema. Il sistema è stato pensato esattamente per questo tipo di video, e spesso funziona: se vuoi diventare un esperto di tè cinese o vuoi sapere tutto sui nuovi modelli di smartphone, YouTube è eccellente. Ma il pericolo arriva quando si comincia a parlare di politica, scienza e religione. Uno studio pubblicato a febbraio dal Wall Street Journal ha mostrato, per esempio, che YouTube propone contenuti politici estremi a chi cerca video di politica mainstream. Esattamente come è facile passare dalle lasagne vegetali al veganesimo, lo è altrettanto passare da Donald Trump al neonazismo, o da Hillary Clinton all’estremismo di sinistra. Se si guarda un video sulla teologia islamica si finisce su video che simpatizzano con l’Isis, se si guarda un video storico sull’Olocausto si finisce su video negazionisti, se si guarda un video sui vaccini ben presto arriveranno quelli degli antivaccinisti, e così via per i terrapiattisti, i negazionisti dello sbarco sulla luna e quelli che dicono che l’undici settembre fu un “inside job” di George W. Bush. I produttori di contenuti lo sanno, ed enfatizzano questa tendenza al sensazionalismo. Spesso lo fanno per ottenere più clic possibile, ma a volte si tratta di malintenzionati, dai reclutatori dell’Isis in giù, che sfruttano le debolezze dell’algoritmo per attrarre attenzioni e seguaci.
L’articolo sul Grande radicalizzatore ha generato dibattito in questi giorni, ed è anche per questo che martedì la ceo di YouTube, Susan Wojcicki, ha annunciato nuove misure per combattere le fake news. La più rilevante è quella di allegare ai video controversi i link degli articoli di Wikipedia corrispondenti (per esempio: un video antivaccinista avrà in bella vista il link alla pagina di Wikipedia sui vaccini). Non sembra una mossa molto efficace, anche contando che Wikipedia può essere modificata da chiunque, e che intorno alle voci più controverse spesso si generano dibattiti feroci all’interno della comunità.
YouTube ha scoperto troppo tardi che il suo algoritmo, pensato per i video di ricamo e per le ricette delle lasagne, è diventato uno strumento di radicalizzazione. L’anno scorso molti inserzionisti pubblicitari hanno abbandonato la piattaforma perché i loro marchi finivano associati a video di estremismo islamico. YouTube ha promesso di fare pulizia, ma ormai l’infestazione di video estremisti, disturbanti o pericolosi sembra inarrestabile. Martedì l’azienda ha perfino annunciato che ridurrà le ore di lavoro dei dipendenti pagati per guardare e cancellare i video estremi: i poveretti hanno problemi di stabilità mentale, i filmati disturbanti sono troppi e troppo terribili.