Così YouTube il “radicalizzatore” ha evitato la responsabilità sui video estremisti

Eugenio Cau

“L’engagement” della piattaforma funziona grazie a un algoritmo che evita che cali l’attenzione dell'utente alzando in continuazione l’asticella dell’eccitamento. Con video violenti e complottisti

Milano. Quando le grandi imprese tecnologiche della Silicon Valley si trovano davanti a un problema o a uno scandalo, una tecnica facile per allontanarne le conseguenze è addurre impossibili impedimenti tecnici. Facebook viene usato dai militari in Myanmar come strumento per disseminare messaggi di odio genocidario? Il social network risponde che non ne sapeva niente, e come avrebbe potuto? Gli utenti sono due miliardi, e gli impedimenti tecnici sono così insormontabili che i non addetti ai lavori non se lo immaginano nemmeno. Quasi sempre, mesi dopo lo scandalo arrivano un’inchiesta giornalistica, un’interrogazione parlamentare o la rivelazione di un qualche whistleblower a svelare che in realtà l’impedimento tecnico non è mai esistito e che il problema è una leadership che non vuole assumersi nessuna responsabilità, e che mette il profitto davanti alla sicurezza degli utenti.

  

 

Sembra che questo momento sia appena arrivato per YouTube. Un articolo di Bloomberg accusa tutta la dirigenza del sito di streaming video di proprietà di Google di aver volutamente ignorato il problema dell’estremismo (estremismo islamico, estremismo di destra, estremismo antiscientifico) che proliferava sulla piattaforma, perché risolvere il problema sarebbe costato troppi soldi e perché avrebbe portato a YouTube delle responsabilità “editoriali” dalle quali le compagnie della Silicon Valley rifuggono da sempre.

 

Dopo un celebre articolo del New York Times di un paio d’anni fa, gli esperti hanno cominciato a chiamare YouTube “il grande radicalizzatore”. Per mantenere alto l’“engagement” del sito (significa: per tenere alta l’attenzione di miliardi di ragazzini in tutto il mondo che guardano video da mattino a sera) gli ingegneri di YouTube hanno studiato un algoritmo che evita che cali l’attenzione alzando in continuazione l’asticella dell’eccitamento. Questo algoritmo, tuttavia, ha portato a conseguenze inattese, perché i video eccitanti sono automaticamente quelli più violenti, tossici, complottisti. Uno cerca un video sullo spazio e l’algoritmo, dopo due-tre passaggi, gli propone un video che nega l’allunaggio; cerca un video sulla teologia dell’islam e l’algoritmo gli propone gli estremisti islamici (o, al contrario, gli propone i suprematisti neonazi); cerca la ricetta per lo sformato di patate e l’algoritmo gli dice che il sale da cucina fa venire il cancro. I bambini cercano video di Peppa Pig e dopo un po’ si trovano davanti a prodotti decisamente disturbanti.

 

Davanti alle critiche, YouTube ha usato varie tecniche per deflettere la responsabilità: ha citato la libertà d’espressione, ha cercato di minimizzare il problema, ma soprattutto si è appellato alla insormontabilità tecnica: milioni e milioni di video vengono caricati su YouTube, è impossibile individuare il problema e risolverlo, dicevano. In realtà, YouTube il problema l’aveva individuato, e con estrema precisione. Mark Bergen, l’autore dell’articolo di Bloomberg, ha parlato con decine di dipendenti e dirigenti presenti e passati di YouTube e di Google, e tutti gli hanno rivelato più o meno la stessa cosa: la leadership di YouTube, su fino a Susan Wojcicki, che è ceo della piattaforma, sapeva perfettamente che c’era un gigantesco problema di radicalizzazione e di contenuti tossici, ma non ha fatto niente per risolverlo. Anzi, ha sistematicamente silenziato tutti quelli che provavano a sollevare la questione. Perché? Perché i video complottisti, violenti ed estremisti portano utenti, e gli utenti portano soldi. A un certo punto, un impiegato di YouTube ha calcolato che, in quanto a popolarità ed engagement, i video della alt-right erano alla pari con quelli di musica, sport e videogiochi. Bergen racconta anche che i legali della compagnia avevano sconsigliato ai dipendenti di fare ricerche sui video tossici, perché avrebbero potuto costituire una prova del fatto che la compagnia sapeva della loro esistenza.

 

Nell’ultimo anno, YouTube ha fatto qualche passo (finora soprattutto sotto forma di comunicato stampa) per cercare di emendare il problema e cercare di inserire una clausola di responsabilità nell’algoritmo. Ma il sito di streaming rimane uno dei luoghi al tempo stesso più popolari e più tossici di internet, e riceve soltanto una frazione delle critiche indirizzate a Facebook.

Di più su questi argomenti:
  • Eugenio Cau
  • E’ nato a Bologna, si è laureato in Storia, fa parte della redazione del Foglio a Milano. Ha vissuto un periodo in Messico, dove ha deciso di fare il giornalista. E’ un ottimista tecnologico. Per il Foglio cura Silicio, una newsletter settimanale a tema tech, e il Foglio Innovazione, un inserto mensile in cui si parla di tecnologia e progresso. Ha una passione per la Cina e vorrebbe imparare il mandarino.