Un fotogramma del video dell'attentatore di Christchurch pubblicato su Facebook (Immagini prese da Facebook)

Il disastro di Facebook e YouTube con il video del massacro neozelandese è prova di un problema strutturale

Eugenio Cau

Le due piattaforme hanno pubblicato dati per cercare di discolparsi, ma la loro intelligenza artificiale ha fatto cilecca ed è stata raggirata da estremisti esperti

Milano. Quando il terrorista suprematista di Christchurch ha cominciato la diretta Facebook in cui ha filmato dal vivo parte del primo attacco a una moschea piena di fedeli in preghiera, circa 4.000 persone si sono connesse come spettatori. Di queste, nessuno ha pensato per 29 lunghissimi minuti di segnalare il video a Facebook. “Segnalare un video” significa: dire a Facebook – o alla piattaforma di turno – che un certo contenuto è violento, incita all’odio o comunque viola le regole, deve essere controllato e, nel caso, rimosso.

 

Segnalare è un’attività importante, perché Facebook non riesce quasi mai ad accorgersi in maniera automatica se un contenuto è violento, pericoloso o incita all’odio, e questo è un aspetto spesso gonfiato della descrizione che le piattaforme fanno di se stesse: usiamo l’intelligenza artificiale per proteggervi!, dicono, ma in realtà l’intelligenza artificiale non è abbastanza intelligente. C’è bisogno che qualcuno segnali il contenuto, e c’è bisogno che un essere umano controlli che il contenuto sia effettivamente in violazione delle regole, e poi a quel punto, e soltanto a quel punto, l’intelligenza artificiale può essere attivata per evitare che siano riproposti contenuti simili (eppure anche così è possibile menare per il naso gli algoritmi).

 

Insomma, lo stragista di Christchurch manda in diretta il video in cui ammazza decine di persone inermi e, secondo i dati che Facebook ha pubblicato in un post di aggiornamento sulla vicenda, viene visto 200 volte da 4.000 persone. Queste 4.000 persone ci mettono un’enormità di tempo a segnalare il video a Facebook: la prima segnalazione arriva 29 minuti dall’inizio della diretta e 12 minuti dalla fine della stessa (il video durava 17 minuti). Nessuno segnala, ma qualcuno scarica: “Prima ancora che venissimo a conoscenza del video, un utente di 8chan aveva postato il link a una copia del video in un sito di file sharing”, scrive Chris Sonderby, vicepresidente di Facebook che fa parte del team legale. Significa: qualcuno aveva scaricato il video e l’aveva ricaricato su uno di quei siti in cui si condividono cose da scaricare, e aveva diffuso il modo per scaricarlo su 8chan, un famoso forum in cui pullulano suprematisti bianchi e neonazi.

 

Appena riceve la segnalazione, Facebook cancella il video del massacro, ma ormai era troppo tardi: le copie erano già in circolazione, e da quel momento comincia una battaglia tra le piattaforme e decine di migliaia di utenti che, per sostegno alla causa oscena del terrorista o per semplice dabbenaggine, hanno fatto di tutto per rendere il video virale. Il prossimo passo da capire è: c’è stato o no un movimento coordinato di sodali o sostenitori dello stragista che ha contribuito a diffondere il suo video e il suo manifesto ideologico? Il giorno stesso dell’attentato, un uomo di 18 anni è stato arrestato dalla polizia neozelandese. Inizialmente si pensava che fosse un complice, poi si è scoperto che non aveva niente a che vedere con l’esecuzione materiale dell’attentato, e che invece aveva contribuito a diffondere il video dell’attacco, commentandolo con frasi e altre immagini d’odio. La polizia non lo ha ancora rilasciato e ieri un giudice ha rifiutato il rilascio su cauzione.

 

Secondo informazioni diffuse da Facebook nel fine settimana, nelle prime 24 ore dopo l’attentato il video è stato ricaricato sulla piattaforma 1,5 milioni di volte e, di queste, 1,2 caricamenti sono stati bloccati dall’algoritmo – gli altri 300 mila sono stati pubblicati, almeno per un po’. YouTube si è trovato in una situazione simile: nelle “prime ore” dopo l’attentato i dirigenti dell’azienda hanno detto al Washington Post che il video veniva caricato e ricaricato, con alcune modifiche per sfuggire all’algoritmo, almeno una volta al secondo, e YouTube è stato costretto a ricorrere a misure di emergenza. Anche in questo caso, l’intelligenza artificiale ha fatto cilecca, per una ragione molto semplice: piattaforme come Facebook e YouTube sono state create per diffondere contenuti incendiari, non per limitarli.

Di più su questi argomenti:
  • Eugenio Cau
  • E’ nato a Bologna, si è laureato in Storia, fa parte della redazione del Foglio a Milano. Ha vissuto un periodo in Messico, dove ha deciso di fare il giornalista. E’ un ottimista tecnologico. Per il Foglio cura Silicio, una newsletter settimanale a tema tech, e il Foglio Innovazione, un inserto mensile in cui si parla di tecnologia e progresso. Ha una passione per la Cina e vorrebbe imparare il mandarino.