Il disastro di Facebook e YouTube con il video del massacro neozelandese è prova di un problema strutturale
Le due piattaforme hanno pubblicato dati per cercare di discolparsi, ma la loro intelligenza artificiale ha fatto cilecca ed è stata raggirata da estremisti esperti
di
20 MAR 19

Un fotogramma del video dell'attentatore di Christchurch pubblicato su Facebook (Immagini prese da Facebook)
Milano. Quando il terrorista suprematista di Christchurch ha cominciato la diretta Facebook in cui ha filmato dal vivo parte del primo attacco a una moschea piena di fedeli in preghiera, circa 4.000 persone si sono connesse come spettatori. Di queste, nessuno ha pensato per 29 lunghissimi minuti di segnalare il video a Facebook. “Segnalare un video” significa: dire a Facebook – o alla piattaforma di turno – che un certo contenuto è violento, incita all’odio o comunque viola le regole, deve essere controllato e, nel caso, rimosso.
Segnalare è un’attività importante, perché Facebook non riesce quasi mai ad accorgersi in maniera automatica se un contenuto è violento, pericoloso o incita all’odio, e questo è un aspetto spesso gonfiato della descrizione che le piattaforme fanno di se stesse: usiamo l’intelligenza artificiale per proteggervi!, dicono, ma in realtà l’intelligenza artificiale non è abbastanza intelligente. C’è bisogno che qualcuno segnali il contenuto, e c’è bisogno che un essere umano controlli che il contenuto sia effettivamente in violazione delle regole, e poi a quel punto, e soltanto a quel punto, l’intelligenza artificiale può essere attivata per evitare che siano riproposti contenuti simili (eppure anche così è possibile menare per il naso gli algoritmi).
Insomma, lo stragista di Christchurch manda in diretta il video in cui ammazza decine di persone inermi e, secondo i dati che Facebook ha pubblicato in un post di aggiornamento sulla vicenda, viene visto 200 volte da 4.000 persone. Queste 4.000 persone ci mettono un’enormità di tempo a segnalare il video a Facebook: la prima segnalazione arriva 29 minuti dall’inizio della diretta e 12 minuti dalla fine della stessa (il video durava 17 minuti). Nessuno segnala, ma qualcuno scarica: “Prima ancora che venissimo a conoscenza del video, un utente di 8chan aveva postato il link a una copia del video in un sito di file sharing”, scrive Chris Sonderby, vicepresidente di Facebook che fa parte del team legale. Significa: qualcuno aveva scaricato il video e l’aveva ricaricato su uno di quei siti in cui si condividono cose da scaricare, e aveva diffuso il modo per scaricarlo su 8chan, un famoso forum in cui pullulano suprematisti bianchi e neonazi.
Appena riceve la segnalazione, Facebook cancella il video del massacro, ma ormai era troppo tardi: le copie erano già in circolazione, e da quel momento comincia una battaglia tra le piattaforme e decine di migliaia di utenti che, per sostegno alla causa oscena del terrorista o per semplice dabbenaggine, hanno fatto di tutto per rendere il video virale. Il prossimo passo da capire è: c’è stato o no un movimento coordinato di sodali o sostenitori dello stragista che ha contribuito a diffondere il suo video e il suo manifesto ideologico? Il giorno stesso dell’attentato, un uomo di 18 anni è stato arrestato dalla polizia neozelandese. Inizialmente si pensava che fosse un complice, poi si è scoperto che non aveva niente a che vedere con l’esecuzione materiale dell’attentato, e che invece aveva contribuito a diffondere il video dell’attacco, commentandolo con frasi e altre immagini d’odio. La polizia non lo ha ancora rilasciato e ieri un giudice ha rifiutato il rilascio su cauzione.
Secondo informazioni diffuse da Facebook nel fine settimana, nelle prime 24 ore dopo l’attentato il video è stato ricaricato sulla piattaforma 1,5 milioni di volte e, di queste, 1,2 caricamenti sono stati bloccati dall’algoritmo – gli altri 300 mila sono stati pubblicati, almeno per un po’. YouTube si è trovato in una situazione simile: nelle “prime ore” dopo l’attentato i dirigenti dell’azienda hanno detto al Washington Post che il video veniva caricato e ricaricato, con alcune modifiche per sfuggire all’algoritmo, almeno una volta al secondo, e YouTube è stato costretto a ricorrere a misure di emergenza. Anche in questo caso, l’intelligenza artificiale ha fatto cilecca, per una ragione molto semplice: piattaforme come Facebook e YouTube sono state create per diffondere contenuti incendiari, non per limitarli.