Facebook vuole salvare i suicidi (bene). Poi però ci salvi anche dalle fake news

Eugenio Cau

Un algoritmo che capisce se un utente vuole ammazzarsi

Roma. Facebook ha ben altri problemi che le fake news. Certo, nessuno conosce le priorità politiche del fondatore e ceo Mark Zuckerberg, e certo, il problema delle fake news, per il social network, è appunto politico. Si risolve con lavoro di lobby, impiegando la seconda in comando Sheryl Sandberg in un lungo tour tra i corridoi del Congresso a Washington, con annunci roboanti (“diecimila nuove assunzioni per visionare i contenuti!”). Ma ecco, quando si parla di soluzioni effettive l’impegno di Facebook sembra rivolto altrove. Quest’anno il social network ha detto che avrebbe risolto il problema delle bufale sulla sua piattaforma iniziando una collaborazione con i principali servizi di fact checking, che avrebbero dovuto riconoscere e segnalare le notizie false, ma la scorsa settimana il Guardian e altri giornali hanno raccontato che gli stessi fact checker considerano il progetto un grande fallimento. In generale, Facebook e gli altri social media annunciano da oltre un anno soluzioni al problema delle fake news senza che il problema sia stato scalfito.

 

Se qualcosa ha ossessionato il sonno degli sviluppatori di Menlo Park, sono le storie del signor Ayhan Uzun e della piccola Katelyn Nicole Davis. Lui, turco di 54 anni, si è suicidato in diretta su Facebook il mese scorso perché – così riportano i media che si sono occupati della questione – sua figlia si sarebbe fidanzata senza il suo permesso. Lei, inglese di 12 anni, ha registrato in diretta il suo suicidio su un altro sito, Live.me, ma quando lo stesso video è stato postato su Facebook il social network ci ha messo due settimane prima di accorgersene e di toglierlo. Ci sono decine di casi così: Facebook è usato da 1,3 miliardi di persone che condividono qualunque cosa, compresi i video dei loro suicidi, gli omicidi, i crimini, gli stupri, le violenze.

 

E’ comprensibile e giusto che un problema del genere sia in cima alla lista delle priorità di Facebook, ed è interessante il modo in cui il social network ha deciso di arginarlo. Ieri Mark Zuckerberg ha annunciato con un post che Facebook ha sviluppato un sistema di intelligenza artificiale che aiuta a prevenire i suicidi, o quanto meno a riconoscere chi potrebbe avere tendenze suicide molto più velocemente di qualunque revisore umano. Il sistema è proattivo, nel senso che l’intelligenza artificiale controlla (ergo: legge) i post e i contenuti degli gli utenti, e rileva i possibili contenuti a rischio. Se l’intelligenza artificiale giudica che un utente di Facebook abbia tendenze suicide in base ai suoi commenti o alle sue foto, avverte un operatore umano, che a sua volta può attivare protocolli di sicurezza come per esempio mettere in contatto il soggetto a rischio con società specializzate in prevenzione.

 

Il sistema sarà attivo in tutto il mondo tranne che nell’Unione europea, che ha regole stringenti sulla privacy, e non consente a Facebook di scansionare i post degli utenti a piacimento e senza chiedere il permesso. Questo è il lato orwelliano della faccenda: come facciamo a sapere che Facebook userà questa tecnologia per prevenire il suicidio e non, diciamo, per segnalare il dissenso politico nei popolosi ma autoritari stati asiatici? Non possiamo, bisogna fidarsi di Zuckerberg, anche perché il servizio è obbligatorio: non si può disattivare. Un sistema così surrealmente efficace rimane tuttavia ammirevole: è difficile distinguere un riferimento casuale alla morte (“se la mia squadra non vince lo scudetto mi attacco alla canna del gas”) da una reale minaccia di suicidio, e Zuck ha scritto che le cose possono solo migliorare: “Nel futuro l’AI sarà capace di comprendere di più sulle sfumature sottili del linguaggio, e sarà in grado di identificare altri problemi oltre al suicidio, come il bullismo e i crimini d’odio”. Molto bene.

 

Ma un attimo: anche scovare le fake news si basa sulle “sfumature sottili del linguaggio”. Forse che Facebook ha già la tecnologia per salvarci dalle bufale online? Per ora ha sempre detto di no. Ma siamo fiduciosi che dopo aver risolto il suicidio, il bullismo e i crimini d’odio, Zuck troverà un modo per cancellare in automatico anche i lucrosi annunci pagati dai troll russi.

 

Di più su questi argomenti:
  • Eugenio Cau
  • E’ nato a Bologna, si è laureato in Storia, fa parte della redazione del Foglio a Milano. Ha vissuto un periodo in Messico, dove ha deciso di fare il giornalista. E’ un ottimista tecnologico. Per il Foglio cura Silicio, una newsletter settimanale a tema tech, e il Foglio Innovazione, un inserto mensile in cui si parla di tecnologia e progresso. Ha una passione per la Cina e vorrebbe imparare il mandarino.