Facebook attiva un servizio che non ti fa suicidare

Zuckerberg lancia negli Stati Uniti un sistema per la prevenzione dei suicidi che si avvale di un'intelligenza artificiale che interpreta i messaggi

Facebook attiva un servizio che non ti fa suicidare

L’intelligenza artificiale applicata a Facebook potrebbe risultare utile per aiutare persone depresse e con tendenze suicide. Il piano rientra nella nuova visione “politico-sociale” che Mark Zuckerberg ha sviluppato per il social network da lui fondato, delineata nel manifesto-post pubblicato sul suo profilo la scorsa settimana e annunciato oggi.

 

Facebook ha sviluppato un algoritmo in grado di riconoscere determinati “campanelli d’allarme” insiti in quello che gli utenti pubblicano e nei commenti lasciati dai loro amici. Parole come “tristezza” e “piangere”, se ricorrenti nei post, verrebbero lette come un segnale di depressione, lo stesso vale per commenti da parte degli amici come “stai bene?” o “sono preoccupato per te”.

 

Una volta che un post con queste caratteristiche è stato individuato, viene segnalato allo Human Review Team che controlla i post e deve confermare l’eventuale rischio. A quel punto Facebook contatta il diretto interessato cercando di instaurare un rapporto diretto e offrendo supporto.

  

Per ora la funzione è attiva solo negli Stati Uniti, in prova, ed è il primo caso di intelligenza artificiale capace di "leggere" e interpretare la messaggistica sul social network. Sono anni che Facebook ha un servizio di supporto per profili considerati a rischio suicidio, ma fino a ora si basava esclusivamente sulle segnalazioni da parte di altri utenti.

 

John Draper, direttore del National Suicide Prevention Lifeline, ha lodato l’iniziativa ma ha anche auspicato che Facebook faccia di più che offrire semplicemente supporto, ad esempio contattando qualcuno che intervenisse direttamente. “Più riusciamo a mobilitare una rete di supporto per gli individui in difficoltà – ha detto Draper – più è possibile fornirgli l’aiuto che gli serve”. Il punto è capire come riuscire a intervenire senza risultare eccessivamente invasivi della privacy degli utenti di Facebook, ma già questo sistema – ha aggiunto – è “un enorme passo avanti”.

 

Altre forme di supporto da parte di Facebook includono un sistema di messaggistica tra l’utente e il team della piattaforma che si attiva quando si effettuano dirette live segnalate come a rischio. Il supporto via chat è stato attivato dopo che una ragazza quattordicenne, a Miami, si è suicidata filmandosi in diretta sul social network.

 

Anche quest’opzione è per ora limitata agli Stati Uniti. Prima di espanderla ad altri paesi Facebook deve verificare che siano effettivamente disponibili associazioni e infrastrutture di supporto adeguate. In America Facebook si appoggia ad associazioni nazionali come Save.org e la sopracitata US National Suicide Prevention Lifeline.

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Servizi