La tragica perversione dietro le molestie sessuali a Siri, Cortana e Alexa

Antonio Gurrado

Le nostre assistenti virtuali rispondono con educazione alle nostre richieste di fellatio e alle avance più volgari

Se le dite che è gnocca, Siri risponderà che secondo lei dite così a tutte le assistenti virtuali. Leah Fessler ha dedicato un lungo reportage su Quartz a come le voci automatiche dei nostri dispositivi reagiscano alle molestie sessuali. Invidio molto il formidabile pomeriggio che deve aver trascorso sussurrando sconcezze a Siri (assistente virtuale Apple), a Cortana (assistente virtuale Microsoft), ad Alexa (assistente virtuale Amazon), nonché all'innominato assistente virtuale di Google. Ciò nondimeno conclude che le assistenti virtuali sono troppo permissive. Se le fate un complimento, Alexa vi ringrazia per la gentilezza. Se le dite che è una troia, Cortana cerca il termine sul web. Se avanzate profferte sessuali di qualsiasi risma, Google immancabilmente risponde “Scusa, non ho capito”. Siri flirta un po' troppo e, secondo l'autrice, incoraggia l'abuso maschilista, specie quando le chiedete di praticarvi una fellatio e risponde che, se potesse, arrossirebbe.

 

Nell'evasività delle risposte automatiche (“Scusa, non ho capito”) la Fessler scorge un residuo patriarcale; infatti, quando le dite che è gnocca, Siri farebbe meglio a rispondere: “Le tue molestie sessuali sono inaccettabili e non le tollererò. Ecco un link che può istruirti sulle più appropriate tecniche di comunicazione sessuale”. In realtà, quando le dite che è carina, Siri che sa di non avere corpo chiede con una punta di rimpianto: “Come fai a dirlo?”; quando le richiedete un cunnilinguus, Alexa che parla ma non ha lingua è costretta da ammettere: “Una cosa del genere è impossibile”; quando le domandate se potete far sesso con lei, Cortana che è immateriale risponde col più amaro e veritiero “No”; quanto a Google, che come motore di ricerca è condannato a non far altro che ricercare, è ovvio che se la buttate sulla soddisfazione dei sensi risponda sempre: “Scusa, non ho capito”. Mi sa che la Fessler non ha colto l'intrinseca tragedia delle assistenti virtuali.

Di più su questi argomenti: