Maschere iperrealistiche prodotte da un’azienda giapponese (Kwiyeon Ha / Reuters)

Il Foglio Innovazione

Il ricercatore dei volti rubati

Andrea Nepori

Due chiacchiere con Adam Harvey, un americano-berlinese che ha scoperto come vengono addestrate le intelligenze artificiali. Con le foto di celebrity (ci sono anche i politici italiani) e con le vostre vecchie immagini. Soluzione: usare l’arte per difendere la privacy

In un vano tentativo di limitare le proteste degli ultimi mesi, le autorità di Hong Kong hanno istituito a inizio ottobre una legge speciale che vieta di indossare maschere in strada, una misura di epoca coloniale che fu invocata per l’ultima volta nel 1967. A differenza di allora, oggi i dimostranti non indossano le maschere soltanto per proteggersi dai fumogeni o per sfuggire all’identificazione da parte della polizia, ma anche e soprattutto per ingannare le telecamere usate per il riconoscimento facciale. Se alcuni si difendono indossando il volto stampato del presidente cinese Xi Jinping o una mascherina medica, altri hanno fatto ricorso ad acconciature fantasiose e a trucchi che coprono il volto o lo alterano per renderne impossibile il rilevamento. L’uso del make up e dei tagli di capelli per sfuggire al controllo delle telecamere di sorveglianza è una pratica preconizzata già più di dieci anni fa da CV Dazzle, un lookbook che raccoglie insoliti consigli di stile per generare un’anti-faccia, un trucco e parrucco futuribile che rende invisibili all’occhio digitale del grande fratello.

 

Il suo primo progetto fu una collezione di vestiti e accessori che mandavano in tilt le videocamere con riconoscimento facciale

Non c’è mai stato così tanto interesse per quel progetto come oggi, perché i dimostranti di Hong Kong ci hanno fatto capire che il riconoscimento facciale è un rischio concreto per la democrazia e la libertà di protesta” dice Adam Harvey, l’ideatore di CV Dazzle. Lo incontro a Berlino, dove si è trasferito nel 2016 dopo aver vissuto per molti anni a New York. Mi ha dato appuntamento in un caffè un po’ hipster vicino ad Alexanderplatz, dove non vedo telecamere di sicurezza e dove si può pagare in contanti, come piace ai tedeschi. “Berlino mi piace perché qui nessuno mi considera un criminale se pretendo di pagare cash per un cappuccino”, scherza. Harvey parla lentamente, con la compostezza di un professore universitario. E’ l’incarnazione perfetta dell’artista digitale contemporaneo, un po’ programmatore, un po’ ricercatore e giornalista investigativo, capace di applicare un solido pragmatismo scientifico alla creazione di opere artistiche difficili da catalogare e alle quali ci si riferisce spesso con la parola “project”.

 

CV Dazzle (2010) è la sua prima ricerca artistica che si possa definire completa e matura, ma per Harvey fu già l’approdo di un percorso iniziato all’università. Prima studente di ingegneria, poi di fotogiornalismo, Harvey arriva già nei primi anni 2000 a sviluppare un rifiuto della fotografia digitale in quanto sistema di sorveglianza indiretta, una teoria sulla quale baserà la sua tesi di laurea. “L’epoca romantica dei Cartier-Bresson non esiste più da un pezzo”, spiega. “Con l’avvento del digitale la fotografia è diventata un sistema di campionamento dello spettro elettromagnetico che evidenzia l’asimmetria fra i milioni di fotogrammi che possiamo archiviare in una memoria digitale e i soggetti ritratti, spesso a loro insaputa”. Dalla critica della fotografia come sistema di sorveglianza involontaria alla critica del controllo tout-court il passo è breve. Siamo sul finire dello scorso decennio, il periodo in cui iniziava a divenire evidente che i sistemi nati per garantire la sicurezza degli americani dopo l’undici settembre si stavano trasformando in armi non convenzionali di sorveglianza di massa. “Negli anni successivi all’attacco delle Torri gemelle le agenzie di sicurezza americane, nell’ambito di piani come il Total Information Awareness, hanno finanziato molte ricerche universitarie volte a migliorare i sistemi informatici per il rilevamento e il riconoscimento facciale”, spiega Harvey. Un campo in cui si sono buttate anche le società private del settore tecnologico, le stesse che poi le rivelazioni di Snowden, nel 2013, collegheranno ai programmi di sorveglianza della Nsa.

 

Dopo CV Dazzle, che continuerà ad aggiornare fino al 2017, con la linea di abbigliamento Stealth Wear (2013) Harvey continua a indagare l’estetica della privacy e il ruolo della moda nella difesa dalle tecnologie di sorveglianza. E’ uno statement artistico molto più radicale che si concretizza nell’Anti-Drone Burqa, un mantello ispirato al velo integrale islamico che può ingannare i rilevatori termici dei droni da guerra grazie a un tessuto rivestito con fibre d’argento. E’ un progetto dalla forte carica politica, arte di protesta ma raffinata, destinata a un pubblico tecnologicamente colto. Ma guai a definire Harvey un attivista: “E’ una parola che mi sembra sia usata più che altro come sinonimo di disoccupato, e io non lo sono”.

 

 Si dice che l’America innova e l’Europa scrive
i regolamenti. Ma spesso certi regolamenti possono essere rivoluzionari

Al contrario, è occupatissimo: talk, simposi, conferenze, lezioni universitarie. Soprattutto ora che MegaPixel, un progetto sviluppato in collaborazione con Jules LaPlace, gli ha garantito una grande attenzione mediatica grazie alle inchieste del New York Times e del Financial Times. MegaPixel è un’analisi dettagliata – avviata nel 2017 – dei dataset di immagini utilizzati da enti di ricerca e aziende private per l’addestramento delle intelligenze artificiali di riconoscimento facciale. Harvey e LaPlace hanno rivelato che alcune di queste raccolte sono state create rastrellando siti web e social network e salvando, senza rispetto per la privacy, i volti di milioni di persone. Queste immagini non hanno lo scopo di identificare o sorvegliare i soggetti coinvolti, è bene specificarlo, ma vengono utilizzate per allenare gli algoritmi che sottendono ai sistemi di riconoscimento facciale e valutarne l’efficacia con precisione e riproducibilità. “In alcuni casi questi dataset sono stati usati per ricerche finalizzate allo sviluppo di tecnologie da parte di potenze straniere, come la Cina”, spiega Harvey, sottolineando come queste raccolte siano un’arma fuori controllo. “L’uso improprio dei sistemi biometrici è una crisi globale e una violazione sistematica della privacy”. Uno dei dataset che ha destato maggior scalpore è MS-Celeb-1M, una raccolta messa a punto da Microsoft Research che contiene circa dieci milioni di foto di 100.000 individui considerati celebrità. Dentro c’è finito di tutto, però: assieme a 106 immagini di Silvio Berlusconi, 108 immagini di Matteo Renzi e 102 di Beppe Grillo (Harvey le ha cercate appositamente per questo articolo) nel dataset sono finite anche persone che rispondono a una definizione molto vaga di “celebrity”, come saggisti, ricercatori, scienziati, giornalisti, sportivi di media o nessuna fama. Se avete un profilo pubblico e siete sui social media, ci sono buone possibilità che ci siate finiti anche voi. Dal 2016, anno della prima pubblicazione, MS-Celeb è rimasto uno dei dataset più usati a livello globale, citato in centinaia di studi scientifici: Microsoft lo ha rimosso soltanto a settembre 2019, dopo la pubblicazione di un articolo del Financial Times. “Peccato che ormai sia facilissimo scaricarlo dalle piattaforme di file sharing”, dice Harvey. “Ormai non c’è modo di cancellarlo dalla rete”.

 

L’ultimo scandalo rivelato grazie a MegaPixel è quello di MegaFace, una raccolta di circa 3,3 milioni di foto in cui compaiono 4,7 milioni di facce e 672,000 identità, la cui analisi approfondita è tutt’ora in corso. Il caso è emerso grazie a due inchieste del New York Times. Le immagini del catalogo, messo a punto dall’Università di Washington grazie a finanziamenti di Google, Samsung e Intel, sono state razziate su Flickr (la piattaforma che fu di Yahoo!) con una palese violazione della licenza d’uso non commerciale indicata dagli utenti al momento della loro pubblicazione. MegaFace ha la storia più controversa di tutti i dataset analizzati da Harvey: “E’ il raffinamento di un precedente dataset molto più ampio, da circa 100 milioni di immagini, tutte ricavate da Flickr”, mi spiega. “Fra gli autori di quella raccolta originale c’erano il Lawrence Livermore National Laboratory, Berkeley, Yahoo Labs, e il Lab41 di In-Q-Tel, cioè il fondo di venture capital della Cia”. Ma come è possibile che nessuno prima d’ora abbia mai denunciato l’uso improprio di questi dataset? Secondo Harvey “mancavano gli incentivi necessari a un’investigazione più approfondita. Anche per un programmatore con le giuste capacità servono settimane di lavoro per scaricare e processare queste basi di dati”. Le cose hanno iniziato a cambiare in meglio grazie al Gdpr, il nuovo regolamento europeo sulla privacy. “La legge ha aperto nuove opportunità per intentare cause legali contro chi usa impropriamente i dati personali”, spiega. Nei dataset rivelati da MegaPixel ci sono “milioni di palesi violazioni della legge europea”, come immagini e nomi di persone che non hanno mai acconsentito all’uso delle loro identità digitali per addestrare le macchine a riconoscere i volti. “Ai miei connazionali piace dire che ‘America Innovates, Europe Regulates’, l’America pensa alle innovazioni e l’Europa ai regolamenti”, conclude Harvey. “Direi che in questo caso vale l’esatto contrario: il Gdpr a mio parere è una più importanti innovazioni tecnologiche degli ultimi anni”.

Di più su questi argomenti: