Tech e norme

Lo scandalo Clearview su foto e dati non è solo americano

Che cos'è questa start up di cui tutti parlano e perché il suo metodo è controverso

Cecilia Sala

Fondata quattro anni fa, si occupa di riconoscimento facciale attraverso l’Intelligenza artificiale. Ma lo fa pescando a strascico sui nostri dati online. Pure il Garante della Privacy italiano ha aperto un'indagine

“La tua faccia non è di tua proprietà”, scriveva tre settimane fa il Magazine del New York Times. Dello scandalo Clearview si parla molto negli Stati Uniti, ma riguarda da vicino anche l’Europa e l’Italia. 


La Clearview AI è una startup fondata quattro anni fa, si occupa di riconoscimento facciale attraverso l’Intelligenza artificiale, in homepage sul sito campeggia lo slogan “Securing our communities” e “Trusted by low enforcement”, infatti la società ha stipulato contratti con la polizia di Detroit, con il dipartimento di polizia di Miami, con lo stato della Georgia e con altre 2.200 agenzie pubbliche negli Stati Uniti. La piattaforma, stando a quanto afferma la stessa Clearview, mette a disposizione “il più grande database di volti umani conosciuto al mondo”, quelli di oltre tre miliardi di persone, cioè un po’ meno della metà dell’intera popolazione umana (siamo 7,8 miliardi); tutte le immagini sono state raccolte da fonti aperte, soprattutto da social network e motori di ricerca. Il meccanismo è quello della pesca a strascico e dello scraping, un metodo per estrarre e collezionare i contenuti dal web generalmente tramite l’utilizzo di bot (finti utenti). Grazie all’imponente banca dati ottenuta, il software di Clearview è in grado di fornire “identificazioni veloci” alle forze dell’ordine e alle imprese di cui è fornitrice, tra cui Bank of America, Macy’s, Walmart, ma anche privati cittadini come un miliardario che lo ha utilizzato per saperne di più sul conto del ragazzo con cui usciva sua figlia. 


Sull’altra sponda dell’Atlantico si è ricominciato a parlare di questa società dopo l’assalto al Congresso del 6 gennaio, quando l’Fbi ha chiesto aiuto pubblicamente per identificare i responsabili e ha messo in circolazione le fotografie dei sospetti ripresi dalle telecamere di Capitol Hill. E’ stato allora che dodici detective della polizia di Miami hanno inserito le foto nel software Clearview che hanno in dotazione, hanno scoperto l’identità di quelle persone e hanno portato i risultati ai federali. Oltre a dodici mandati d’arresto, la conseguenza è stata un rinnovato dibattito su come venga regolamentata la privacy negli Stati Uniti, su cosa sia consentito, cosa non lo sia, e soprattutto quanto sia labile e facilmente aggirabile il confine tra questi due ambiti. Da circa tre anni molti dipartimenti di polizia fanno uso di questo software e per questo hanno abbandonato il vecchio sistema d’indagine basato sulle foto segnaletiche e su quelle dei documenti d’identità. Un sistema meno preciso con banche dati più limitate, che ad ogni identità riesce ad abbinare molte meno informazioni di quanto non sia in grado di fare Clearview AI, così comoda e agile da essere disponibile anche in versione app per smartphone: “La puoi portare sempre con te”. Intanto Google e Facebook protestano per l’appropriazione di foto dei loro utenti, il Garante della privacy canadese ha dichiarato illegale l’attività, ci sono class action contro la società, indagini come quella del procuratore generale del Vermont e leggi come quella della California o dell’Illinois che stabiliscono che solo l’utente può disporre della propria “impronta facciale” (una normativa che Bernie Sanders vorrebbe imitare a livello federale). 


Cosa c’entriamo noi? Clearview ha sempre dichiarato di lavorare solo con gli Stati Uniti e il Canada, ma Buzzfeed ha raccontato di insistenti attività per penetrare anche il mercato europeo (e italiano), latinoamericano e mediorientale. Anche se non ci fossero clienti con sede in Ue, in Asia o in Africa, è facile notare, con un semplice calcolo, che un volume di dati pari a tre miliardi di volti non può che essere stato accumulato anche fuori dai confini nordamericani. Il giornalista di Wired Italia Luca Zorloni, mentre lavorava a  un’inchiesta sulla società, ha trovato tredici proprie foto nel database con cui Clearview allena il proprio algoritmo. Statistica dice che lì dentro ci sono fotografie recenti di molti di noi, per scoprirlo in alcuni casi è sufficiente mandare una mail, mostrarsi interessati al servizio e chiedere di poterlo provare. Tutto questo  avviene al di fuori della legalità, la pesca a strascico senza il consenso informato dell’utente ovviamente non rispetta le normative europee ed è proprio per questo che, adesso, il nostro Garante della privacy ha aperto un’indagine.