A me gli occhi, please

Le tecnologie applicate alla sicurezza, cioè il riconoscimento facciale e l'intelligenza artificiale, sono utili ma spaventose. Un girotondo di opinioni, tra politici ed esperti, per cercare l'equilibrio tra sorveglianza e democrazia

Dopo la proposta di legge del Partito democratico per una moratoria sulle telecamere con la tecnologia di riconoscimento facciale, abbiamo chiesto a politici ed esperti come si riconosce il confine tra i vantaggi della tecnologia e la sorveglianza di massa e quali potrebbero essere gli interventi utili da parte del legislatore per garantire una “terza via” tra il far west e la distopia tech

Regolamenti da non sbagliare


In vista della presentazione del Regolamento sull’Intelligenza artificiale, insieme a 115 colleghi eurodeputati di vari orientamenti ho scritto una lettera alla presidente von der Leyen per chiedere di porre al centro della proposta il rispetto dei diritti e delle libertà fondamentali. Nella risposta, Von der Leyen ha condiviso la centralità del tema e affermato che potrebbe essere necessario un approccio più restrittivo in casi di palese incompatibilità di alcune applicazioni con tali diritti fondamentali. Le anticipazioni sulla proposta che abbiamo letto contengono però alcuni punti molto problematici che andranno affrontati con il lavoro parlamentare. In particolare, la sorveglianza di massa figurerebbe tra le pratiche espressamente proibite dal Regolamento, ma con discutibili eccezioni in casi di necessità di pubblica sicurezza, che possono aprire la strada a interpretazioni pericolose.  Inoltre mi vede contrario l’aggiunta dei sistemi di prevenzione di crimine o di decisione sulle domande di asilo fra le applicazioni ad alto rischio ma non proibite. Utilizzare l’intelligenza artificiale per questi scopi pone non pochi problemi, potenzialmente fino a rovesciare principi costituzionali come la presunzione di innocenza e la non discriminazione. Sbagliare la regolazione di questo fronte dell’innovazione rischia di indebolire i pilastri della nostra democrazia, in un momento in cui i modelli autoritari nel mondo propongono le proprie soluzioni illiberali anche in questo campo.
Brando Benifei, capo delegazione del Pd al Parlamento europeo
 

Per un riconoscimento facciale etico


Con lo sviluppo dell’Intelligenza artificiale viviamo una doppia rivoluzione, tecnologica e cognitiva. L’Ai cambia il nostro rapporto con gli altri, la nostra visione del mondo e impone alle istituzioni di renderla compatibile con la democrazia. E’ anche una sfida geopolitica e industriale per il futuro che dobbiamo anticipare già oggi. Sull’Ai in generale e il riconoscimento facciale in particolare, l’Europa deve affrontare una triplice sfida: quella dell’innovazione, della proprietà dei dati e della regolamentazione. Le nuove tecnologie sollevano interrogativi e pongono questioni politiche perché influenzando le libertà individuali e collettive. Oggi in Europa assistiamo a una serie di esperimenti in materia delle forze dell’ordine, delle autorità in generale o del settore privato. L’Europa ha bisogno di un dibattito democratico per uscire dall’attuale vaghezza e dotare queste tecnologie di un quadro giuridico chiaro che tuteli le nostre libertà. Per esempio il diritto di manifestare sarebbe messo in discussione se accettassimo la sorveglianza perpetua dello spazio pubblico. Mentre in America e in Cina vengono sviluppati enormi database a scapito della privacy di cittadini, qui in Europa è tempo di stabilire un nostro modello con standard esigenti in termini di consenso informato degli utenti e di privacy, soddisfacendo al contempo le esigenze di innovazione del settore pubblico come delle nostre imprese.
Stéphane Séjourné, presidente della delegazione francese del gruppo Renew Europe 
 

Smart city e città sorvegliate


Le città stanno diventando più intelligenti, e per diventare “intelligenti” in genere comporta lo sfruttamento di database per ottimizzare le funzioni della città. Nonostante l'entusiasmo globale per le città iperconnesse, questo futuristico mondo urbano cablato ha un lato oscuro. Inoltre, le insidie ​​potrebbero presto superare i presunti benefici. Nell'ultimo numero di Foreign Policy abbiamo scritto che “intelligente” è sempre più un eufemismo per “sorveglianza”. Almeno 56 paesi in tutto il mondo hanno implementato le tecnologie di sorveglianza nelle proprie città, con data mining automatico, riconoscimento facciale e altre forme di intelligenza artificiale. La sorveglianza urbana è un business multimiliardario. In tutto il Nord America e in Europa occidentale il dibattito riguarda la raccolta e la conservazione dei dati, ma anche l'imprecisione e il pregiudizio razziale delle telecamere. In Cina addirittura quel pregiudizio è una caratteristica, non un bug. 
Le metropoli dovrebbero essere città sicure dal punto di vista digitale. Città, aziende e residenti devono collaborare per “progettare” la sicurezza in più settori verticali: governance, infrastrutture, commercio e servizi. I leader delle città dovrebbero essere maggiormente coinvolti nei dibattiti sulla sicurezza digitale, ed essere in prima linea nella definizione degli standard nazionali. Infine, le città intelligenti avrebbero bisogno di cittadini digitalmente istruiti. La prevenzione inizia con la consapevolezza. Molti danni digitali, effettivi e potenziali, possono essere ridotti con una consapevolezza di base e l’applicazione di misure precauzionali.
Robert Muggah e Greg Walton del SecDev Group


Avere consapevolezza delle criticità

Ci sono due fattori da tenere in considerazione quando si parla di nuove tecnologie come il riconoscimento facciale. Il primo è la tutela delle banche dati – chi sono i fruitori, chi può accedere, leggere e analizzare i dati. Allo stesso tempo, però, bisogna essere consapevoli del fatto che viviamo in un’epoca in cui ogni singolo sito internet, dai social network agli ecommerce, ci identificano e profilano in base ai nostri interessi. Stiamo ragionando su un settore che ha una portata omnicomprensiva, e lo facciamo come se stessimo cercando una goccia nell’oceano, poiché la tecnologia digitale ci ha già avvolti. Le banche dati vanno tutelate, e va di sicuro definito un perimetro normativo. Ma è chiaro che facciamo fatica a normare un settore che andava regolato almeno trent’anni fa. Poi c’è il fattore della sicurezza, che riguarda anche l’innovazione e l’intelligenza artificiale. Il settore della Difesa, per esempio, si è trasformato significativamente grazie all’impiego di queste nuove tecnologie. E ci sono paesi, come Israele, dove il riconoscimento facciale è già routine da anni. Ciò che manca nel nostro paese è forse la consapevolezza delle criticità. Per esempio, nel momento in cui si acquisiscono videocamere cinesi – e cito questo esempio perché è successo – può essere legittimo il sospetto che ci siano delle backdoor. E quindi l’interrogativo è: perché l’Italia non sviluppa le proprie tecnologie? La stessa videocamera può essere prodotta dalle nostre aziende, di solito quelle cinesi vengono scelte solo perché costano di meno. E’ su questo punto che dobbiamo aumentare il livello di sicurezza e incentivare l’acquisizione di sistemi sicuri.  Inoltre, a mio parere, stiamo vivendo un cambiamento epocale, ma c’è bisogno di più senso civico e di collettività per sfruttarne i vantaggi. Se aumentiamo il senso civico, la tutela della collettività e il rispetto delle regole, la cessione di quella che viene considerata una piccola parte di privacy, nel rispetto delle leggi, favorisce le basi per una società con più prevenzione e maggior benessere per i cittadini.
Matteo Perego di Cremnago,  vicepresidente del gruppo Forza Italia alla Camera, membro della commissione Difesa

 

I dettagli cruciali delle telecamere


I cinque punti che saranno la sfida giuridica del futuro (e del presente) in tema di videosorveglianza saranno l’orientamento/fuoco delle telecamere e delle riprese, la segnalazione delle telecamere, il periodo di conservazione delle immagini, le riprese dei lavoratori e le responsabilità di chi gestisce tali sistemi con riferimento alla protezione dei dati. Il primo punto riguarda le riprese in zone e aree pubbliche e i relativi limiti, soprattutto se le riprese sono fatte con strumenti privati (si pensi alla ripresa di manifestazioni magari con riconoscimento facciale dei partecipanti a un corteo). La segnalazione, con cartelli, delle telecamere e delle aree videosorveglianza è poi necessaria per evitare controlli occulti. Il periodo di conservazione delle immagini deve essere il più limitato possibile, nonostante ci siano pressioni politiche per allungarlo a fini (asseriti) di controllo del crimine. Delicatissimo è poi il punto delle riprese dei lavoratori sul posto di lavoro, al fine di controllarli o di valutare le loro performance (attività vietata e sanzionata da tutti i Garanti privacy in Europa). Infine diventa attuale il tema di chi controlla tali sistemi e delle correlate responsabilità e cautele da adottare soprattutto in fase di accesso ai filmati.
Giovanni Ziccardi, docente di Informatica giuridica all’Università degli Studi di Milano


Il problema con le telecamere cinesi


Come si riconosce la linea tra i benefici della tecnologia e la sorveglianza di massa? Le videocamere cinesi sono attrattive perché funzionano. Perché la tecnologia che utilizzano è molto buona, secondo diversi punti di vista, e il sofware di riconoscimento facciale che usano è particolarmente avanzato rispetto ad altri prodotti tecnologici. In ogni caso, questo arriva con dei costi, sia in termini di sicurezza sia dal punto di vista dei diritti umani. Faccio un esempio. Usare una telecamera Dahua significa usare la tecnologia di un’azienda che ha un legame non insignificante con le violazioni dei diritti umani, e comunque è costretta a operare secondo la legge sulla Sicurezza nazionale cinese, e questo significa che le loro agenzie di intelligence hanno un accesso garantito. Ma ci sono interventi significativi che un governo democratico può fare per sfruttare la tecnologia senza violare la privacy dei cittadini. Dal punto di vista della sicurezza e dei diritti umani, un governo dovrebbe creare degli standard obiettivi e chiedere alle aziende di questo settore di aderire a quegli standard se vogliono che i loro prodotti vengano utilizzati nelle infrastrutture critiche. In questo modo non c’è un “ban” ufficiale su una o l’altra azienda. Stanno invece delineando meglio considerazioni sui diritti umani e la sicurezza, per poi valutare la tecnologia e quindi le compagnie che possono utilizzarla oppure no. In questo modo le cose non possono andare male. 
Robert Potter, fondatore di Internet 2.0 

 

Da mettere al bando, fine


Il riconoscimento facciale è una tecnologia di sorveglianza di massa. Negli spazi pubblici, il suo utilizzo equivale a sottoporre la popolazione a un costante monitoraggio. La ricerca, ormai molto ampia, dimostra inoltre come questa tecnologia ponga serie problematiche in termini di equità e bias razziali, mentre la sua reale efficacia è stata a sua volta messa in discussione. Troppo spesso, il dibattito attorno al riconoscimento facciale è però guidato da visioni deterministe della tecnologia che mettono da parte temi fondamentali, come i diritti, e che si concentrano esclusivamente sulla presunta “necessità” di queste soluzioni. In realtà, il riconoscimento facciale è una tecnologia controversa che apre a scenari inquietanti. Non a caso, i paesi più avanzati nel suo utilizzo sono la Cina e la Russia. Anche in contesti più democratici, però, il riconoscimento facciale si sta diffondendo sempre più velocemente e con eccessiva leggerezza. Se persino una città senza problemi di ordine pubblico come Como, come è emerso dalla nostra inchiesta per Wired, si affida a questa tecnologia senza realmente comprenderla, siamo di fronte a un piano inclinato. Condivido, quindi, il punto di vista di chi, in America come in Europa, sta chiedendo una cosa semplice: la messa al bando del riconoscimento facciale. Nessuna tecnologia è un destino e il riconoscimento facciale è un banco di prova per decidere il volto che la democrazia assumerà in futuro.
Philip Di Salvo, ricercatore, Università della Svizzera italiana


Nessuna resa a una normalità opaca


Gli stratagemmi adottati per farci accettare acriticamente tecnologie che andrebbero invece sottoposte al vaglio della critica sono sempre gli stessi. Nessun dibattito circa la loro adozione. Nessuna trasparenza riguardo alle modalità di funzionamento, agli scopi o, addirittura, la loro stessa esistenza. Riduzione continua e martellante di problemi sociali complessi a questioni semplici, risolvibili (finalmente!) con la soluzione tecnologica proposta. E un assunto, fondamentale al punto che nemmeno si dice: che ogni tecnologia sia di per se stessa inevitabile, e che dunque noi, gli umani, non ci si possa che adattare. Vale per la sorveglianza di massa implicata dal riconoscimento facciale dal vivo come per qualunque altro algoritmo impiegato nel welfare, nel fisco, nella sanità pubblica, nel mondo del lavoro: in presenza di questi segnali se ne dovrebbe imporre uno stop, subito. Potremo così porci la domanda fondamentale: ha diritto di cittadinanza, questa tecnologia, nella società democratica che vogliamo costruire? Più che politico, insomma, il primo intervento è pre-politico: abituarsi a soppesare l’impatto di ogni nuova tecnologia prima di garantirle un posto al tavolo della democrazia e delle regole. Comprendere che non tutte ne hanno diritto per il semplice fatto che esistono. E imparare, di conseguenza, a dire dei “no” senza appello, quando il bilancio democratico sia negativo. L’alternativa? La resa a una normalità opaca in cui ci si sente sempre profilati o profilabili, controllati e controllabili. Come nei regimi.
Fabio Chiusi, giornalista, project manager ad Algorithm Watch

 

A cura di Giulia Pompili e Cecilia Sala

Di più su questi argomenti: