Cattivi scienziati

Lasciare la regolamentazione dell'intelligenza artificiale ai governi non è una buona idea

Enrico Bucci

La necessità di prevedere i rischi e governare l’IA non deve essere usata come una scusa per estendere il monopolio dei governi su questa tecnologia: il suo cattivo è prerogativa anche degli stati, non solo delle grandi aziende private

I rischi significativi che l'intelligenza artificiale (IA) rappresenta per la sicurezza globale stanno diventando sempre più chiari. Questo è in parte il motivo per cui il primo ministro britannico Rishi Sunak ha deciso di ospitare altri leader mondiali al summit sulla sicurezza dell'IA attualmente in corso. Tuttavia, sebbene questo tipo di iniziative possano apparire lodevoli e diano l’impressione di un interesse imparziale dei governi per l’interesse globale a regolamentare la IA, vi sono alcune considerazioni che è utile fare. I governi di molte nazioni, di fatto, hanno guidato lo sviluppo della IA molto più di quanto non si pensi, indirizzandola spesso e volentieri verso applicazioni che costituiscono un rischio per il cittadino; è presumibile, inoltre, che continueranno a farlo.

Per cominciare, fin dai suoi albori l’intelligenza artificiale è stata sviluppata e utilizzata da molti governi più o meno copertamente per operazioni di sorveglianza su larga scala dei propri stesi cittadini. Tutti hanno presente l’esempio della Cina: qui si è arrivati a livelli estremi, con l'uso di tecnologie di riconoscimento facciale, algoritmi sui social media e censura su internet per controllare e sorvegliare le popolazioni, fornendo anche strumenti utili all’oppressione di minoranze come quella uigura.

Anche se ci piace sempre pensare al nuovo “cattivo” globale, in realtà anche i governi occidentali hanno ben presto utilizzato l’IA per scopi simili. Nel 2013 è emerso che il governo degli Stati Uniti aveva sviluppato strumenti autonomi per raccogliere e selezionare enormi quantità di dati personali su Internet, con lo scopo dichiarato di contrastare il terrorismo – ma in realtà al di fuori di chiari e stringenti meccanismi di controllo da parte delle istituzioni democratiche. Si è anche appurato che proprio il governo britannico, oggi impegnato a ospitare il summit di cui si diceva, aveva accesso a questi strumenti. Questi sono solo esempi, che non considerano ciò che è accaduto e accade in paesi come Israele e altri, da sempre alla frontiera dello sviluppo di metodi di sorveglianza massiva e automatica. Inoltre, l’impiego sempre più diffuso di tecnologie di riconoscimento facciale e di altri tipi di algoritmi similari, a disposizione delle polizie nazionali, apre ulteriori possibilità di abuso degli strumenti di IA. La tendenza all’uso dell’IA nella sorveglianza globale si accompagna a una seconda tipologia di utilizzo da parte dei governi, sempre più diffusa: quella militare.

Fin dalla guerra fredda, tecnologie automatizzate che oggi appaiono rudimentali sono state utilizzate per la sorveglianza dell’avversario e per il controllo degli armamenti nucleari, ma oggi lo sviluppo è diventato esplosivo, perché l’IA è utilizzata per identificare bersagli, per comandare droni, per distribuire disinformazione e in altre applicazioni militari già oggi operative sui teatri di guerra. La corsa agli armamenti IA è cominciata: non sorprende che Putin abbia dichiarato che il paese che guida nella tecnologia dell'IA governerà il mondo, e che la Cina abbia a sua volta dichiarato la propria intenzione di diventare una superpotenza dell'IA. Per questo, nonostante le migliori intenzioni di Sunak, del governo britannico e dei partecipanti al summit in corso, è molto difficile immaginare che gli stati possano resistere alla tentazione di utilizzare la IA proprio nelle sue applicazioni più pericolose.

Inoltre, perché una moratoria o una qualunque forma di regolamentazione funzioni, è necessario che vi si un’adesione globale: al contrario, proprio i paesi più interessati a guadagnare un predominio strategico globale potrebbero non aderire, costringendo a catena gli altri ad adeguarsi per non soccombere a questa nuova minaccia. Per questo, dopotutto, l’idea che siano i governi a restringere lo sviluppo della IA e a controllarne strettamente le applicazioni è meno neutrale e terza di quanto possa sembrare: l’interesse dei governi può anche non coincidere con quello della stessa società che li ha eletti o portati al potere, e le restrizioni eccessive nel dominio di una tecnologia potrebbero non risolvere, ma anzi accentuare certi pericoli.

Se regole, moratorie e rischi devono essere tutti individuati, è bene che i governi non siano in questo lasciati da soli, ma che la società nel suo complesso vigili; e per questa vigilanza, è necessaria una grande e rapida alfabetizzazione di base, guidata dalla comunità dei ricercatori che meglio e più approfonditamente è al corrente di sviluppi, rischi e possibilità benefiche future.

Di più su questi argomenti: