Rishi Sunak e Joe Biden (LaPresse)

le prospettive

Le IA prese sul serio, senza catastrofismi inutili. La via di Biden e quella di Sunak

Pietro Minto

Il presidente americano ha firmato un ordine esecutivo piuttosto ambizioso con cui conta di “proteggere gli americani dai rischi potenziali delle IA”, mentre dall’altra parte dell’Atlantico il primo ministro britannico ha annunciato la nascita di un istituto nazionale per la sicurezza delle intelligenze artificiali

Negli ultimi giorni Stati Uniti e Regno Unito si sono mossi per regolamentare il settore delle intelligenze artificiali, o quanto meno provarci. Il presidente americano Joe Biden ha firmato un ordine esecutivo piuttosto ambizioso con cui conta di “proteggere gli americani dai rischi potenziali delle IA”, mentre, dall’altra parte dell’Atlantico, il primo ministro britannico Rishi Sunak ha annunciato la nascita di un istituto nazionale per la sicurezza delle IA. Una mossa a effetto, quest’ultima, che anticipa di pochi giorni un vertice internazionale sull’argomento che si terrà a Bletchley Park, il luogo dove Alan Turing decodificò il Codice enigma nazista. 

Delle due iniziative, però, è il documento di Biden a fare più discutere, per molte ragioni. Innanzitutto per l’utilizzo dell’ordine esecutivo presidenziale, uno strumento legislativo snello, che consente di bypassare il diviso Congresso statunitense, ma che presenta anche alcuni punti deboli (può essere facilmente annullato da un futuro presidente). Biden ha scelto di tirare dritto puntando in particolare su uno dei punti più delicati delle intelligenze artificiali generative: la possibilità di riconoscere e identificare facilmente un contenuto “sintetico” (ovvero generato da una IA) da uno realizzato da un umano. 

In gergo si parla di label (etichette) e watermark (dei piccoli marchi digitali applicati alle immagini per riconoscerne l’origine), strumenti che verranno applicati anche alle IA. Il dipartimento del Commercio dovrà svilupparli in modo che le agenzie federali possano utilizzarli, spingendo anche i privati a farlo. Non sarà facile riuscirci perché ogni tentativo di costruire un sistema in grado di riconoscere un testo o media prodotto dalle IA ha generato molti errori e falsi positivi. Persino OpenAI, l’azienda sviluppatrice di ChatGPT, ha ritirato lo scorso luglio uno strumento simile – che doveva essere in grado di riconoscere i testi scritti dall’IA – a causa della sua “scarsa precisione”. 

Il cuore dell’ordine esecutivo è però l’obbligo per le aziende del settore che stanno sviluppando modelli in grado di “porre un serio rischio alla sicurezza nazionale, all’economia nazionale, alla salute pubblica” di “avvisare il governo federale quando sono nella fase di training”, quella in cui un modello linguistico viene “allenato”, formato. Per misurare i possibili rischi di queste tecnologie, inoltre, le aziende dovranno condurre dei test di tipo “red-team”, in cui una squadra di sviluppatori cerca attivamente di trovare i bug e i limiti di un sistema. I risultati di queste dovranno essere condivisi col governo, anche sulla base del Defense Production Act, la legge federale del 1950 nata in piena Guerra fredda per dare alla Casa Bianca il controllo delle industrie ritenute necessarie alla difesa nazionale. Una legge pensata per “i momenti più urgenti”, ha spiegato Biden, che ora viene usata per “costringere le aziende a dimostrare che i loro sistemi siano sicuri prima di permettere il loro utilizzo”.

Parole forti che devono tenere conto delle citate limitazioni dell’executive order, che sembra fissare condizioni precise che non sono però obbligatorie. Alcuni esperti hanno lodato il peso dato alla necessità di creare nuovi standard per il watermarking, che saranno fissati dal National Institute of Standards and Technology (Nist); ma c’è anche chi nota come queste nuove regole non siano obbligatorie per le aziende, che potranno scegliere se adottarle o meno. L’esperta di etica della scienza Margaret Mitchell ha invece notato che la legge sembra “ignorare il lavoro che si può fare in fase di training per limitare i rischi delle IA”, limitandosi a un approccio tardivo, in cui si dovranno cercare gli errori e i pericoli in un altro momento.

Nonostante tutto, si tratta probabilmente del miglior compromesso possibile, un documento nato per dare una posizione netta all’Amministrazione senza però inimicarsi il settore Big Tech, che ha infatti lodato l’ordine esecutivo, ritenendolo un buon punto d’inizio per il regolamento delle IA. Un altro passo importante sarà il summit inglese voluto da Sunak, al quale è stata invitata anche la Cina, anche se la sua presenza non è ancora stata confermata. Dopo tanti mesi passati a parlare di scenari apocalittici e fantascientifici, il dibattito sulle IA si fa più concreto.
 

Di più su questi argomenti: