(foto LaPresse)

l'analisi

L'intelligenza artificiale soffre le regole

Oscar Giannino

Dopo l’AI Act europeo. E’ davvero immaginabile una grande convergenza regolatoria tra Stati Uniti, Ue, Giappone, Cina e Corea del Sud? I timori degli eccessi sovranisti e securitari.  Una leva straordinaria che rischia di affievolirsi

Il regolamento dell’Unione Europa sull’intelligenza artificiale (AI, d’ora in poi) ha appena terminato il suo percorso di esame, emendamento e approvazione. L’evento è stato accompagnato la settimana scorsa da una grande enfasi mediatica: l’Europa è la prima grande area mondiale ad adottare regole su princìpi, limiti e controlli dell’AI, e conferma così la pervicace volontà mostrata negli ultimi due anni di volersi ergere a fabbrica degli standard regolatori mondiali. Partiamo da qui, e poniamoci una serie di domande.  Sarà davvero così, è cioè davvero immaginabile una grande convergenza regolatoria tra Stati Uniti, Ue, Cina, Giappone e Corea del Sud? O invece dietro il velo della speranza e dell’ambizione i fatti sembrano procedere in tutt’altra direzione, e cioè una AI non unisci-mondo ma spacca-mondo? L’AI Act europeo è davvero quanto di meglio possibile, o il suo testo rispecchia gli stessi eccessi di dirigismo che hanno contraddistinto l’over regulation europea degli ultimi anni in materia di industria e transizioni green e digitale? Non ha ragione invece chi teme l’eccesso sovranista e securitario che spira come un forte vento oggi in Europa e Usa, e pensa che la straordinaria leva dell’AI offerta a tutte le imprese manifatturiere e dei servizi, pubblici e privati, possa affermarsi e sprigionare tanto più i suoi effetti rivoluzionari, quanto meno sarà frenata da occhiuti filtri politico-amministrativi? Quanto all’Italia, siamo prossimi al disegno di legge del governo sulla “strategia nazionale per l’AI”: quanto c’è di buono e quanto no, esaminando le anticipazioni sin qui note?

AI: un mondo unito?
Una sintesi dell’assoluta utilità e necessità che davvero il mondo converga su standard comuni e interoperabili sull’AI potete trovarla sul numero di marzo di Foreign Affairs. A scriverla è un suo grande fan, il professor Aziz Huq, titolare della cattedra di Diritto Frank e Bernice Greenberg presso la University of Chicago Law School. Sottolinea che va presa sul serio come un ottimo primo passo, l’inaspettata firma congiunta di Cina, Usa e Unione Europea a un documento comune per la cooperazione internazionale sulle sfide dell’AI. E’ “una visione sensata e di ampio respiro”, scrive Hug, quella di voler affrontare i rischi dell’intelligenza artificiale “di frontiera”, la specie più avanzata di modelli generativi. Quel documento identificava il potenziale di un uso fortemente improprio dell’AI “a fini di disinformazione globale”, nonché   rischi “gravi, persino catastrofici” nella sicurezza informatica e nella biotecnologia. A seguito di quel documento, funzionari dell’Amministrazione americana e del governo cinese hanno concordato colloqui in primavera sulla regolamentazione dell’AI. Colloqui che si concentreranno anche su come gestire i rischi della nuova tecnologia e garantirne la sicurezza. Dopodiché Hug sostiene che ha ragione il commissario Ue all’Industria Thierry Breton, e cioè che in fondo già oggi i princìpi cardine dell’AI Act europeo non sono poi troppo dissimili da quelli su cui sta lavorando il Giappone, il Canada, da quanto indicato al Congresso Usa dall’ordine esecutivo di Biden su AI dell’ottobre sorso, nonché da quelli dei recenti regolamenti cinesi in materia.  Dunque si può sperare in una prospettiva ancor più “mondialista,” come quella proposta dall’analista geopolitico Ian Bremmer, dall’imprenditore britannico Mustafa Suleyman, co-fondatore ed ex capo di AI applicata presso DeepMind, società poi acquisita da Google, nonché da  Eric Schmidt, ex amministratore delegato di Google: cioè  la creazione di un panel internazionale simile al Gruppo intergovernativo delle Nazioni Unite sul cambiamento climatico per “informare i governi sullo stato attuale delle capacità di IA e fare previsioni basate su prove su ciò che sta arrivando”.

Macché: un mondo diviso
Il lettore vorrà scusarmi, ma mi dichiaro apertamente scettico. Non per pregiudizio, ma in base al principio di realtà. Effettivamente il governo giapponese ha apertamente dichiarato di voler trarre ispirazione dall’AI Act appena varato dall’Unione Europea. Ma per la Cina è fantascienza, credere che davvero voglia e possa rinunciare all’utilizzo massivo dell’AI esattamente ai fini che più preoccupano l’Unione Europea che li mette giustamente al bando, cioè quelli di modelli sempre più avanzati dell’applicazione dell’AI a fini di controllo biometrico e sociale della popolazione, dei lavoratori e dei consumatori. La Cina potrà forse dichiarare la sua contrarietà in qualche documento assolutamente non cogente, ma con l’attuale regime non potrà mai fare a meno di un sistema che ha iniziato a mettere a punto vent’anni fa e che si è enormemente rafforzato nella sua finezza tecnologica. Perché questo strumento e quelle applicazioni sono la base stessa del regime, la certezza della sua permanenza al potere, il presupposto della sua capacità di intervenire in maniera soft su deviazioni individuali dal credo comunista da parte di chiunque, normali cittadini, manager d’impresa e funzionari pubblici, prima ancora che sia necessaria qualunque repressione manifesta che non sfuggirebbe agli occhi del mondo. Inoltre, è un dato di fatto che l’intero muscolare succedersi negli ultimi anni di tensioni crescenti tra Stati Uniti e Cina smentisca l’ipotesi di supposte regolazioni comuni dell’AI. Vale fra tutti l’esempio dei semiconduttori.  Da ottobre 2022 il Dipartimento al Commercio Usa ha iniziato a emanare norme sempre più restrittive per le licenze di esportazione di chip avanzati e tecnologia di chip-making. Cioè dei dispositivi necessari per eseguire i modelli avanzati di AI. I controlli sulle esportazioni si applicano non solo alle imprese americane, ma a qualsiasi produttore che utilizza componenti, software o tecnologia americana. In caso di inadempienze o violazioni da parte di imprese straniere, il Dipartimento del Commercio Usa adotta restrizioni crescenti alla loro possibilità di operare sul mercato americano. Nell’agosto 2023 la Cina rispose con restrizioni sulle esportazioni di gallio e germanio, entrambi necessari per la produzione di chip. Biden a ottobre replicò rafforzando le precedenti restrizioni e ampliando ulteriormente la gamma di prodotti e semiconduttori proibiti coperti dal bando. 


Per la Cina è fantascienza, credere che davvero voglia e possa rinunciare all’utilizzo massivo dell’AI esattamente ai fini che più preoccupano l’Unione Europea che li mette giustamente al bando, cioè quelli di modelli sempre più avanzati dell’applicazione dell’AI a fini di controllo biometrico e sociale della popolazione


Tra ottobre 2023 e fino a poche settimane fa, la segretaria al Commercio americano, Gina Raimondo, ha rilasciato una serie crescente di dichiarazioni durissime in materia. E questa volta non solo limitandosi a severi controlli all’export di chip di nuova generazione, ma entrando a piedi uniti sul tema AI. Intervenendo all’Università di Stanford, ha ammonito che il suo mandato è di scrutinare dettagliatamente ogni caratteristica tecnica e algoritmica di qualsiasi LLM (Large Language Model) di AI si intenda sperimentare o lanciare sul mercato. “Al governo americano le imprese devono garantire piena trasparenza, ne va della sicurezza del paese: dobbiamo poter valutare compiutamente in anticipo qualunque rischio per la sicurezza militare, politica, economica e della salute dei nostri cittadini”. La formula magica è “sicurezza strategica”: con questa espressione si chiama direttamente in campo il Defense Production Act, da decenni via via aggiornato, che consente poteri speciali d’intervento sulle imprese per qualunque prodotto o servizio che risulti dual use, cioè anche passibile di utilizzi non meramente commerciali ma anche militari da parte di paesi stranieri. Ancora non è chiaro se i poteri di full disclosure preventiva sull’AI e di sanzioni ex post predicati dalla Raimondo scattino oltra la soglia di potenza computazionale fissata a ottobre 2023 dall’ordine presidenziale di Biden sulla AI, soglia molto criticata dai tecnici di AI perché non si capisce bene su che base decisa (per un ordine di grandezza comprensibile ai non addetti ai lavori, circa mille miliardi di volte la capacità del sistema su cui gira la Playstation 5: può sembrare molto ma non lo è). “Tutte le imprese americane che sviluppano AI o che gestiscono cloud che consentano accessi tali da poter essere utilizzati da terze parti per affinare la propria capacità di AI, devono mantenere un registro costantemente aggiornato degli accessi, condivisi con il governo”, ha aggiunto Raimondo rivolgendosi direttamente ad Amazon, Google e Microsoft. “Non mi interessa che i grandi player dell’AI lamentino i miei toni come attacchi diretti alla loro capacità di fare profitti, la sicurezza strategica nazionale viene prima e questo è il mio mandato”, ripete la Raimondo. 

 

Di fatto, mentre a ottobre la direttiva di Biden poneva un mattone più che comprensibile in termini di tutela dagli stessi rischi che l’AI Act europeo vuole scongiurare, in cinque mesi la posizione dell’Amministrazione è diventata invece durissima, indicando obblighi preventivi cogenti alla ricerca, e pesanti sanzioni ex post a chi non vi si sottomette. Ed è evidente che è alla Cina, che Washington vuole impedire di attingere a fini militari ed economici dai modelli avanzati di AI americana. E’ anche per questi moniti sempre più aspri, che protagonisti di primo piano dell’AI americana come Sam Altman, fondatore e ceo di OpenAI, hanno iniziato nelle audizioni al Congresso a dire che sì, “è perfettamente comprensibile che l’attenzione delle istituzioni si concentri su rischi di modelli di AI sempre più potenti”. Usando toni concilianti con la politica per non irritarla, ma guardandosi bene dall’aderire a una sola delle restrizioni sanguignamente evocate dalla Raimondo. 


La segretaria al Commercio americano, Gina Raimondo, ha ammonito che il suo mandato è di scrutinare  ogni caratteristica tecnica e algoritmica di qualsiasi LLM (Large Language Model) di AI si intenda sperimentare o lanciare sul mercato. “Le imprese devono garantire piena trasparenza, ne va della sicurezza del paese”


Vedete voi in tutto questo segni incoraggianti di un’architettura regolatoria per l’AI condivisa tra gradi potenze? A me pare il contrario. E del resto in materia di standard industriali e tecnici comuni, basta parlare con qualcuno specialista della materia per comprendere che la globalizzazione è stata una corsa asimmetrica. Della convergenza di standard tecnici per un’interoperabilità che agevoli il commercio mondiale si occupano organismi come l’Unione internazionale delle telecomunicazioni, la Commissione elettrotecnica internazionale, l’Organizzazione internazionale per la standardizzazione, e l’Internet Engineering Task Force per la tecnologia digitale in generale. Sono affiliati alle Nazioni Unite e i membri di questi enti votano a maggioranza. Per lungo tempo, le decisioni sono avvenute sotto l’influenza prevalente di Stati Uniti, Giappone e Germania. Ma dal 2001, con l’ingresso della Cina nel Wto, l’influenza di Pechino è stata crescente nel promuovere decisioni a sé favorevoli. Con la Belt and Road Initiative ha siglato oltre 100 accordi di standardizzazione con 46 Paesi. Dal 2018 Pechino ha poi lanciato la strategia “China Standard 2035”, per rafforzare ulteriormente i propri standard nel mondo, volti a fini sia politici sia economici sia militari. Cinque anni fa, facendo esplodere il caso Huawei e arrestandone una primaria dirigente, Washington ha detto ora basta. Basta componenti cinesi nei data center, nelle reti di tlc e in quelle energetiche. Che cosa fa pensare che tutto questo sferragliare di contese dovrebbe ora sparire di fronte a un moltiplicatore enorme come le nuove frontiere dell’AI?

AI Act europeo: tutt’oro quel che luccica?
 Spostiamoci ora su un altro aspetto del problema. E’ poi così fondata, l’ondata di ottimismo su quanto dispone l’AI Act varato dall’Unione Europea? Francamente, lette le sue più di 250 pagine, non ne sono convinto.  E sono in buona compagnia. Basta leggere la dichiarazione resa il giorno del varo del regolamento Ue da Markus Beyrer, direttore generale di Business Europe cioè dell’associazione ombrello di tutte le Confindustrie europee. “Questo è un momento cruciale”, ha detto, “e il regolamento mantiene giustamente un quadro di riferimento basato sui fattori di rischio e per impedire in materia di AI leggi divergenti nei diversi paesi membri della Ue. Tuttavia, la necessità di un’ampia legislazione secondaria e di linee guida solleva questioni significative sulla certezza del diritto e sull’interpretazione della legge. Questioni che restano irrisolte ma sono fondamentali per le decisioni di investimento. Per eccellere veramente nell’AI, l’Europa deve sostenere le aziende che innovano e non solo navigare nella burocrazia perché possano permetterselo.

L’Europa deve non solo essere leader nella definizione delle regole, ma anche facilitare l’accesso ai capitali e ai finanziamenti per lo sviluppo dell’AI. Non abbiamo capito come gli investimenti in AI nell’Ue, tra i 30 e i 65 miliardi di euro entro il 2025, si confrontino davvero con la realtà economica che viviamo. Quindi, al di là del regolamento approvato, la verità è che gran parte del lavoro reale per garantire il successo dello sviluppo dell’AI in Europa è solo all’inizio”. 
Mi sembra sano realismo, quello del portavoce delle industrie europee. Certo, dopo la prossima presa d’atto del Consiglio europeo e la pubblicazione in Gazzetta ufficiale, i tempi per l’entrata in vigore del regolamento sono abbastanza lunghi da consentire qualche utile ripensamento: passeranno sei mesi per l’applicazione dei primi divieti, più di un anno per applicare le norme sulla tutela della proprietà intellettuale, più di due anni per quelle relative alla riduzione del rischio. Quando sarà insediato l’AI Office previsto come organo incaricato di vigilare sul rispetto delle norme (a guidarlo un’italiana, Lucilla Sioli, che è stata la vera coordinatrice in tutta la sua evoluzione del testo del regolamento, come direttore per l’AI e Industria Digitale all’interno della Direzione Connect della Commissione Ue), c’è da sperare che le decisioni che assumerà sugli standard per misurare i rischi siano i meno rigidi possibili e i più aperti all’evoluzione velocissima della tecnologia.   

 

Per come è stato approvato, l’AI Act potrebbe infatti rappresentare seri ostacoli agli investimenti delle imprese tecnologiche che operano nel settore, e in generale nell’ambito dell’innovazione digitale. La classificazione in quattro aree di rischio dell’AI risulta spiazzante rispetto ai criteri nel resto del mondo. Sono troppo ingenti gli oneri e i requisiti amministrativi imposti a fornitori e utenti per conformità, registrazione, supervisione, trasparenza e qualità dei dati. Le sanzioni previste in caso di inottemperanza, fino al 6 per cento del fatturato delle imprese, scoraggiano sperimentazioni e soluzioni innovative basate sulla AI. L’assenza di incentivi per Pmi e start up che vogliono utilizzare l’AI le spiazzerebbe rispetto alle concorrenti straniere. Un approccio così restrittivo è contrario a un’impostazione competitiva che renda la manifattura europea in grado di usare leve di produttività analoghe a quelle statunitensi e asiatiche. Riccardo Luna, che di tecnologia si occupa da una vita, si è chiesto giustamente sulla Stampa: “Siamo sicuri di non aver messo troppi limiti a una tecnologia ancora acerba e che può svilupparsi in modi che ancora non abbiamo neanche immaginato? Perché aver voluto includere nelle regole non solo le applicazioni, che in effetti possono essere buone o cattive, ma anche la tecnologia in sé, i famosi General Purpose Model di cui non si sa ancora abbastanza, e il cui sviluppo potrebbe dunque essere limitato?”. Sante parole, a mio giudizio.

Il vento sovranista, in Italia e non solo
Che dietro le posizioni di Trump e Biden prima ricordate si riproponga anche su AI la sfida securitaria lanciata a Cina e Russia, è evidente e coerente al timore palpabile di perdere la leadership di potenza trainante mondiale. Perciò la politica vuole evitare a tutti i costi che della montagna di miliardi di dollari investiti in ricerca AI dai giganti americani del settore possano trarre un vantaggio anche cinesi e russi. Ma il sovranismo delle piccole patrie spira con forza crescente in Europa, che su AI è indietrissimo rispetto ad americani e cinesi. Se stai indietro, pensare di recuperare il gap circoscrivendo i tuoi sforzi nei confini nazionali ti condannerà a perdere ancor più duramente. Riuscirai solo ad allungare tempi in cui i tuoi settori di industria e servizi possano compiere balzi di efficienza e produttività con l’accesso al meglio dell’AI, chiunque l’abbia sviluppata e offerta nel mondo. 

 

Il primo grande paese europeo che dal 2023 ha cominciato a suonare la musica di una “AI nazionale” è stata la Francia, In più occasioni nel corso dell’anno, incontrando le aziende nazionali del settore digitale, Macron ha lanciato l’idea della necessità di un LLM fermamente basato su lingua, valori, cultura e ricerca francesi. E intorno a questa idea ha operato una pressante azione di persuasione su tutti i maggiori investitori istituzionali francesi, fondi d’investimento come banche e compagnie assicurative, annunciando un paio di settimane di aver raccolto impegni a stanziare 7 miliardi di euro per sostenere la via nazionale francese alla AI, che saranno anche accompagnati da parte del governo con riduzioni d’imposta alle persone fisiche che investono in start up. “Siamo leader nell’Europa continentale”, ha detto, “siamo leggermente dietro agli inglesi, ma non è impossibile recuperare”. Con tutto il rispetto per la tradizionale grandeur che sa di vecchio gaullismo, e per la gloria eternamente da tributare all’Encyclopédie curata da Diderot e d’Alembert, i modelli generativi di AI avanzata non sono tomi stampati da replicare ciascuno incentrato sul proprio patrimonio culturale, come accadde con l’Enciclopedia Britannica o con l’italica Treccani. 
Il vento sovranista sembra gonfiare le vele anche del disegno di legge annunciato in questi giorni dal governo italiano sull’AI. “Nasceranno campioni nazionali dell’AI”, ha annunciato Giorgia Meloni. “Più dati controlleranno le autorità italiane meglio sarà”, le ha fatto eco il sottosegretario alla presidenza con delega all’innovazione Alessio Butti. L’AI si basa sull’accesso a una sterminata quantità di dati open access. Ma la politica pensa di segregarli secondo confini nazionali. Tutte le volte che in Italia la politica parte in quarta con la retorica patriottarda che ora finalmente ci penserà lei con le sue misure ad hoc, a far nascere “campioni nazionali” non prodotti dal mercato, l’alternativa obbligata è tra sorriderne o preoccuparsi.  In vista del ddl, alla premier sono state consegnati i due documenti istruttori che erano stati richiesti dal governo, la relazione sulla Strategia per l’AI elaborata dalla commissione istituita a ottobre e presieduta da Gianluigi Greco, e la relazione sull’informazione affidata al comitato presieduto da Paolo Benanti. Obiettivo principale: se la Francia punta a creare un suo campione creando un Language Large Model francese, l’Italia non sarà da meno e farà nascere un proprio LLM autarchico. Dalle anticipazioni, non manca una vasta lista di ambizioni concorrenti.  Assicurare una cooperazione sul tema tra Pubblica amministrazione, imprese Ict, start up e università. Puntare sul ruolo trainante di alcune grandi società controllate dallo stato, Enel e Poste: che in realtà dovrebbero essere considerate come grandi clienti dell’AI avanzata, più che centri di ricerca e sviluppo. Il tutto attraverso un Fondo finanziario di Cdp Venture la cui finalità è quella di sostenere iniziative progettuali promosse da reti d’imprese e singole imprese, con la dotazione di un miliardo di euro. E in aggiunta 150 milioni specificamente rivolti alle start up di AI. Finalità di stato, strumenti di stato, selezione dei progetti da parte dello stato. Che cosa mai potrà andar male? L’Italia oggi può contare solo sul 4 per cento delle 6 mila start up attive in Europa sui temi collegabili all’AI e di cui circa 600 lavorano direttamente su progetti di AI generativa. Germania e Francia hanno invece entrambe una quota percentuale a doppia cifra. Fate voi i conti, se davvero con queste misure colmeremo il gap in misura significativa. 

 

Ciliegina finale: naturalmente la politica sovranista diffida di autorità tecniche indipendenti per i delicati compiti di vigilanza, controllo e sanzioni collegate alla nuova mole di obblighi di trasparenza, tutela dei dati, garanzie di sicurezza nazionale eccetera eccetera discendenti dall’AI Act europeo e dal disegno di legge governativo. Ci penseranno invece due Agenzie insediate e controllate direttamente da Palazzo Chigi, l’Agenzia per il digitale e quella per la cybersecurity. La politica decide, la politica controlla. Mah. Se per esempio si ha anche una vaga idea di che cosa l’AI possa generare per il miglioramento della sanità con telemedicina, diagnostica a distanza, simulazioni cliniche e operatorie, accesso a banche dati estere, perfezionamento delle tecniche di formazione e apprendimento di tutte le professioni mediche e paramediche, la cosa da cui partire sono i progetti e gli investimenti già avviati dai grandi Irccs privati che operano in Italia. Non certo dall’imposizione di modelli decisi dalla politica.      

L’alternativa al pensiero unico
Per gli impenitenti liberali mercatisti che non si rassegnano al constatare che AI diventi un grande terreno di sontro tra ambizioni geopolitiche, rigurgiti nazionalisti, velletà dirigiste e imponenti codici di obblighi aggiuntivi alle imprese di mercato, l’alternativa esiste. Faccio un solo esempio, andate sul sito fromthenew.world/p/the-alliance-for-the-future-manifesto, e considerate quanto saggio e apprezzabile sia il manifesto lanciato da questo nuovo think tank di imprenditori, fondatori di aziende hitech, ricercatori, accademici, tecnologi e finanzieri. I princìpi sono semplici e chiari, L’AI può arrecare benefici immensi all’umanità, ma la politica sbaglia di fronte ad essa come ha puntualmente sbagliato a ogni rivoluzione tecnologica, visto che chi ha buona memoria di storia industriale sa che vennero considerate al loro inizio come temibili e pericolose diavolerie i telai meccanici, i motori a scoppio, gli aerei, i vaccini e i computer.  Lo stesso panico che si addensa oggi sul machine learning e sul quantum computing, che sono alla base dell’AI. Ma l’intelligenza artificiale è un processo aperto, non un oggetto in sé pericoloso.  Ha a che fare con equazioni e algoritmi che trasformano informazioni ed energia in prodotti e servizi. L’ondata di panico e l’oceano dirigista di nuove regolazioni in arrivo in Usa ed Europa sono risposte sbagliate e velleitarie. L’AI va diffusa in ogni settore pubblico e privato dell’economia, oggi è come se i governi considerassero che per ognuna di queste particelle ci sarà un burocrate a chiederne ragioni. Ma chiunque usi oggi email per frodare è lui che ne risponde alla legge, non certo gli sviluppatori e le aziende che offrono piattaforme di posta elettronica. Certo, l’AI offre enormi possibilità aggiuntive a reti terroristiche e potenze autoritarie. Ma vanno isolate, combattute e perseguite loro che ne faranno un tale uso, non l’AI in sé.

Di più su questi argomenti: