Le medie potenze possono salvare la governance dell'intelligenza artificiale

Nicolas Miailhe

Stati Uniti e Cina, le due superpotenze dell'AI, non sono disposte a discutere di moderazione: se dovesse nascere una scintilla di cooperazione sullo sviluppo della tecnologia, non verrà da loro. Il peso collettivo a far rispettare gli standard deve andare quindi nelle mani di Unione europea, India, Brasile e altri grandi mercati

A Davos, il 22 gennaio, Dario Amodei di Anthropic e Demis Hassabis di Google DeepMind hanno fatto un’ammissione sorprendente. Alla domanda se accoglierebbero con favore un rallentamento nello sviluppo dell’intelligenza artificiale, entrambi hanno risposto di sì. "Forse sarebbe utile procedere a un ritmo un po’ più lento", ha detto Hassabis, "così da poter fare le cose per bene, anche a livello sociale". Amodei ha concordato: "Lo preferirei anch’io. Penso sarebbe meglio per il mondo". Poi è arrivato il punto critico. Una tale moderazione, ha precisato Hassabis, richiederebbe "una collaborazione internazionale". Amodei è stato più diretto: "È molto difficile avere un accordo vincolante in cui loro rallentano e noi rallentiamo". Il messaggio, in sostanza, era di impotenza: due dei dirigenti tecnologici più potenti del pianeta ammettevano liberamente di essere intrappolati in una corsa che nessuno dei due ha scelto e da cui nessuno può tirarsi indietro da solo. Ed è proprio questo che dovrebbe preoccuparci. Le persone che stanno costruendo quella che loro stessi definiscono la tecnologia più determinante della storia dell’umanità stanno chiedendo pubblicamente aiuto per rallentare, ma nessuno risponde.

 

Il governo degli Stati Uniti, assorbito dalla competizione con la Cina per la supremazia globale, non è disposto a discutere di moderazione. La Cina, pur più incline a cooperare per evitare disastri o enormi perdite di posti di lavoro, non accetterà certo di farsi guidare da Washington. Le due superpotenze dell’AI sono in stallo. Se dovesse nascere una scintilla di cooperazione, non verrà da loro. Ed è qui che entrano in gioco i poteri medi. Paesi del G7, del G20 e dei Brics come Italia, Regno Unito, Brasile, Arabia Saudita, Canada, Singapore, Corea del Sud, India, Finlandia, Emirati Arabi Uniti e gli stati membri dell’Unione europea potrebbero non ospitare le aziende d’avanguardia dell’AI, ma possiedono qualcosa che alle due superpotenze manca: la capacità di convocare e costruire coalizioni senza essere accusati di perseguire interessi egemonici, e un peso collettivo di mercato sufficiente a far rispettare gli standard. La Corea del sud è diventata di recente il primo paese ad approvare una legge completa sull’intelligenza artificiale, che impone la supervisione umana per i sistemi ad alto impatto e l’obbligo di dichiarare i contenuti generati da AI. La legge è entrata in vigore mentre l’AI Act europeo è ancora impantanato in ritardi di attuazione. Questo mese l’India ospiterà il primo grande vertice globale sulla governance dell’intelligenza artificiale nel sud globale, dopo quelli di Parigi (2023), Seul (2024) e del Regno Unito (2023). I poteri medi non stanno aspettando il permesso di nessuno.

 

Gli scettici ricorderanno che i precedenti tentativi di frenare la corsa sfrenata verso un’AI superintelligente sono falliti. Nel 2024, poche settimane dopo il lancio di GPT-4 da parte di OpenAI, una lettera aperta che chiedeva una pausa di sei mesi nella formazione dei modelli avanzati raccolse decine di migliaia di firme, anche di figure chiave del settore, per poi essere dimenticata nel giro di poche settimane. Ma quell’iniziativa si basava su un’autoregolazione unilaterale, senza alcuna infrastruttura di coordinamento. Con la pressione competitiva e gli investimenti per trilioni di dollari in gioco, moratorie senza meccanismi non possono funzionare. Serve qualcosa di più sofisticato, e soprattutto coordinato a livello globale. I poteri medi possono costruire quell’infrastruttura che rende possibile la moderazione. Potrebbero istituire test di sicurezza comuni, progettati da scienziati indipendenti, che ogni laboratorio deve superare prima di un rilascio importante. Potrebbero creare un registro degli “incidenti mancati” sul modello dell’aviazione, dove gli ingegneri di tutto il mondo segnalano comportamenti pericolosi per evitare che si ripetano. Potrebbero imporre verifiche indipendenti per controllare la veridicità delle dichiarazioni su barriere di sicurezza, accessi e “interruttori di emergenza”. Niente di tutto questo è spettacolare, né farà titoli di giornale, ma è l’infrastruttura di base che rende possibile la cooperazione. Le medie potenze hanno più influenza di quanto pensino. L’Unione europea, l’India, il Brasile e altri grandi mercati rappresentano miliardi di utenti, e le aziende di frontiera dell’AI si adegueranno agli standard pur di accedervi. Il quadro normativo di Singapore, per esempio, sta già modellando il modo in cui le imprese distribuiscono sistemi in tutto il Sud-est asiatico. Quando i poteri medi fissano standard, i grandi laboratori globali li seguono – non per altruismo, ma per convenienza commerciale.

 

Amodei ha toccato questo punto, forse involontariamente, a Davos: "Se si possono limitare le esportazioni di chip verso la Cina", ha detto, "allora non si tratta di una competizione tra Stati Uniti e Cina, ma tra me e Demis (Hassabis) — e sono fiducioso che potremmo metterci d’accordo". In altre parole: se si rimuove la dimensione geopolitica, i laboratori occidentali possono collaborare. I poteri medi non possono eliminare la rivalità Usa-Cina, ma possono costruire un’infrastruttura di cooperazione capace di influire su di essa in modo significativo.

 

La finestra di opportunità, però, non resterà aperta a lungo. Sia Amodei che Hassabis hanno suggerito che sistemi di intelligenza artificiale capaci di auto-migliorarsi potrebbero arrivare entro uno-cinque anni. Dopo quel punto, la velocità del cambiamento potrebbe superare la nostra capacità di reagire in modo credibile. L’infrastruttura va costruita adesso, mentre i leader dei laboratori mostrano disponibilità e prima che la tecnologia renda impossibile qualsiasi rallentamento. Come ha detto chiaramente Mark Carney, primo ministro del Canada, a Davos: "Siamo in mezzo a una frattura. Le istituzioni multilaterali su cui i poteri medi hanno sempre fatto affidamento sono sotto minaccia". La sua ricetta: “coalizioni dei volenterosi”, gruppi di paesi affini che agiscono insieme quando le vecchie istituzioni non bastano più. La governance dell’AI è il banco di prova per capire se questo approccio può funzionare. I leader dei laboratori hanno già mostrato le loro carte: sarebbero lieti di ricevere aiuto. La domanda è se i poteri medi sapranno riconoscere l’occasione davanti a loro — e afferrarla prima che la finestra si chiuda. 

 


Nicolas Miailhe è co-fondatore di AI Safety Connect, una piattaforma diplomatica Track 1.5 che riunisce governi, laboratori di intelligenza artificiale di frontiera e società civile sulla sicurezza e la governance dell'AI. Pioniere riconosciuto delle politiche e della governance globali dell'AI, è un esperto nominato da PECC, UNESCO, OCSE, GPAI e ONU.

Di più su questi argomenti: