LaPresse

Lo scenario

I cento qualunquismi sull'Ai

Carlo Alberto Carnevale Maffè

Cosa non torna sul serioso appello anti intelligenza artificiale presentato all'Onu. L’obiettivo non può essere “fermare” la scienza, ma incanalarla: ridurre il rischio senza cedere il vantaggio tecnologico a chi lo userebbe contro la società aperta

La “sindrome di Oppenheimer” si ripresenta oggi, riproponendo un sottile filo etico-politico tra la bomba atomica degli anni ’40 e l’intelligenza artificiale dei giorni nostri. Come nel dibattito sull’energia nucleare nel secondo dopoguerra del secolo scorso, l’obiettivo non può essere “fermare” la scienza, ma incanalarla: ridurre il rischio senza cedere il vantaggio tecnologico a chi lo userebbe contro la società aperta. L’appello presentato all’ONU e firmato da oltre 200 tra scienziati, premi Nobel e leader politici, che invoca un accordo globale entro il 2026 per imporre "linee rosse" all'intelligenza artificiale ha certamente il merito di riportare l’attenzione sulle applicazioni più rischiose dell’AI.

 

Tra gli obiettivi: vietare l’impersonificazione umana, impedire la replicazione autonoma dei sistemi e tenere l’AI fuori dalla catena di comando nucleare. È un segnale politico forte e opportuno per un fenomeno di portata planetaria. Voci e dettagli simili sono stati rilanciati da altre testate internazionali all’avvio dell’Assemblea Generale, confermando l’ampiezza del fronte pro-regole. Il contesto non è privo di precedenti: come segnalato dal rapporto UNCTAD 2025 sull'innovazione tecnologica, l'AI può accelerare la crescita ma anche aggravare il divario digitale rispetto ai Paesi in via di sviluppo; già con la Bletchley Declaration del 2023 oltre 25 Paesi avevano riconosciuto la necessità di cooperare sulla sicurezza dell’AI, ma il percorso di implementazione è rimasto frammentato e disomogeneo, sintomo di interessi strategici divergenti. Come rilevato anche dal Journal of Democracy, i governi autoritari, con decisioni opache e allineate al potere piuttosto che al benessere umano, sono più propensi a perseguire usi rischiosi dell'AI, ignorando eventuali accordi internazionali.

 

Qui sta il vero limite del “vincolismo”: se la stretta operasse soprattutto nelle democrazie occidentali, i regimi autocratici potrebbero incassare un vantaggio relativo, orientando lo sviluppo verso usi repressivi o aggressivi. Le evidenze sul ricorso dell’AI a fini di sorveglianza e controllo sociale in contesti illiberali sono già corpose. Non a caso, autorevoli ricercatori hanno criticato moratorie generalizzate sulla ricerca di frontiera: regolamentare i prodotti e i casi d’uso è sensato; fermare l’avanzamento della conoscenza rischia di produrre l’“eterogenesi dei fini”, legando le mani ai sistemi aperti e lasciando più spazio agli attori meno trasparenti. 

 

Sul piano geo-economico, la competizione tecnologica USA-Cina e l’approccio più prudenziale europeo rendono improbabile una pausa simmetrica: il risultato plausibile è una governance a geometria variabile che riflette rapporti di forza, non solo princìpi. La lezione, come per la sindrome di Oppenheimer ma con barriere all’ingresso all’AI molto più basse che nel caso del nucleare, è chiara: demonizzare la scienza nelle democrazie non elimina il rischio, lo delocalizza. Servono invece: (i) divieti mirati, verificabili ed efficacemente applicabili sugli usi ad alto danno; (ii) capacità pubbliche di valutazione e auditing; (iii) cooperazione tra alleati su standard, controllo delle esportazioni e monitoraggio; (iv) investimenti nella ricerca di sicurezza comprendendo tecniche di allineamento dei modelli a obiettivi, valori e vincoli normativi delle democrazie, protocolli di valutazione standardizzati con stress test e red-teaming indipendente per misurare capacità e rischi; metodi di robustezza e affidabilità contro errori e attacchi avversari. In questo modo si alza l’asticella della consapevolezza senza cedere il terreno a chi userebbe l’AI contro le democrazie liberali. Solo così l'AI potrà essere un motore di prosperità condivisa, non un'arma asimmetrica.

Di più su questi argomenti: