Sam Altman con Emmanuel Macron (LaPresse)

Tecnologia e politica

Minaccia? Opportunità? Il tour europeo di Sam Altman, l'uomo di ChatGPT

Pietro Minto

Dopo essere apparso davanti al Congresso americano ottenendo un plauso bipartisan, a fine maggio il fondatore di OpenAI è atterrato nel Vecchio Continente. L’Unione cerca delle leggi per l’IA, ma la posizione dell’ad resta ambigua

A leggere le sue dichiarazioni, Sam Altman, cofondatore e amministratore delegato di OpenAI, sembra essere due persone diverse e con opinioni piuttosto lontane. Due settimane fa il capo della più discussa azienda di intelligenze artificiali apparve davanti al Congresso statunitense con la faccia preoccupata e la voce spezzata dall’emozione: qualcuno metta delle regole, dei vincoli alle intelligenze artificiali, sembrò quasi implorare ai politici, dai quali ottenne un plauso quasi bipartisan. A fine maggio, Altman è atterrato in Europa, dove l’Unione europea sta discutendo dal 2021 un’ambiziosa serie di leggi sulle IA. La partita fuori casa ha avuto un esito diverso e il ceo ha finito per minacciare di abbandonare il continente qualora la legge diventasse realtà. Pochi giorni dopo, lo stesso Altman è tornato sui suoi passi, passando da “se riusciremo ad ottemperare alle regole, lo faremo, altrimenti cesseremo le operazioni in Europa” (dichiarazione citata dal Time il 25 maggio scorso) a un messaggio d’amore per il Continente tutto.

 

Il capo di OpenAI è da pochi mesi sulla cresta dell’onda ma ci ha già abituato a uno strano effetto yo-yo nelle sue esternazioni. Questa settimana, per esempio, ha firmato una nuova lettera aperta sui rischi delle IA insieme a grandi nomi del settore che lavorano per Google e Microsoft, tra gli altri. Nel documento si legge che “mitigare il rischio di estinzione a causa delle intelligenze artificiali dovrebbe essere una priorità globale insieme ad altri minacce come le pandemie o le guerre nucleari”. Poche parole di cui una – estinzione – ha generato un clamore mediatico notevole, mettendo ancora una volta Altman al centro della scena con un ruolo doppio e acrobatico: da una parte è l’imprenditore a cui più dobbiamo l’accelerazione del settore, con tutti i suoi rischi; dall’altra, parla di estinzione, della necessità di limiti, freni, regole per evitare non più pericoli di natura varia ma addirittura l’Armageddon.

 

Davanti al rimbalzo tra posizioni tanto diverse, in molti si sono chiesti cosa stia succedendo ad Altman, quale sia la sua sincera posizione sull’argomento. Per capirlo, conviene concentrarsi proprio sulle sue dichiarazioni allarmiste, a partire da quella rilasciata lo scorzo marzo, quando il nostro si disse “un po’ preoccupato” dalla tecnologia su cui sta investendo, arrivando due mesi dopo a parlare di “estinzione”. Parole grosse ma non proprio precise: la minaccia è sfocata e lontana; una sola cosa è certa: il pericolo è enorme, qualcuno deve fare qualcosa. La scelta di quel qualcuno è ovviamente cruciale: durante la sua udienza al Congresso, il senatore repubblicano John Kennedy propose (scherzosamente) di far dirigere ad Altman stesso l’agenzia federale che gli Stati Uniti vorrebbero creare per vigilare sulle Ia. Altman rifiutò sorridendo, dicendo di avere già un lavoro che ama. Un simpatico quadretto. Ma non appena la posta in gioco diventa più alta e la politica si azzarda a fare qualcosa in più di ascoltare costernata i deliri apocalittici dei signori delle Ia, ecco che Altman cambia tono e arriva a minacciare di abbandonare l’intero continente. Alla faccia dell’estinzione per l’umanità, verrebbe da dire.

 

Il problema principale, per OpenAI, riguarda il disegno di legge europeo, che dividerebbe le intelligenze artificiali in quattro categorie sulla base del loro coefficiente di rischio: rischio minimo, limitato, alto, inaccettabile. I prodotti di OpenAI ricadrebbero nella terza categoria, “alto rischio”, costringendo l’azienda a una serie di limitazioni e a sottostare a “obblighi severi” sulla “qualità dei database su cui si basano i sistemi” e la registrazione dell’attività degli utenti per “assicurare la tracciabilità dei risultati”, con maggiore trasparenza nei confronti dell’utente e delle autorità competenti. Tutte cose aliene a OpenAI e alle altre aziende del campo, che agiscono in un far west normativo che vorrebbero mantenere tale, magari distraendo i governi e gli enti di controllo indicando una minaccia lontana, invisibile ma di portata biblica. Nell’èra dei social, lo spauracchio era il Grande Fratello di Zuckerberg o gli scandali come quello di Cambridge Analytica. Oggi siamo in territori lovecraftiani con macchine “intelligenti” e imperscrutabili che sfuggono – o potrebbero sfuggire – al controllo dei loro creatori, uccidendoci tutti. Una minaccia enorme, non c’è che dire, ma forse non abbastanza da fare accettare a Sam Altman una proposta di legge europea.