Cybersicurezza

OpenAI a Davos dà il via alla collaborazione con la Difesa americana

Pietro Minto

Il ceo Sam Altman si mostra più realista e annuncia i progressi  di GPT-5 nei prossimi anni. E sul futuro delle IA dice: “Nessuno sa cosa succederà”

OpenAI sta lavorando con il Pentagono per sviluppare “strumenti per la cybersicurezza” a partire dalle sue intelligenze artificiali. La notizia è arrivata ufficialmente martedì durante il World Economic Forum di Davos anche se i dubbi circolavano dal 10 gennaio, quando OpenAI aveva cambiato alcune parole del suo regolamento interno, che vietava l’utilizzo delle IA per “attività che hanno alto rischio di causare danno fisico”, come lo “sviluppo d’armi” e in generale il “settore militare”. Termini che hanno lasciato il posto a parole più vaghe e blande, in modo da aprire la strada al nuovo cliente.
 

“Siccome prima il regolamento prevedeva essenzialmente un divieto generale per il settore militare, molte persone pensavano che casi come questo fossero proibiti”, ha commentato Anna Makanju, responsabile degli affari globali di OpenAI, giustificando la novità. Al netto del cambiamento, OpenAI mantiene il divieto di usare le tecnologie per sviluppare armi, distruggere proprietà e fare male a delle persone. Niente bombe, insomma, ma via libera ai contratti milionari della Difesa statunitense, in un repentino cambiamento d’approccio che ricorda quello, già visto, del Big Tech. Dopo anni in cui Google si vantava del suo motto “Dont’ Be Evil” (Non essere cattivo), infatti, la Silicon Valley ha imparato a firmare contratti con Fbi, Pentagono e aziende governative. La stessa Microsoft – socio di peso di OpenAI – gestisce la cloud del Pentagono, un affare da 9 miliardi di dollari che si divide con Google, Amazon e Oracle.
 

A rendere notevole la mossa di OpenAI è anche il peso che l’azienda di ChatGPT ha oggi nel settore delle intelligenze artificiali e il rischio che il settore militare statunitense deleghi lo sviluppo della tecnologia a un privato (per quanto non profit: OpenAI è infatti ancora considerata, nonostante una valutazione da 86 miliardi di dollari, una non profit). Non è uno scenario così difficile da immaginare, dopotutto, visto che è già successo negli ultimi anni con SpaceX e Starlink. La prima è l’azienda aerospaziale di Elon Musk a cui Nasa ed Esa hanno appaltato buona parte dei loro lanci; la seconda è in realtà il nome di un servizio di telecomunicazione satellitare offerto proprio da SpaceX, un insieme di migliaia di piccoli satelliti che permettono connessioni internet anche da aree rurali. Il peso politico – e militare – di SpaceX è oggi evidente sia nella guerra in Ucraina che in quella a Gaza, dove Musk ha potuto “offrire” il servizio agli eserciti ucraino e israeliano, rivelandosi talmente decisivo da preoccupare alcuni ufficiali statunitensi. Visti i precedenti, è lecito pensare che qualcosa di simile possa capitare con Sam Altman, co-fondatore e capo di OpenAI, al posto di Musk, in un settore ancora più delicato, come quello delle IA.
 

Il giorno dopo l’annuncio dell’accordo, Altman e Satya Nadella (ceo di Microsoft) hanno partecipato a un incontro tenuto dall’Economist, sempre a Davos, nel quale l’argomento militare è stato grande assente. I due hanno invece sottolineato le possibili applicazioni delle IA nell’istruzione e nella medicina, cercando di mitigare il timore nei confronti della tecnologia. Altman è arrivato persino a smontare l’hype per le cosiddette AGI (Intelligenza artificiale forte), ovvero il computer – per ora teorico – che potrebbe superare gli umani in tutto, e che spesso viene descritto con toni messianici e apocalittici. Niente di tutto questo, dice Altman: “Nessuno è ormai d’accordo su cosa vuol dire AGI” e anche se OpenAI riuscisse a creare la leggendaria tecnologia, il mondo “impazzirebbe per due settimane per poi andare avanti lo stesso”. 
 

Parole che stridono con il tono tenuto da Altman negli ultimi due anni, in cui ha più volte ventilato l’estinzione dell’umanità a causa dalle IA. Il fondatore non è l’unico a pensarlo: nella Silicon Valley si è infatti sviluppata una corrente di pensiero apocalittico (o “doomer”) che si dice piuttosto sicura del fatto che il rischio esista, e nel breve periodo. All’opposizione ci sono i cosiddetti “accelerazionisti”, che ritengono l’avvento delle IA come un evento cruciale e benefico. Un dibattito tra il mistico e il fantascientifico che Altman ha sempre assecondato con piacere, ricordando il potenziale distruttivo delle IA anche al Congresso. Ieri, a Davos, è sembrato invece diverso, più realista, mentre annunciava i progressi che GPT-5 farà nei prossimi anni. Quanto al futuro delle IA, a un certo punto lo ha detto chiaramente: “Nessuno sa cosa succederà”.