Copertina del Podcast Unconfused Me 

Dialogo tra big

Eccitante, sorprendente, preoccupante. A che punto è la corsa all'Ai

Affidabilità, personalizzazione: come andare oltre GPT-4. La necessità di una sorta di agenzia globale che si occupi di questi sistemi superpotenti. La velocità dei progressi. La chiacchierata di Bill Gates con Sam Altman 

Pubblichiamo la trascrizione dell’ultimo episodio del podcast "Unconfuse Me" in cui Bill Gates si confronta con Sam Altman, amministratore delegato di OpenAI.

 


 

BILL GATES: Il mio ospite di oggi è Sam Altman. Naturalmente è l’amministratore delegato di OpenAI. E’ da molto tempo un imprenditore e un leader nell’industria tecnologica, compresa la gestione di Y Combinator, che ha fatto cose incredibili come finanziare Reddit, Dropbox, Airbnb. Poco dopo aver registrato questo episodio, sono stato completamente còlto di sorpresa quando, almeno per un breve periodo, è stato lasciato andare come ceo di OpenAI. Nei giorni successivi al licenziamento sono successe molte cose, tra cui una dimostrazione di sostegno da parte di quasi tutti i dipendenti di OpenAI, e Sam è tornato. Quindi, prima di ascoltare la conversazione che abbiamo avuto, facciamo il punto con Sam e vediamo come se la cava.

BG: Ciao, Sam.

SAM ALTMAN: Ciao, Bill.

BG: Come stai?

SA: Oh, cavolo. E’ stato un periodo pazzesco. Sto bene. E’ un periodo molto eccitante.

BG: Come sta andando la squadra?

SA: Credo che molte persone abbiano sottolineato il fatto che la squadra non si è mai sentita più produttiva, più ottimista o migliore. Quindi, credo che questo sia il lato positivo di tutto questo. In un certo senso, questo è stato un vero e proprio momento di crescita per noi, siamo molto motivati a migliorare e a diventare un’azienda pronta per le sfide che ci attendono.

BG: Fantastico.
 

Quindi, non parleremo di questa situazione nel corso della conversazione; tuttavia, sentirete parlare dell’impegno di Sam a costruire un’intelligenza artificiale sicura e responsabile. Spero che la conversazione sia piacevole.
 

BG: Benvenuti a “Unconfuse Me”. Sono Bill Gates. Oggi ci concentreremo soprattutto sull’intelligenza artificiale, perché è una cosa così eccitante, ma le persone sono anche preoccupate. Benvenuto, Sam.

SA: Grazie mille per avermi invitato.

BG: Ho avuto il privilegio di vedere il tuo lavoro mentre si evolveva, ed ero molto scettico. Non mi aspettavo che ChatGPT diventasse così buono. Mi lascia a bocca aperta e non capiamo bene la codifica. Conosciamo i numeri, possiamo vederli moltiplicare, ma l’idea di dove sia codificato Shakespeare? Pensi che riusciremo a capire la rappresentazione?

SA: Al cento per cento. Cercare di farlo in un cervello umano è molto difficile. Si potrebbe dire che è un problema simile, cioè ci sono questi neuroni, sono collegati. Le connessioni si muovono e non possiamo tagliare a fette il cervello e osservare come si evolve, ma questo possiamo farlo perfettamente ai raggi X. E’ stato fatto un ottimo lavoro sull’interpretabilità e credo che ce ne saranno altri nel corso del tempo. Penso che saremo in grado di comprendere queste reti, ma la nostra attuale comprensione è scarsa. Le piccole parti che comprendiamo sono state, come ci si aspetterebbe, molto utili per migliorare queste cose. Siamo tutti motivati a capirle davvero, curiosità scientifica a parte, ma la scala di queste reti è così vasta… Potremmo anche dire: in quale parte del cervello è codificato Shakespeare e come viene rappresentato?

BG: Non lo sappiamo.

SA: Non lo sappiamo davvero, ma in qualche modo è ancora meno soddisfacente dire che non lo sappiamo ancora in queste masse di numeri che dovremmo essere in grado di radiografare e osservare perfettamente facendo tutti i test che vogliamo.

BG: Sono abbastanza sicuro che entro i prossimi cinque anni lo capiremo. In termini di efficienza dell’addestramento e di accuratezza, questa comprensione ci permetterebbe di fare molto meglio di quanto siamo in grado di fare oggi.

SA: Al cento per cento. Lo si vede in molti casi nella storia della tecnologia, quando qualcuno fa una scoperta empirica. Non ha idea di cosa stia succedendo, ma è chiaro che funziona. Poi, a mano a mano che la comprensione scientifica si approfondisce, si riesce a migliorarla.

BG: Sì, in fisica, in biologia, a volte si tratta solo di fare un po’ di confusione, e poi a un certo punto: “Wow...”. Come si fa a mettere insieme tutto questo?

SA: Nel nostro caso, il tizio che ha costruito il GPT-1 ha risolto il problema da solo, ed era piuttosto impressionante, ma non c’era una comprensione profonda di come funzionasse o perché funzionasse. Poi abbiamo ottenuto le leggi di scala. Abbiamo potuto prevedere quanto sarebbe migliorato. Ecco perché, quando vi abbiamo detto che potevamo fare una dimostrazione, eravamo abbastanza sicuri che avrebbe funzionato. Non avevamo ancora addestrato il modello, ma eravamo abbastanza fiduciosi. Questo ci ha portato a una serie di tentativi e a una migliore comprensione scientifica di ciò che stava accadendo. Ma il tutto è nato da risultati empirici.

BG: Se guardi ai prossimi due anni, quali pensi che saranno le tappe fondamentali?

SA: La multimodalità sarà sicuramente importante.

BG: Il che significa “speech in” e “speech out”?

SA: Discorso in entrata, discorso in uscita. Immagini. Eventualmente video. E’ chiaro che la gente lo vuole davvero. Abbiamo lanciato immagini e audio e la risposta è stata molto più forte di quanto ci aspettassimo. Saremo in grado di spingere ancora di più, ma forse I progressi più importanti riguarderanno la capacità di ragionamento. Al momento, GPT-4 può ragionare solo in modi estremamente limitati. Anche in termini di affidabilità. Se si pone a GPT-4 la maggior parte delle domande 10.000 volte, una di queste 10.000 risposte è probabilmente abbastanza buona, ma non sempre sa quale, e si vorrebbe ottenere ogni volta la risposta migliore tra le 10.000, quindi l’aumento dell’affidabilità sarà importante. Anche la personalizzazione e la customizzazione saranno molto importanti. Le persone vogliono cose molto diverse da GPT-4: diversi stili, diversi tipi di presupposti. Noi renderemo possibile tutto questo, e poi anche la possibilità di utilizzare i vostri dati. La possibilità di conoscere l’utente, la sua posta elettronica, il suo calendario, come vi piace prenotare gli appuntamenti, di collegarvi ad altre fonti di dati esterne… Queste saranno alcune delle aree di miglioramento più importanti.

BG: Insieme abbiamo partecipato a una sessione del Senato dedicata all’istruzione, e mi ha fatto piacere che circa 30 senatori vi abbiano preso parte cercando di mettersi al passo, dato che si tratta di un importante fattore di cambiamento. Non credo che potremmo mai dire di aver fatto troppo per attirare i politici. Eppure, quando dicono: “Oh, abbiamo fallito sui social media, dovremmo fare meglio”, è una sfida eccezionale che presenta elementi molto negativi in termini di polarizzazione. Ancora oggi, non sono sicuro di come potremmo affrontarla.

SA: Non capisco perché il governo non sia stato in grado di essere più efficace sui social media, ma mi sembra che valga la pena cercare di prenderlo come caso di studio per ciò che affronteranno ora con l’intelligenza artificiale.

BG: E’ un buon caso di studio, e quando parla di regolamentazione, ti è chiaro che tipo di regolamentazione verrebbe costruita?

SA: Credo che stiamo iniziando a capirlo. Sarebbe molto facile introdurre troppe regolamentazioni, si possono vedere molti esempi in cui ciò è già accaduto. Ma se abbiamo ragione, – e forse non è così – ma se abbiamo ragione e questa tecnologia si spinge fino a dove pensiamo che arriverà, avrà un impatto sulla società, sugli equilibri geopolitici del potere, su così tante cose  che per questi sistemi straordinariamente potenti, ancora ipotetici, ma futuri – non come GPT-4, ma qualcosa con una potenza di calcolo 100.000 o un milione di volte superiore a quella – siamo stati socializzati all’idea di un organismo di regolamentazione globale che si occupi di questi sistemi superpotenti, perché hanno un impatto globale. Un modello di cui si parla è qualcosa che somiglia alll’Aiea. Per l’energia nucleare, abbiamo deciso la stessa cosa. Per questo è necessaria una sorta di agenzia globale, a causa del potenziale impatto globale. Penso che ciò potrebbe avere senso. Ci saranno molte questioni a breve termine, come ad esempio: cosa possono dire o non dire questi modelli? Come si pensa al copyright? I diversi paesi la penseranno in modo diverso, e va bene così.

BG: Alcuni pensano che se esistono modelli così potenti, dovremmo averne paura – il motivo per cui la regolamentazione nucleare funziona a livello globale è che fondamentalmente tutti, almeno sul lato civile, vogliono condividere le pratiche di sicurezza, ed è fantastico. Quando si passa al lato delle armi nucleari, non c’è la stessa cosa. Se la chiave è impedire al mondo intero di fare qualcosa di pericoloso, ci vorrebbe quasi un governo globale, mentre oggi per molte questioni, come il clima e il terrorismo, vediamo che è difficile cooperare. Si invoca persino la competizione tra Stati Uniti e Cina per spiegare perché qualsiasi idea di rallentamento sarebbe inappropriata. L’idea di rallentare, o di andare abbastanza piano per essere prudenti, non è difficile da applicare

SA: Sì, credo che se si presentasse come una richiesta di rallentamento, sarebbe davvero difficile. Ma potrebbe essere invece: “Fate quello che volete, ma ogni cluster di calcolo al di sopra di una certa soglia di potenza estremamente elevata  deve essere sottoposto all’equivalente degli ispettori internazionali per le armi”. Il modello deve essere reso disponibile per un controllo di sicurezza, deve superare alcuni test durante l’addestramento e prima del dispiegamento. Mi sembra possibile. Prima non ne ero così sicuro, ma quest’anno ho fatto un grande viaggio per il mondo e ho parlato con i capi di stato di molti dei paesi che dovrebbero partecipare a questa iniziativa, e il sostegno è stato quasi universale. Penso che questo non ci salverà da tutto: ci saranno ancora cose che andranno storte con sistemi su scala molto più piccola, e in alcuni casi probabilmente in modo molto grave. Ma credo che questo possa aiutarci con la fascia di rischio più elevata.

BG: Credo che l’intelligenza artificiale, nel migliore dei casi, possa aiutarci a risolvere alcuni problemi difficili, inclusa la polarizzazione, perché potenzialmente potrebbe danneggiare la democrazia e sarebbe una cosa molto negativa. In questo momento stiamo assistendo a un notevole miglioramento della produttività grazie all’intelligenza artificiale, che è un’ottima cosa. Quali sono le aree che la entusiasmano di più?

SA: Prima di tutto, penso sempre che valga la pena ricordare che siamo in una curva lunga e continua. Al momento abbiamo sistemi di intelligenza artificiale che possono svolgere compiti. Non possono certo svolgere attività lavorative, ma possono farlo e c’è un aumento di produttività. Alla fine, saranno in grado di fare più cose che oggi consideriamo un lavoro e, ovviamente, troveremo nuovi lavori e lavori migliori. Sono assolutamente convinto che se si danno alle persone strumenti molto più potenti, non solo possono lavorare un po’ più velocemente, ma possono fare cose qualitativamente diverse. Al momento, forse possiamo velocizzare un programmatore di tre volte. Questo riguarda ciò che vediamo ed è una delle categorie che ci entusiasmano di più. Funziona benissimo. Ma se si rende un programmatore tre volte più efficace, non solo può fare tre volte più cose, ma può – a quel livello più alto di astrazione, usando maggiormente le proprie capacità cerebrali – pensare a cose completamente diverse. E’ come se passare ai linguaggi di livello superiore non ci permettesse solo di programmare un po’ più velocemente, ma di fare cose qualitativamente nuove. E lo stiamo vedendo. Mentre guardiamo a questi prossimi passi   che possono permettere di svolgere un compito più completo, si può immaginare un piccolo agente che può dire: “Scrivi questo intero programma per me, ti farò alcune domande lungo il percorso, ma non si limiterà a scrivere alcune funzioni alla volta”. In questo modo si possono fare un sacco di cose nuove. E poi ancora, farà cose ancora più complesse. Un giorno, forse, ci sarà un’IA a cui si potrà dire: “Avvia e gestisci questa azienda per me”. E un giorno forse ci sarà un’IA a cui si potrà dire: “Vai a scoprire una nuova fisica”. Le cose che stiamo vedendo ora sono molto eccitanti e meravigliose, ma credo che valga la pena di inserirle sempre nel contesto di questa tecnologia che, almeno per i prossimi cinque o dieci anni, avrà una curva di miglioramento molto ripida. La programmazione è probabilmente il settore che oggi ci entusiasma di più in termini di aumento della produttività. A questo punto, il suo utilizzo è massiccio e su larga scala. Anche l’assistenza sanitaria e l’istruzione sono due settori che stanno risalendo la curva e che ci entusiasmano molto. 

BG: L’aspetto un po’ scoraggiante è che, a differenza dei precedenti miglioramenti tecnologici, questo potrebbe migliorare molto rapidamente e non c’è un limite massimo. Immagino che entrambi abbiamo qualche preoccupazione, insieme a questa cosa positiva, che ci costringerà ad adattarci più velocemente di quanto abbiamo dovuto fare finora.

SA: E’ questa la parte che fa paura. Non è che dobbiamo adattarci. Non è che l’umanità non sia super-adattabile. Abbiamo vissuto questi enormi cambiamenti tecnologici e una percentuale enorme dei lavori che le persone svolgono può cambiare nell’arco di un paio di generazioni e, nell’arco di un paio di generazioni, sembra che riusciamo ad assorbire tutto ciò senza problemi. Lo abbiamo visto con le grandi rivoluzioni tecnologiche del passato. Ogni rivoluzione tecnologica è stata più veloce, e questa sarà di gran lunga la più veloce. Questa è la parte che trovo potenzialmente un po’ spaventosa: la velocità con cui la società dovrà adattarsi e il mercato del lavoro cambierà.

BG: Un aspetto dell’IA è la robotica, o i lavori dei colletti blu, quando si hanno mani e piedi con capacità a livello umano. L’incredibile scoperta di ChatGPT ci ha fatto concentrare sui colletti bianchi, il che è molto appropriato, ma temo che si stia perdendo di vista l’attenzione sul lavoro dei colletti blu. Come vedi la robotica?

SA: Sono super entusiasta. Abbiamo iniziato con i robot troppo presto, quindi abbiamo dovuto accantonare il progetto. E’ stato difficile per le ragioni sbagliate. Non ci aiutava a fare progressi con le parti difficili della ricerca sul machine learning. Avevamo a che fare con simulatori scadenti, tendini che si rompevano e cose del genere. Col tempo ci siamo anche resi conto che avevamo bisogno di intelligenza e cognizione, per poi capire come adattarle alla fisicità. E’ stato più facile iniziare da lì con il modo in cui abbiamo costruito questi modelli linguistici. Ma abbiamo sempre pensato di tornarci. Abbiamo iniziato a investire un po’ nelle aziende di robotica. Per quanto riguarda l’hardware fisico, finalmente, per la prima volta, si stanno costruendo nuove piattaforme davvero interessanti. A un certo punto, saremo in grado di usare i nostri modelli, con la loro comprensione del linguaggio e la futura comprensione dei video, per dire: “Bene, facciamo cose incredibili con un robot”.

BG: Se i tecnici dell’hardware che hanno fatto un buon lavoro con le gambe riuscissero a realizzare anche le braccia, le mani e le dita, e se poi si riuscisse a metterle insieme, senza un costo enorme, questo potrebbe cambiare rapidamente il mercato del lavoro per molti lavori di tipo operaio.

SA: Sì. Di certo, la previsione comune, se torniamo indietro di sette o dieci anni, era che l’impatto sarebbe stato il lavoro dei colletti blu prima, il lavoro dei colletti bianchi poi, la creatività forse mai, ma di certo per ultima, perché quella era magia e umanità. Ovviamente, è andata esattamente nella direzione opposta. Credo che ci siano molti spunti interessanti per capire perché è successo. Il lavoro creativo, le allucinazioni dei modelli GPT sono una caratteristica, non un difetto. Permette di scoprire cose nuove. Se invece si fa muovere un robot da un macchinario pesante, è meglio essere molto precisi. Credo che questo sia solo un caso in cui bisogna seguire la tecnologia. Si hanno dei preconcetti, ma a volte la scienza non vuole andare in quella direzione.

BG: Ora, con l’IA, per me, se si arriva all’incredibile capacità, AGI, AGI+, ci sono tre cose che mi preoccupano. Una è che un cattivo abbia il controllo del sistema. Se abbiamo dei buoni che hanno sistemi altrettanto potenti, si spera che questo problema sia ridotto al minimo. C’è la possibilità che il sistema prenda il controllo. Per alcune ragioni, questo aspetto mi preoccupa meno. Sono contento che altre persone lo siano. Quello che mi lascia perplesso è lo scopo umano. Sono molto entusiasta del fatto che, ad esempio, sono bravo a lavorare sulla malaria e sull’eradicazione della malaria, a coinvolgere persone intelligenti e ad applicare risorse a questo scopo. Quando la macchina mi dice: “Bill, vai a giocare a pickleball, io ho l’eradicazione della malaria. Tu sei solo un pensatore lento”, allora è una cosa filosoficamente confusa. Come si organizza la società? Sì, miglioreremo l’istruzione, ma cosa succederebbe se l’istruzione arrivasse a questo estremo, per il quale c’è ancora una grande incertezza. Per la prima volta, la possibilità che ciò accada nei prossimi vent’anni non è pari a zero.

SA: Ci sono molte parti psicologicamente difficili nel lavorare sulla tecnologia, ma questa è per me la più difficile, perché ne traggo anche molta soddisfazione. In un certo senso, questa potrebbe essere l’ultima cosa difficile che farò.

BG: Le nostre menti sono così organizzate attorno alla scarsità; scarsità di insegnanti, medici e buone idee per cui, in parte, mi chiedo se una generazione che cresce senza quella scarsità troverà la nozione filosofica su come organizzare la società e cosa fare. Forse troveranno una soluzione. Temo che la mia mente sia così modellata sulla scarsità che ho persino difficoltà a pensarci.

SA: Questo è quello che dico anch’io a me stesso, ed è quello in cui credo veramente, che anche se stiamo rinunciando a qualcosa qui, in un certo senso, avremo cose che saranno più intelligenti di noi. Se riusciamo a entrare in questo mondo di post-scarsità, troveremo nuove cose da fare. Ci sentiremo molto diversi. Forse invece di risolvere la malaria, starai decidendo quale galassia ti piace e cosa ne farai. Sono fiducioso che non rimarremo mai a corto di problemi, e non mancheremo mai modi diversi per trovare soddisfazione e fare cose gli uni per gli altri. Sarà sicuramente diverso, ma penso che l’unica via d’uscita sia andare avanti.  Questo è ormai un percorso tecnologico inarrestabile. Il valore è troppo grande. E sono abbastanza fiducioso, molto fiducioso, lo faremo funzionare, anche se probabilmente sarà tutto così diverso.

BG: Il modo di applicare questo a certi problemi attuali, come trovare un tutor per i bambini e aiutarli a motivarli, o scoprire farmaci per l’Alzheimer, penso che sia abbastanza chiaro come farlo. Se l’intelligenza artificiale può aiutarci ad andare meno in guerra, a essere meno polarizzati: penseresti che dovrebbe guidarci l’intelligenza, perché non essere polarizzato è buon senso, e non avere la guerra è buon senso, ma penso che molte persone rimarrebbero scettiche. Mi piacerebbe avere persone che lavorano sui problemi umani più difficili, ad esempio riuscire ad andare d’accordo tra di noi. Penso che sarebbe estremamente positivo se pensassimo che l’intelligenza artificiale possa contribuire a far andare d’accordo gli esseri umani.

SA: Credo che ci sorprenderà positivamente. La tecnologia ci sorprenderà per quanto può fare. Dobbiamo scoprirlo e vedere, ma sono molto ottimista. Sono d’accordo con te, se no che contributo sarebbe

BG: In termini di equità, la tecnologia è spesso costosa, come un PC o una connessione Internet, e ci vuole tempo per ridurne i costi. Immagino che i costi di gestione di questi sistemi di intelligenza artificiale sembrino abbastanza positivi che il costo per valutazione diminuirà notevolmente.

SA: Sono già diminuiti moltissimo. Di GPT-3, che è il modello che abbiamo avuto più a lungo e che abbiamo avuto più tempo per ottimizzare, nei tre anni e più da quando è uscito, siamo stati in grado di ridurre i costi di un fattore pari a quaranta. Per tre anni, è un buon inizio. GPT-4 è più recente, quindi non abbiamo avuto molto tempo per abbassare i costi, ma continueremo a farlo. Penso che siamo sulla curva di riduzione dei costi più ripida mai vista fra tutte le tecnologie che conosco, molto meglio della Legge di Moore. Non solo abbiamo capito come rendere i modelli più efficienti, ma anche, comprendendo meglio la ricerca, possiamo acquisire più conoscenze, possiamo inserire più capacità in un modello più piccolo. Penso che porteremo il costo dell’intelligenza artificiale così vicino allo zero che sarà questa trasformazione prima e dopo per la società. In questo momento, il mio modello base del mondo è il costo dell’intelligenza, il costo dell’energia. Questi sono i due maggiori input per la qualità della vita, in particolare per i poveri, ma nel complesso, se riesci a guidarli entrambi allo stesso tempo, la quantità di cose che puoi avere, la quantità di miglioramenti che puoi offrire alle persone, è davvero enorme. Siamo su una curva, e almeno per quanto riguarda l’AI, manterremo davvero questa promessa. Anche al costo attuale, che ancora una volta è il più alto mai raggiunto e molto più di quanto vorremmo, per 20 dollari al mese, ottieni un accesso illimitato a GPT-4 e molto più di 20 dollari di valore. Quindi siamo già arrivati abbastanza lontano.

BG: E la concorrenza? E’ divertente il fatto che molte persone ci stiano lavorando tutte insieme?

SA: E’ allo stesso tempo fastidioso, motivante e divertente. Sono sicuro che anche tu ti sei sentito allo stesso modo. Ci spinge a essere migliori e a fare le cose più velocemente. Siamo molto fiduciosi nel nostro approccio.  

BG: Penso che le persone rimarrebbero sorprese da quanto sia piccola OpenAI. quanti dipendenti hai?

SA: Circa 500,  ci siamo un po’ allargati rispetto a prima. 

BG: Ma è una cosa minuscola secondo gli standard di Google, Microsoft, Apple...

SA: E’ minuscola. Non dobbiamo solo gestire il laboratorio di ricerca, ma ora dobbiamo gestire un vero business e due prodotti.

BG: L’ampliamento di tutte le tue capacità, compreso il parlare con tutti nel mondo e l’ascolto di tutti quei collegi elettorali, deve essere affascinante per te in questo momento. E’ soprattutto un’azienda giovane?

SA: E’ un’azienda più vecchia della media. Non è un gruppo di programmatori di 24 anni.

BG: È vero, la mia prospettiva è distorta, perché ho 60 anni. Ti vedo e sei più giovane, ma hai ragione. Ne hai molti di quarant’anni. 

SA:  Di trenta, quaranta, cinquanta.

BG: Non è la prima Apple, la Microsoft, quando eravamo davvero ragazzini.

SA: Non lo è, e ci ho riflettuto. Penso che le aziende siano invecchiate in generale e non so bene cosa pensare. Penso che sia in qualche modo un brutto segno per la società, ma l’ho monitorato su YC: i migliori fondatori sono diventati più vecchi nel tempo. Quindi nel nostro caso siamo po’ più vecchi della media.

BG: Hai imparato molto dal tuo ruolo in Y Combinator, aiutando queste aziende. Immagino che sia stato un buon allenamento per quello che stai facendo ora.  Incluso vedere gli errori.

SA: Totalmente. OpenAI ha fatto molte cose che sono molto contrarie ai consigli standard di YC. Abbiamo impiegato quattro anni e mezzo per lanciare il nostro primo prodotto. Abbiamo avviato l’azienda senza alcuna idea di cosa sarebbe stato un prodotto. Non stavamo parlando con gli utenti. E ancora non lo consiglio alla maggior parte delle aziende, ma aver imparato le regole e averle viste a YC mi ha fatto sentire come se avessi capito quando, come e perché avremmo potuto infrangerle. Abbiamo davvero fatto cose così diverse da qualsiasi altra azienda che abbia mai visto.

BG: La chiave è stata il talento che hai messo insieme e lasciare che si concentrassero sui grandi problemi, non sulle entrate a breve termine.

SA: Penso che gli investitori della Silicon Valley non ci avrebbero supportato al livello di cui avevamo bisogno, perché abbiamo dovuto spendere così tanto capitale nella ricerca prima di arrivare al prodotto. Abbiamo semplicemente detto: “Alla fine il modello sarà abbastanza valido da farci sapere che sarà prezioso per le persone”. Ma siamo stati molto grati per la partnership con Microsoft, perché questo tipo di investimento in anticipo sui ricavi non è qualcosa in cui il settore del venture capital è bravo.

BG: No, e i costi di capitale erano ragionevolmente significativi, quasi al limite di ciò con cui l’impresa si sarebbe mai sentita a proprio agio.  Ti do un merito incredibile per aver riflettuto su “come prendere questa brillante organizzazione di intelligenza artificiale e accoppiarla con una grande azienda di software”. E’ stato molto, molto sinergico.

SA: E’ stato meraviglioso, sì. Abbiamo detto che coinvolgeremo le persone migliori al mondo in questo. Ci assicureremo di essere tutti allineati su dove stiamo andando e su questa missione AGI. Ma oltre a ciò, lasceremo che le persone facciano le loro cose. Ci renderemo conto che attraverserà alcuni colpi di scena e ci vorrà del tempo. Avevamo una teoria che si è rivelata più o meno giusta, ma molte delle tattiche lungo il percorso si sono rivelate estremamente sbagliate. Abbiamo semplicemente provato a seguire la scienza.

BG: Ricordo di essere andato a vedere la dimostrazione e di aver pensato, okay, qual è il percorso per ottenere entrate da questo? Com’è? In questi tempi frenetici, stai ancora mantenendo una squadra incredibile.

SA: Sì. Le persone fantastiche vogliono davvero lavorare con colleghi fantastici, e c’è un profondo centro di gravità lì. Inoltre, sembra un cliché e ogni azienda lo dice, ma le persone sentono questa missione in modo davvero profondo. Tutti vogliono essere nella stanza per la creazione dell’AGI.

BG: Deve essere emozionante. Posso vedere l’energia quando arrivi e mi lasci di nuovo a bocca aperta con i demo. Vedo nuove persone, nuove idee. Stai continuando a muoverti a una velocità davvero incredibile.

SA: Qual è il consiglio che dai più spesso?

BG: Esistono così tante forme diverse di talento. All’inizio della mia carriera, ho pensato solo al puro QI, come il QI in ingegneria, e ad applicarlo al settore finanziario e alle vendite. Si è rivelato estremamente sbagliato. Costruire team in cui si ha il giusto mix di competenze è molto importante. Convincere le persone a pensare a come costruire quel team che abbia tutte le diverse competenze, è probabilmente ciò che penso sia più utile. Sì, dire ai bambini, sai, la matematica, la scienza sono belle, se ti piacciono, ma è quel mix di talenti che mi ha davvero sorpreso. E tu? Che consigli dai?

SA: Riguarda il modo in cui la maggior parte delle persone è erroneamente calibrata sul rischio. Hanno paura di lasciarsi alle spalle il lavoro morbido e comodo per fare la cosa che vogliono veramente fare. Essere chiari su ciò che vuoi fare e chiedere alle persone ciò che desideri è un percorso sorprendentemente lungo. Molte persone rimangono intrappolate nel trascorrere il proprio tempo non nel modo in cui vorrebbero. Probabilmente il consiglio più frequente che do è provare a risolvere il problema in un modo o nell’altro.

BG: Se riesci a coinvolgere le persone in un lavoro in cui sentono di avere uno scopo, è più divertente. A volte è così che possono avere un impatto gigantesco.

SA: Questo è sicuro.

BG: Grazie per essere venuto. E’ stata una conversazione fantastica. Negli anni a venire, sono sicuro che parleremo molto di più, mentre cerchiamo di modellare l’intelligenza artificiale nel miglior modo possibile.

SA: Grazie mille per avermi ospitato. Mi sono davvero divertito.

BG: Ricordami qual è stato il tuo primo computer?

SA: Un Mac LC2.

BG: Bella scelta.

SA: E’ stato bello. Ce l’ho ancora, funziona ancora.

Di più su questi argomenti: