Rapidi cambiamenti
La nuova etica per un'IA morale. Una settimana di sviluppi
Dal modello di ChatGpt che sembra “Her” a Gemini di Google, passando per i colloqui tra Stati Uniti e Cina sulla sicurezza delle intelligenze artificiali. E non è finita qui
“Che settimana, eh?”. “Lemon, è mercoledì”. Si potrebbe sintetizzare così, con uno scambio tratto dalla serie “30 Rock” tra la protagonista Liz Lemon e il suo capo Jack Donaghy, quello che è successo questa settimana nel campo delle intelligenze artificiali. Tre giorni in cui è successo di tutto e si sono mossi due dei principali attori del settore, mentre gli altri giganti preparano annunci per le prossime settimane e uno sciame di startup è stato praticamente spazzato via da un paio di demo di prodotti in uscita. Lunedì OpenAi ha presentato Gpt-4o, una versione gratuita e più veloce di Gpt-4, il modello linguistico alla base di ChatGpt. L’evento si è svolto perlopiù in una scenografia da film, un salottino con poltrone e tavolino, attorno al quale alcuni nomi grossi dell’azienda hanno dimostrato le potenzialità di GPT-4o. A fare discutere è stata soprattutto la capacità di sintesi vocale della tecnologia, con cui sarà possibile discutere e scherzare (nei limiti delle capacità di OpenAi).
A molte persone la demo ha ricordato le atmosfere di “Her”, film di Spike Jonze del 2013 nel quale Joaquin Phoenix si innamora di un’intelligenza artificiale di nuova generazione in grado di veicolare – e capire – le emozioni. Lo stesso Sam Altman, cofondatore e amministratore delegato dell’azienda, ha commentato la novità con un tweet di una sola parola: “her”. I più attenti hanno subito tentato di ricordare che il film di Jonze racconta in realtà una storia di isolamento e alienazione, e finisce con il protagonista che viene “lasciato” dall’IA ed è costretto a ripartire da zero, ricucendo i rapporti con i propri simili. Ma l’eccitazione era troppa e la comprensione del testo non pare essere una capacità in voga, da quelle parti, senza contare che la settimana era appena iniziata.
Il giorno dopo, martedì, è stato il turno di Google I/O, annuale conferenza di Google per sviluppatori web, dominata come da previsioni dalle IA. Tra le novità presentate, infatti, molte riguardavano Gemini – il chatbot dell’azienda – e Google Astra, un progetto che sembra uscito da Star Trek e consiste in un assistente virtuale in grado di interagire con la fotocamera e riconoscere gli elementi ripresi in tempo reale, rispondendo a domande di vario tipo. Vista l’attesa legata alla conferenza di Google, è lecito pensare che OpenAI abbia pensato di organizzare un suo evento il giorno prima per imporsi sulla discussione del settore. Non è chiaro se ci sia riuscita ma di certo nella giornata di martedì ha comunque trovato un modo di far parlare di sé. Nel giro di poche ore, infatti, uno dei cofondatori di OpenAI e tra le menti più rispettate nel settore, Ilya Sutskever, ha lasciato l’azienda, subito seguito da Jan Leike: i due erano responsabili di Superalignment, un team dal roboante nome (“super allineamento”) che aveva il dovere di “guidare e controllare” lo sviluppo delle AI più potenti.
Sutskever è tra l’altro una delle persone che ebbero un ruolo chiave nel bizzarro golpe di novembre che esautorò per cinque giorni Altman da OpenAI, prima che la rivolta interna fosse sedata e quest’ultimo tornasse alla guida dell’azienda. Il fatto che il personale ai più alti livelli nel campo dell’etica e della sicurezza se ne vada da OpenAI – proprio mentre l’ex azienda corsara si ritrova a gestire la concorrenza di Google – potrebbe non essere un segnale molto rassicurante. E’ anche probabile che la crisi di novembre si sia conclusa solo questa settimana mentre sempre più persone si domandano cosa abbia “visto” Ilya Sutskever tra le pieghe di OpenAI: una possibile superintelligenza malevola o una generale noncuranza per la sicurezza degli utenti? (Va anche notato che, secondo il New York Times, dopo la crisi di novembre, Sutskever è rimasto dipendente dell’azienda ma non si è più fatto vedere a lavoro). Nella stessa giornata, infine, sono iniziati a Ginevra, in Svizzera, i primi colloqui su intelligenze artificiali e sicurezza tra membri del governo americano e quello cinese, che furono avviati da Joe Biden l’anno scorso. La discussione, secondo fonti degli Stati Uniti, riguarderà le IA in generale “con un’enfasi sui sistemi avanzati”, per un settore cruciale e delicato, soprattutto per le sue applicazioni militari. La serie di incontri ha avuto inizio proprio mentre Biden aumentava i dazi commerciali per i prodotti prodotti Made in China su settori come l’energia solare e le automobili elettriche, che vanno ad aggiungersi a quelli, pesantissimi, sui chip più potenti, pensati proprio per rallentare lo sviluppo delle IA cinesi.
fine dell'attivismo da social?
Se parli di politica su Meta, scompari. La scelta di Zuckerberg
spioni e cybersicurezza