Limiti e concorrenza
Come si è allenato Sora, il generatore di video di OpenAI? Due (soliti) problemi
Alcuni dei video generati dalla nuova versione di Sora stupiscono per il loro realismo. E alimentano le preoccupazioni legate ai rischi della disinformazione. Mentre ancora restano molti dubbi sulla provenienza delle immagini attraverso cui vengono prodotti i contenuti
La scorsa settimana, a un evento del New York Times, il ceo di Google, Sundar Pichai, ha confermato il sospetto di molti nel settore delle intelligenze artificiali: “I frutti più facili sono già stati raccolti”. Come a dire: abbiamo raggiunto un limite nel progresso di questo settore e la curva tecnologica cresce sempre più lentamente. Le cose miglioreranno, ha promesso Pichai, ma per ora la realtà è questa. Nello stesso evento anche Sam Altman, cofondatore di OpenAI, principale competitor di Google nelle AI, è sembrato ridurre le aspettative di molti (dopo averle gonfiate per almeno due anni), abbassando l’asticella per la cosiddetta “Agi” (Artificial General Intelligence), o intelligenza artificiale forte, un ipotetico nuovo tipo di AI in grado di eguagliare o superare le capacità umane.
OpenAI è impegnata in una carrellata pre natalizia – detta “Ship-Mas” – in cui presenta una novità al giorno, per dodici giorni. Dopo un modello particolarmente potente a pagamento (200 dollari al mese), è arrivato Sora, il servizio in grado di generare video. Una specie di ChatGPT per le immagini in movimento che oggi è aperto a chiunque abbia un profilo a pagamento Plus, dopo essere stato per alcuni mesi disponibile solo per alcuni ricercatori. Alcuni dei video generati dalla nuova versione di Sora stupiscono per il loro realismo, nonostante contengano spesso movimenti innaturali, corpi umani in pose innaturali o altri errori. In passato Altman si era detto “preoccupato” dalla potenza di strumenti simili, che potrebbero essere abusati per creare disinformazione, ma questi timori non hanno fermato il lancio di Sora.
Accelerare a tutti i costi per superare la concorrenza e crescere sempre di più, quindi: proprio il genere di cose che OpenAI avrebbe dovuto evitare, quando fu fondata nel 2015 da un gruppo di imprenditori “preoccupati”, tra cui Elon Musk e Altman. A rendere tutto più ironico, l’azienda di cui il nucleo fondatore era più preoccupata era proprio Google. Da quando OpenAI ha presentato Sora, lo scorso febbraio, l’azienda è stata chiamata a rispondere a una delle domande cruciali dell’intero settore: da dove vengono i video con cui Sora è stata “addestrata”? Se per quanto riguarda ChatGPT e simili sappiamo ormai che alla base del loro sviluppo c’è stato l’utilizzo di testi d’ogni tipo, perlopiù dal web, la questione video rischia di essere ancora più delicata. Il problema si era posto già a marzo, quando l’allora cto (o direttrice tecnologica) dell’azienda, Mira Murati, fu intervistata dal Wall Street Journal, che inevitabilmente chiese conto della provenienza del materiale con cui era sato allenato Sora. Purtroppo per Murati lo scambio era ripreso dalle telecamere, che registrarono la sua espressione di imbarazzo e indecisione, prima di dichiarare: “Abbiamo utilizzato dati pubblicamente disponibili e dati su licenza”. Quando le fu chiesto se tra quei video ci fossero contenuti presi da YouTube, Instagram o Facebook, ammise di non saperlo. Dallo scorso settembre Murati non fa più parte dell’azienda, vittima di una “riorganizzazione interna” di Altman con cui questo ha preso di fatto il controllo dell’operazione. Come tradizione, oggi Murati è al lavoro su una sua startup di AI “ultrasicura”.
Il problema dei video generati è che rischiano di rendere molto più evidente l’uso dei contenuti sui quali si sono formati – e che magari sono stati presi senza autorizzazione. Lo youtuber statunitense Marques Brownlee è uno dei primi ad aver avuto accesso alla nuova versione di Sora, pubblicando un video in cui mette insieme i punti di forza e criticità. Alla fine del video, però, Brownlee ha raccontato di aver chiesto a Sora di generare una clip di un recensore di prodotti tecnologici come lui. Sora ha generato un video con un dettaglio notevole: lo youtuber generato è seduto alla scrivania, con due grandi schermi alle spalle e una piccola pianta finta davanti a sé, sulla sua destra. Peccato che quella pianta finta somigli davvero molto a quella che Brownlee mostra spesso nei suoi video. Eppure, al momento di spiegare a Sora cosa generare, lo youtuber non aveva aggiunto dettagli su piante o affini. Strana coincidenza, no? Lo spettro dei video di YouTube usati nel training di Sora rimane – chissà come la prenderà Google, proprietaria di YouTube, qualora si scoprisse che tra i “dati pubblici” di OpenAI ci sono anche i suoi video.
Vetrine e pulpiti
Dall'uomo di Davos all'oligarca tech, andata e ritorno (con intoppo)
Intrattenimento del futuro