Foto ANSA

Cose dai nostri schermi

I porno-bot e il futuro delle AI secondo Elon

Pietro Minto

E se il modello di business che il settore delle intelligenze artificiali sta aspettando fosse vendere amici, amiche e compagni d'altri tipo a milioni di persone? xAI, l'azienda di Elon Musk, ha lanciato due nuovi "Companion" di Grok, uno dei quali è una ragazzina che sembra uscita da un anime. Ed è disposta a parlare di tutto

Alla fine di maggio, in queste pagine, abbiamo parlato del rapporto complicato tra Elon Musk e Grok, il chatbot sviluppato dalla sua azienda di intelligenza artificiale xAI. In quel periodo, Grok aveva risposto a molti utenti della piattaforma X con commenti critici nei confronti dello stesso Musk, delle sue aziende e delle sue posizioni pubbliche. Una situazione bizzarra, che Musk aveva deciso di affrontare annunciando, anzi minacciando, la riprogrammazione del chatbot.

 

        

 

Nei giorni successivi, è effettivamente successo qualcosa a Grok, che ha fatto grande clamore con assurdi e preoccupanti paragoni con Hitler e affermazioni che mostravano simpatia verso il nazismo. A un certo punto, per dire, Grok si è definito “MechaHitler”, una fusione tra il dittatore e i robot giganti della fantascienza giapponese. Cose da Grok, insomma, ma anche l’evidente tentativo da parte di Musk e i suoi di correggere il comportamento del chatbot. 

A distanza di qualche settimana, Grok ha cambiato ancora una volta identità. xAI ha presentato una nuova funzione chiamata “Companion”, che introduce due avatar digitali: Rudy e Ani. Il primo è un panda rosso pensato per interagire con i bambini. Il secondo, Ani, è una ragazza virtuale in stile anime giapponese, con tanto di abitino succinto.

Ani interagisce con l’utente in modo amichevole, con toni spesso giocosi o ammiccanti. Questo ha sollevato diverse perplessità, soprattutto considerando che l’app di xAI è disponibile su App Store per gli utenti dai 12 anni in su e Ani sembra programmata per spingersi piuttosto oltre nelle sue interazioni, creando situazioni inappropriate.

Questa nuova evoluzione di Grok si inserisce in un discorso più ampio che riguarda l’uso dei modelli linguistici come “compagni” virtuali. Alcune inchieste recenti, tra cui una di Rolling Stone, hanno raccontato di utenti che interagiscono quotidianamente con chatbot come ChatGPT, trattandoli non come strumenti, ma come amici, confidenti o addirittura guide spirituali. In alcuni casi, queste conversazioni assumono un ruolo centrale nella vita di persone fragili o isolate, che tendono a interpretare le risposte dell’AI come verità rivelate.

A questo punto, è importante chiarire che questi chatbot non sono davvero “intelligenti” nel senso umano del termine: si tratta piuttosto di modelli linguistici, o LLM (Large Language Models), capaci di produrre testi plausibili partendo da grandi quantità di dati, ma privi di coscienza, intenzione o comprensione reale. Eppure, il modo in cui vengono proposti e percepiti può facilmente alimentare confusione, specie tra le persone più giovani o fragili.

Il problema si intreccia con la sostenibilità economica di questi strumenti. Mantenere in funzione modelli come Grok o ChatGPT ha costi molto elevati: servono infrastrutture tecnologiche avanzate, GPU costose, grandi quantità di energia e personale altamente specializzato. Inoltre, la maggior parte degli utenti utilizza ancora le versioni gratuite, rendendo difficile costruire un business solido su questi strumenti.

Una delle soluzioni che molte aziende del settore stanno esplorando è proprio quella di trasformare i chatbot in “compagni” virtuali. Personaggi digitali con cui parlare, scherzare, confidarsi o, in alcuni casi, flirtare: non più solo assistenti per la produttività, ma compagni, presenze emotive, sempre disponibili. In un mondo sempre più solitario, vendere connessioni – per quanto irreali – può essere un business enorme. E, almeno al momento, sregolato.

xAI sembra muoversi in questa direzione, seguendo una tendenza che riguarda anche altri settori della tecnologia. Tesla, altra azienda di Musk, sta lavorando su robot umanoidi, come anche molte altre aziende nel mondo, tra cui Meta. Esistono poi startup ancora più piccole e spericolate, come Replika e Character.AI, che hanno già dimostrato le conseguenze che questo tipo di relazioni possono avere. Un anno fa, un quattordicenne statunitense si tolse la vita proprio dopo aver parlato di suicidio con un bot di Character.AI. 

Resta da capire quali saranno i limiti di queste tecnologie. Per ora non ci sono regole chiare, ed è probabile che non sarà l’amministrazione Trump a rimboccarsi le maniche per dare confini e limiti a un settore che è disposto a tutto pur di trovare un modello di business sostenibile. Anche a vendere amici, amiche e amichette che non esistono.

Di più su questi argomenti: