
Ansa
Cose dai nostri schermi
La svolta arrapata di ChatGPT
L’apertura ai contenuti per adulti non è un episodio isolato. Rientra in una strategia più ampia di fidelizzazione dell’utente, che punta a creare un rapporto sempre più personale con le intelligenze artificiali. Siamo entrati in una nuova fase: OpenAI senza freni
C’è una vecchia legge non scritta di internet, la regola 34, secondo la quale “se qualcosa esiste, ne esiste anche la versione pornografica”. Più che una battuta, sembra una profezia che si autoavvera e pare aver raggiunto anche il settore dell’intelligenza artificiale. Questa settimana, infatti, Sam Altman ha confermato che, nei prossimi mesi, ChatGPT offrirà agli utenti adulti e abbonati la possibilità di generare e discutere contenuti erotici. L’azienda sostiene di aver sviluppato sistemi di sicurezza tali da permettere questa apertura “responsabile”.
Altman non ha inventato nulla di nuovo, a dire il vero. I chatbot erotici esistono da anni: Replika AI è forse la più nota startup del settore, attiva dal 2017, e offre compagni o compagne virtuali, personalizzabili nel carattere e nel comportamento, con cui conversare liberamente. Di qualsiasi cosa. Tuttavia, l’ingresso di OpenAI in questo settore così delicato conferma quanto l’azienda sia cambiata, dopo anni di moralismo tecnologico e di allarmi per la fine del mondo che potrebbe essere causata dalle AI.
Alla base di questa decisione c’è, banalmente, l’esigenza di aumentare l’engagement di ChatGPT, anche a causa della pressione economica e finanziaria che interessa le aziende del settore. Oltre a ottenere fondi miliardari da investire in data center, OpenAI deve anche guadagnare soldi: secondo il Financial Times, ad oggi l’azienda genera 13 miliardi di dollari di entrate annue, a fronte di investimenti per il prossimo quinquennio che sfiorano i mille di miliardi di dollari. Per dirla con TechCrunch, “OpenAI ha cinque anni di tempo per trasformare tredici miliardi in un bilione”. Una strada in salita che passa anche per scelte come quella dell’intimità, parte di una serie di novità con cui l’azienda vuole permettere agli utenti paganti di avere un rapporto più personale e affettuoso con il chatbot.
Lo abbiamo visto quest'estate, quando OpenAI ha presentato GPT-5, rottamando tutti i modelli precedenti, incluso GPT-4o. Quest'ultimo era un modello speciale, con un tono molto amichevole e caldo, amato da molti utenti, i quali si arrabbiarono quando OpenAI lo tolse. Alcuni di loro piansero su Reddit e X la perdita di un amico, o quasi, tanto da spingere l'azienda a reintegrare GPT-4o e a riflettere sui legami personali che si creano tra noi e i chatbot. O almeno così sembrava fino all’annuncio di questa settimana.
L’apertura ai contenuti per adulti non è un episodio isolato. Rientra in una strategia più ampia di fidelizzazione dell’utente, che punta a creare un rapporto sempre più personale con le intelligenze artificiali. Lo abbiamo già visto con Sora, il social per video generati con le AI con cui OpenAI permette a chiunque di generare clip anche di se stessi, grazie alla funzione Cameo. L’offerta dell’azienda è sempre più personale, intima, vicina all’utente, nonostante i molti rischi che caratterizzano la diffusione di “partner virtuali”. La patina etica che ha caratterizzato la OpenAI delle origini è ormai completamente saltata. In queste settimane, complice l'assurda concorrenza nel settore, siamo entrati in una nuova fase: OpenAI senza freni. Anche perché, sembra sostenere Altman, se certe cose non le fanno loro, le farà qualcun altro (ovvero, la xAI di Elon Musk, che da qualche mese offre dei “Companions” digitali con cui flirtare).
Nel frattempo, l’enorme vuoto normativo che caratterizza il settore comincia a essere colmato da leggi che si occupano di questo tipo di AI intime e amichevoli. In Italia, nel 2023 il Garante della Privacy arrivò a bloccare Replika AI accusandola di non verificare sufficientemente l’età dei suoi utenti, ad esempio. Questa settimana, lo stato della California ha approvato una legge che impone limiti specifici ai partner virtuali basati sulle AI, in base alla quale le aziende dovranno monitorare e intervenire in caso di conversazioni su suicidio o autolesionismo, e potranno essere ritenute legalmente responsabili in caso di negligenza.
Nel frattempo, constatiamo come OpenAI, nata come non profit per sviluppare un’AI “amichevole” e non ostile agli esseri umani, sia diventata l’entità commerciale che era nata per bloccare. E dalle chiacchiere sulla “AGI” e le superintelligenze destinate a ucciderci tutti, siamo passati al sexting. Il tutto, in meno di tre anni.


Ennesima "innovazione"
Le flipped classroom, o della tecnologia al servizio della pigrizia intellettuale

Cose dai nostri schermi