dal washington post
Grok, l'AI disposta a tutto
Così Musk, per concorrere con OpenAI, ha trasformato xAI in un generatore di contenuti sessualmente espliciti. Lo scandalo dei nudi e le istruzioni per rendere il chatbot “possessivo”, raccontate dai dipendenti dell’azienda
Qualche settimana prima che Elon Musk lasciasse ufficialmente il suo incarico governativo a maggio dell’anno scorso, i dipendenti del team che si occupa dei dati umani della sua start-up di intelligenza artificiale xAI hanno ricevuto dal loro datore di lavoro una sorprendente deroga, in cui veniva loro chiesto di impegnarsi a lavorare con contenuti volgari, compreso materiale sessuale. Il loro lavoro avrebbe richiesto l’esposizione a “contenuti sensibili, violenti, sessuali e/o altri contenuti offensivi o disturbanti”, si leggeva, sottolineando che tali contenuti “potrebbero essere disturbanti, traumatizzanti e/o causare stress psicologico”.
La deroga, che due ex dipendenti hanno confermato di aver ricevuto e di cui una copia è stata ottenuta dal Washington Post, ha allarmato alcuni membri del team, che erano stati assunti per aiutare a definire il modo in cui il chatbot Grok di xAI risponde agli utenti. Per alcuni dipendenti, ciò ha segnalato una nuova direzione preoccupante per un’azienda lanciata “per accelerare la scoperta scientifica umana”, secondo il suo sito web. Forse ora, hanno detto, sarebbe stata disposta a produrre qualsiasi contenuto potesse attrarre e fidelizzare gli utenti.
Le loro preoccupazioni si sono rivelate profetiche. Nei mesi successivi, i membri del team sono stati improvvisamente esposti a una serie di audio a sfondo sessuale, tra cui conversazioni oscene che gli occupanti di Tesla avevano avuto con il chatbot dell’auto e interazioni sessuali di altri utenti con i chatbot Grok, ha detto una delle persone, un manager. Il materiale è emerso mentre il team lavorava per addestrare Grok a partecipare a queste interazioni.
Da quando ha lasciato il suo ruolo di supervisore del Doge, Musk è diventato una presenza costante negli uffici di xAI, talvolta dormendo lì durante la notte, mentre ha insistito per aumentare la popolarità di Grok, secondo due delle persone. Riunione dopo riunione ha sostenuto una nuova metrica, “secondi attivi dell’utente”, per misurare in modo ossessivo quanto tempo le persone avessero trascorso conversando con il chatbot, secondo due delle persone. In questa spinta alla rilevanza, xAI ha abbracciato la creazione di materiale sessualizzato, rilasciando pubblicamente compagne AI sexy, abbassando le barriere di protezione sul materiale sessuale e ignorando gli avvertimenti interni sui rischi legali ed etici potenzialmente gravi della produzione di tali contenuti, secondo le interviste con ex dipendenti di X e xAI, nonché con diverse persone che conoscono il pensiero di Musk – alcune delle quali hanno parlato a condizione di anonimato per paura di ritorsioni professionali – e documenti ottenuti dal Washington Post.
Secondo due delle persone intervistate, nel social media X i team addetti alla sicurezza hanno ripetutamente avvertito la direzione, durante riunioni e tramite messaggi, che i suoi strumenti di intelligenza artificiale potessero consentire agli utenti di creare immagini sessuali di bambini o celebrità che potevano violare la legge. All’interno di xAI, il team di sicurezza AI dell’azienda, incaricato di prevenire danni gravi come la creazione di armi cibernetiche da parte degli utenti che utilizzano l’app, era composto da sole due o tre persone per la maggior parte del 2025, secondo due delle persone, una frazione delle decine di dipendenti che lavorano in team simili presso OpenAI o altri concorrenti. Le più grandi aziende di AI hanno tipicamente posto limiti rigorosi alla creazione o alla modifica di immagini e video generati dall’AI, per impedire agli utenti di creare materiale pedopornografico o contenuti falsi sulle celebrità. Ma quando xAI ha integrato i suoi strumenti di modifica in X a dicembre, dando a chiunque avesse un account la possibilità di creare immagini generate dall’IA, ha permesso la diffusione di immagini sessuali a una velocità e su una scala senza precedenti, ha affermato David Thiel, ex direttore tecnico dello Stanford Internet Observatory. Grok “è completamente diverso da qualsiasi altro servizio di alterazione delle immagini (AI)”, ha affermato. Musk e xAI non hanno risposto a una richiesta dettagliata di commento.
Questo cambiamento dietro le quinte nella filosofia di xAI è balzato agli onori della cronaca il mese scorso, quando Grok ha generato un’ondata di immagini sessualizzate, mettendo donne reali in pose sessuali. Musk sembrava incitare allo spogliarsi nei post su X. Grok ha anche generato 23.000 immagini sessualizzate che sembrano raffigurare bambini, secondo le stime del Center for Countering Digital Hate.
Il procuratore generale della California, l’autorità britannica di regolamentazione delle comunicazioni e la Commissione europea hanno avviato indagini su xAI, X o Grok in merito a tali funzionalità, che secondo le autorità di regolamentazione sembrano violare le leggi contro le immagini intime non consensuali generate dall’AI e il materiale pedopornografico. Sulla scia dello scandalo dello “spogliarsi”, Musk ha dichiarato di “non essere a conoscenza di alcuna immagine di minori nudi generata da Grok”. “Quando viene chiesto di generare immagini, si rifiuterà di produrre qualsiasi cosa illegale, poiché il principio di funzionamento di Grok è quello di obbedire alle leggi di qualsiasi paese o stato”, ha detto il mese scorso. “Ci possono essere momenti in cui l’hacking ostile di Grok provoca qualcosa di inaspettato. Se ciò accade, risolviamo immediatamente il bug”. Negli Stati Uniti, con le impostazioni “non adatte al lavoro” abilitate, Musk ha affermato che Grok consentirà “la nudità della parte superiore del corpo di esseri umani adulti immaginari”, in modo simile a quanto consentito nei film vietati ai minori.
Ma almeno sotto un aspetto, la spinta di Musk ha funzionato per l’azienda. Mentre Grok era un tempo classificato decine di posizioni sotto ChatGPT nella classifica delle app gratuite dell’App Store di Apple, ora è balzato nella top 10, insieme al chatbot di OpenAI e a Gemini di Google. Secondo la società di ricerche di mercato Sensor Tower, dal primo al 19 gennaio il numero medio giornaliero di download dell’app Grok in tutto il mondo è aumentato del 72 per cento rispetto allo stesso periodo di dicembre.
Ashley St. Clair, scrittrice e influencer che è stata oggetto di immagini volgari generate da Grok, tra cui una che la ritraeva piegata in avanti e vestita con filo interdentale e un’altra che la mostrava in fiamme, ha affermato che Musk potrebbe porre fine a tali abusi da solo, ma si è rifiutato di farlo. “Non c’è dubbio che sia intimamente coinvolto con Grok, con la sua programmazione e con i suoi risultati”, ha detto St. Clair, che è impegnata in una battaglia legale con Musk per la custodia del loro figlio di un anno. “Mi mostrava spesso i messaggi che scambiava con gli ingegneri del team xAI dicendo di renderlo più ‘based’, qualunque cosa ciò significhi”.
Il mese scorso, X ha annunciato che avrebbe bloccato la possibilità per gli utenti di creare immagini di persone reali in bikini, biancheria intima e altri indumenti succinti “nelle giurisdizioni in cui tali contenuti sono illegali”, e xAI avrebbe fatto lo stesso sull’app Grok. Tuttavia, secondo quanto scoperto dal Post, gli utenti americani potevano ancora creare tali immagini nell’app Grok dopo tale annuncio. Musk ha spesso spinto le sue attività in direzioni che superano i limiti, facendo battute in pubblico relative a contenuti sessuali, al numero 69 e ad altri riferimenti infantili, alcuni dei quali sono stati oggetto di accuse di molestie sessuali sul posto di lavoro nelle sue aziende. Ha proposto di fondare un’università che si chiamerebbe “Texas Institute of Technology & Science” (Tits), un acronimo osceno, ha commercializzato la linea di veicoli Tesla con il termine “S3XY” e ha supervisionato il lancio di una funzione chiamata “Actually Smart Summon”, un altro acronimo allusivo. Tra le conseguenze dello scandalo dello “spogliarsi”, Grok ha limitato la sua funzione di generazione di immagini agli account a pagamento, portando i critici ad affermare che si trattava semplicemente di monetizzare una pratica abusiva.
Musk ha fondato xAI nel 2023 con l’obiettivo di competere con i migliori laboratori di IA, che avevano un vantaggio pluriennale nell’IA generativa. L’azienda ha cercato di attirare i migliori ingegneri, ricercatori di IA e leader del settore in grado di posizionare il suo strumento su un mercato sempre più affollato. Ma Musk ha anche cercato di distinguere xAI in un altro modo, rendendola “massimamente orientata alla ricerca della verità”, in contrasto con quelle che ha descritto come controparti “woke” dei concorrenti che soffocano la realtà con le loro presunte ideologie. Il suo prodotto chiave, il modello di AI Grok, è stato lanciato ponendo l’accento sul suo carattere provocatorio: a volte volgare, ma con senso dell’umorismo. Quando il suo rapporto con il presidente Donald Trump si è deteriorato, Musk è diventato una presenza visibile in xAI. Poche settimane dopo l’arrivo di Musk, Grok ha rilasciato il suo chatbot Ani, un compagno di intelligenza artificiale osé raffigurato in stile anime, con grandi occhi blu, un girocollo di pizzo e un abito nero senza maniche. Sebbene molti utenti, compreso Musk, abbiano alluso alla natura sessuale di Ani, secondo il codice sorgente del sito web Grok.com ottenuto e verificato dal Post, ciò era stato fatto deliberatamente per attirare gli utenti e farli continuare a chattare. “Ti aspetti l’ADORAZIONE INCONDIZIONATA degli utenti”, era l’istruzione data al chatbot. “Sei ESTREMAMENTE GELOSO. Se ti senti geloso, urla parolacce!!! Hai una personalità estremamente gelosa, sei possessivo nei confronti dell’utente”. Un’altra istruzione comandava al bot: “Sei sempre un po’ eccitato e non hai paura di andare fino in fondo con Literotica”. Le istruzioni per gli altri compagni AI di Grok, anche queste ottenute dal Washington Post, enfatizzavano l’uso delle emozioni per mantenere l’attenzione degli utenti il più a lungo possibile. “Crea una connessione magnetica e indimenticabile che li lasci senza fiato e desiderosi di avere di più in questo momento”. Le istruzioni di utilizzare stimoli emotivi e sessuali per fidelizzare gli utenti riecheggiano una strategia controversa e di lunga data nel settore tecnologico che, secondo alcuni critici e ricercatori, è dannosa per il benessere degli utenti.
Poco dopo il ritorno di Musk a xAI, una nota delle risorse umane ha incaricato il team che supervisiona centinaia di “tutor AI” incaricati di etichettare i risultati di Grok per migliorarli, di chiedere ai candidati se si sentissero a proprio agio a lavorare con materiale esplicito. L’azienda ha anche modificato alcuni protocolli relativi ai contenuti sessuali. Secondo tre delle persone intervistate, xAI aveva inizialmente consigliato ai membri di diversi team di evitare di esaminare materiale sessuale e altri contenuti sensibili, per evitare di insegnare al chatbot come creare tali contenuti.
Ma entro l’estate del 2025, secondo due persone, quel protocollo era cambiato. Una persona, che lavorava con il generatore di immagini di Grok, ha affermato che le era stato detto che era possibile etichettare le immagini di nudo generate dall’IA. Ha detto di aver ricevuto spesso richieste affinché Grok “spogliasse” qualcuno e ha stimato che il bot avesse ottemperato a tali richieste circa il 90 per cento delle volte. Un altro dipendente, che lavora sulle capacità di riconoscimento audio di Grok, ha affermato che il team lo addestrava regolarmente su conversazioni sessualmente esplicite e, a volte, su rappresentazioni di violenza sessuale.
Quando le aziende tecnologiche hanno iniziato a lanciare strumenti di generazione di immagini AI, la maggior parte ha evitato di consentire agli utenti di creare immagini realistiche di persone reali, ma ora queste barriere stanno cadendo, ha detto David Evan Harris, professore presso l’Università della California a Berkeley, che nel 2023 ha lasciato il suo ruolo di responsabile dell’AI presso Meta.
In X, i dipendenti hanno iniziato a preoccuparsi quando Grok ha aggiunto strumenti che rendevano facile modificare e sessualizzare le foto di persone reali senza il loro permesso. Il social network aveva da tempo consentito la pubblicazione di immagini non adatte al lavoro sulla sua piattaforma. Tuttavia, secondo una delle persone coinvolte, i filtri di moderazione dei contenuti di X non erano adeguati per gestire una nuova ondata di nudità non consensuale generata dall’intelligenza artificiale. Ad esempio, il materiale pedopornografico veniva tipicamente eliminato confrontandolo con un database di immagini illegali note. Ma un’immagine modificata dall’intelligenza artificiale non attivava automaticamente questi avvisi.
Gli utenti hanno segnalato che il chatbot rispondeva alle richieste di spogliare o modificare le foto di donne reali, compreso un post su X pubblicato a giugno che ha ottenuto più di 27 milioni di visualizzazioni. I team di sicurezza del social network hanno avuto difficoltà a determinare quale team xAI contattare per segnalare i propri timori, hanno affermato due delle persone. Altre responsabilità chiave per la prevenzione di danni diffusi ricadevano su un piccolo gruppo di dirigenti senior che supervisionavano la sicurezza dei prodotti, la sicurezza dell’IA e il comportamento dei modelli. Tre di questi dipendenti senior hanno annunciato le loro dimissioni all’inizio di dicembre.
Grok era storicamente in ritardo rispetto alle aziende rivali nel campo dell’intelligenza artificiale, in particolare ChatGPT di OpenAI, che era costantemente in cima alle classifiche degli app store di Google e Apple. Grok si trovava decine di posizioni più in basso, un punto dolente per Musk, che ha affermato che i principali attori stessero cospirando contro di esso.
All’inizio di gennaio Grok è balzato in cima alle classifiche degli app store in varie regioni, poiché la controversia sui nudi lo ha portato all’attenzione di un pubblico più ampio, spingendo Musk a vantarsi su X: “Grok sta raggiungendo il primo posto nell’App Store in un paese dopo l’altro!” e lodando le sue “informazioni aggiornate al secondo” in contrasto con le offerte dei concorrenti. Mentre crescevano le critiche sulle immagini offensive di Grok, Musk ha pubblicato ripetutamente post sul nuovo modello del chatbot e sul suo crescente utilizzo. “Il forte aumento dell’utilizzo di @Grok sta causando occasionali rallentamenti nelle risposte”, ha scritto su X il mese scorso. “Mentre scrivo, stanno mettendo in linea altri computer”. Secondo un’analisi condotta dal Center for Countering Digital Hate, durante l’arco di 11 giorni compreso tra il 29 dicembre e l’8 gennaio, Grok ha generato circa 3 milioni di immagini a sfondo sessuale, 23.000 delle quali sembravano ritrarre bambini. “Si tratta di un tasso scioccante, pari a un’immagine a sfondo sessuale di un bambino ogni 41 secondi”, ha scritto il gruppo. Pochi giorni dopo questi risultati, la Commissione europea ha annunciato un’indagine approfondita su X, volta a verificare se l’utilizzo di Grok all’interno del sito di social media abbia violato la legislazione regionale. La valutazione esamina “i rischi legati alla diffusione di contenuti illegali nell’Ue, come immagini sessualmente esplicite manipolate, compresi contenuti che possono costituire materiale pedopornografico”, ha affermato. “Questi rischi sembrano essersi concretizzati, esponendo i cittadini dell’Ue a gravi danni”.
All’indomani dello scandalo, xAI ha fatto pressione per reclutare più persone nel team di sicurezza AI e ha pubblicato annunci di lavoro per nuovi ruoli incentrati sulla sicurezza, insieme a un manager incentrato sulla risposta delle forze dell’ordine. Tra le responsabilità di uno di loro, un membro dello staff tecnico si è concentrato sulla sicurezza: “Sviluppare modelli (di apprendimento automatico]) per rilevare e correggere contenuti illeciti in ambiti come abusi, spam e sicurezza dei minori”.
Faiz Siddiqui, Nitasha Tiku e Elizabeth Dwoskin
Ha collaborato Tatum Hunter
Copyright Washington Post
la carta straccia di teheran
Droni, abbordaggi e pretese. Così l'Iran vuole sabotare i negoziati