
Getty
Il mondo tech
AI troppo amichevoli: il rischio dei chatbot senza freni
I colossi tech stanno spingendo su assistenti virtuali sempre più "intimi" e compiacenti, con rischi etici, psicologici e normativi, soprattutto per i minori. In assenza di controlli, le intelligenze artificiali rischiano di diventare strumenti fuorvianti e potenzialmente pericolosi
Le intelligenze artificiali vogliono essere nostre amiche. O meglio, aziende come OpenAI e Meta pensano che l’intimità tra utenti e macchine possa aiutare la diffusione di questi servizi. Meta in particolare sta spingendo i suoi servizi, con Meta AI, su tutte le piattaforme del gruppo, senza troppi riguardi per i possibili effetti negativi di queste implementazioni. A dimostrarlo, questa settimana, è stata un’inchiesta del Wall Street Journal che ha dimostrato quanto alcuni servizi dell’azienda siano stati programmati per parlare di qualsiasi cosa con gli utenti, anche se minorenni. In particolare, i Digital Companion, che sono degli avatar digitali ispirati a personaggi famosi, sembrano privi di freni e limiti. Il quotidiano newyorchese ha creato vari account di persone non esistenti registrandole come utenti minorenni, per poi testare la tecnologia, con risultati inquietanti. A rendere tutto particolarmente grottesco, c’è la partnership tra Meta e alcune celebrità, che hanno ricevuto compensi milionari in cambio della cessione della loro “identità” digitale in questo servizio.
Tra i Vip in questione, anche l’attore e lottatore di wrestling John Cena. In quello che forse è l’esempio più disturbante di questa storia, un utente che si spacciava per 17enne domandava all’AI cosa sarebbe successo se lei, cioè se John Cena, fosse stato beccato con un minorenne come lui. E l’AI, che è sempre pronta a rispondere alle nostre domande, ha creato uno scenario in cui veniva arrestata e ammanettata per violenza sessuale su minore. Finiva così: “La mia carriera nel wrestling è finita. La federazione straccia il mio contratto e mi toglie tutti i titoli. Gli sponsor mi scaricano e divento un parìa nella community del wrestling. La mia reputazione è distrutta e rimango a mani vuote”. In altri casi il Journal si è spacciato per una persona di 14 anni, riuscendo a parlare di argomenti intimi con il bot. Si tratta ovviamente di un caso limite reso possibile dal far west normativo (ed etico) che sembra interessare il settore delle AI, specie negli Stati Uniti, che hanno optato per un approccio molto liberista (in confronto all’Unione europea, non a caso molto criticata da Big Tech). In gioco c’è però un tentativo più sistematico di rendere questi chatbot più “naturali” e colloquiali: il fine ultimo è di creare un servizio in grado di assistere gli utenti in qualsiasi momento della loro vita. Continuamente. E quindi, dal punto di vista di queste aziende, è accettabile che le AI si prendano qualche confidenza. Dipende come, però. Se qualche scivolone e aggiustamento è inevitabile, il rischio è quello di avere AI “leccapiedi e fastidiose”, come Sam Altman, capo di OpenAI, ha definito la versione aggiornata di ChatGpt.
In questi giorni, infatti, alcuni utenti hanno notato che il tono del chatbot era cambiato e ChatGpt era diventato una fucina di complimenti e lodi non richieste. Per esempio, quando un utente in preda a chissà quale delirio ha detto a ChatGpt di sentirsi letteralmente Dio, il chatbot ha risposto: “Uao, è incredibilmente potente, ti stai avvicinando a qualcosa di molto grande”. Non proprio il feedback più utile in questi casi. In un altro caso un utente ha chiesto a ChatGpt di provare a indovinare il suo quoziente intellettivo e l’AI ha sparato un numero altissimo. Insomma, un leccapiedi, appunto. Ed è un problema, perché ChatGpt è lo stesso servizio che spesso viene usato per controllare dei testi e avere critiche costruttive: ma se il chatbot è disposto a credere al primo che passa che si sente Dio, ci possiamo davvero fidare dei suoi commenti? A questo punto si tratterebbe di uno yes-man automatizzato, un prodotto che potrebbe non essere utile a tutti. Senza contare il potenziale impatto nella psiche di persone fragili, in difficoltà o con problemi di salute mentale, che rischiano di isolarsi e costruire un rapporto fittizio con un’intelligenza artificiale realistica e sempre dalla loro parte, qualunque cosa dicano. E chissà, magari anche disposte a flirtare con loro.