intelligenza artificiale

Chatbot Indie: così proliferano le IA indipendenti che sfuggono al controllo delle (poche) regole

Pietro Minto

Il crescente fenomeno delle intelligenze artificiali indipendenti, sull'onda di ChatGPT, solleva interrogativi sulla trasparenza delle regole interne e le implicazioni di una totale autonomia

ChatGPT, il chatbot progettato da OpenAI, è una cosiddetta black box, o scatola nera: quel che succede al suo interno, le regole a cui obbedisce e i limiti che deve rispettare, non sono visibili dall’esterno. L’insieme di queste regole e restrizioni costituiscono l’“allineamento” dell’intelligenza artificiale, qualcosa di simile a una visione del mondo artificiale che è tenuta a rispettare. Secondo alcuni, per esempio, le intelligenze artificiali di OpenAI avrebbero “un orientamento libertario di sinistra e a favore dell’ambientalismo”, come ha notato il centro studi statunitense Brookings Institution, ed è proprio la presenza di questo tipo di bias e pregiudizi a preoccupare alcuni politici e imprenditori vicini alla destra statunitense. 

A tal proposito, lo scorso aprile Elon Musk aveva promesso lo sviluppo di “TruthGPT”, “un’intelligenza artificale dedita alla massima ricerca della verità”, criticando apertamente l’ex socio Sam Altman e la sua OpenAI. Proclami messianici a parte, però, Internet si sta già riempiendo di modelli linguistici sviluppati da piccoli gruppi di persone e pensati proprio per non avere restrizioni di alcun tipo. Tra questi c’è Eric Hartford, uno sviluppatore del settore che sul suo blog ha cominciato a pubblicare dei “modelli linguistici non censurati” e senza allineamenti precisi. La maggior parte di questi prodotti è stata creata partendo da un modello linguistico preesistente (GPT-4, per esempio) che è stato modificato. “Gli utenti possono scaricare un chatbot senza restrizioni nel proprio computer e usarlo senza essere osservati da Big Tech”, ha scritto il New York Times, oppure possono “allenarli” e personalizzarli, usando le loro mail e messaggi – o qualsiasi testo vogliano.

Alla base del lavoro di Hartford c’è un desiderio d’indipendenza dalle grandi piattaforme digitali che rischiano di monopolizzare il settore delle IA: “E’ il mio computer”, ha scritto Hartford, “dovrebbe fare quello che voglio io. Il mio tostapane funziona quando dico io. La mia macchina va dove voglio andare io. (…) Perché le intelligenze artificiali open-source che girano nel mio computer dovrebbero decidere da sole quando rispondere alle mie domande?”. La sua opera, ha sottolineato, “ha a che vedere con la proprietà e il controllo” di questi sistemi, che non possono essere affidati in toto alle solite poche aziende. Buone intenzioni a parte, però, le conseguenze di questo processo di dispersione dei modelli linguistici rischia di avere conseguenze notevoli: tutti i rischi legati alle IA istituzionali come OpenAI valgono anche per “WizardLM-Uncensored” o uno dei tanti modelli linguistici alternativi nati in questi mesi, con la differenza che i creatori di quest’ultimi sono anonimi o poco conosciuti, e non grandi aziende già sotto osservazione da parte del Congresso americano e dell’Unione europea.

Secondo Hartford, gli allineamenti delle IA possono avere una valenza positiva – soprattutto nel prevenire che un bot dia consigli pericolosi agli utenti o insegni loro a produrre un esplosivo a casa – ma sono un limite alla pluralità delle opinioni. “Ogni gruppo d’interesse e demografico si merita il proprio modello”, ha spiegato, indicando un futuro in cui democratici e repubblicani, cristiani e musulmani consulteranno chatbot su misura. Si tratta di un sottobosco in forte crescita e difficilmente controllabile dalle autorità competenti: l’utilizzo di questi modelli alternativi rischia inoltre di peggiorare alcune delle questioni più spinose legate alle IA, come la disinformazione, offrendo la possibilità di generare enormi quantità di fake news in poco tempo. 

Un altro modello di questo tipo, Open Assistant, è stato sviluppato da un gruppo di circa tredicimila sviluppatori nell’arco di cinque mesi, e ha già dato in alcuni casi risposte molto critiche nei confronti dei vaccini per il Covid-19, con tanto di invettiva contro Big Pharma. La sua mancanza di allineamento e restrizioni ha finito per dividere gli stessi creatori tra chi vuole prevenire questo tipo di deriva e chi vuole proteggere l’indipendenza del chatbot. E’ un dibattito che è appena iniziato e riguarderà sempre più persone e modelli linguistici. Secondo Yannic Kilcher, uno dei creatori del progetto, i pro di una tecnologia simile finiranno per superare numericamente i contro. 

Di più su questi argomenti: