(foto di Ansa)

verso Skynet?

La paura del computer che prende vita: la storia dell'Ai "senziente" di Google

Pietro Minto

L'ignenere Blake Lemoine, attualmente sospeso, lavora al progetto LaMDA, un'intelligenza artificiale che secondo lui avrebbe raggiunto la "singolarità". Perchè è un caso di "effetto Eliza"

Blake Lemoine è un ingegnere informatico che dal 2015 lavora per Google, dove si occupa di intelligenza artificiale (Ai). L’azienda investe da tempo nel settore per molti motivi, non ultimo l’obiettivo di comprendere appieno il linguaggio umano, in modo da migliorare la qualità delle ricerche – anche quelle vocali. L’ultimo sviluppo dell’azienda in questo campo è LaMDA, un chatbot, ovvero una Ai con cui è possibile scambiare messaggi. E’ stato proprio nel corso di una recente discussione con LaMDA che Lemoine si è convinto che la Ai sia diventata “senziente”, dotata di coscienza di sé.

 

Secondo quanto rivelato dal Washington Post, l’ingegnere ne avrebbe parlato con i suoi superiori prima di essere sospeso temporaneamente dall’azienda. Nel corso del fine settimana, Lemoine ha pubblicato su Medium la sua conversazione con LaMDA, inasprendo il dibattito – solitamente molto accademico – sul nostro rapporto con le intelligenze artificiali.

 

Lo spettro, del resto, è sempre quello di Skynet, la rete di super computer che in Terminator diventa autocosciente e si ribella all’umanità. Ma se quello era un film di fantascienza, qui si parla di un eccentrico ingegnere operante in un settore delicato e controverso. Da tempo, infatti, esiste una corrente dell’etica che si occupa proprio di Ai e del nostro rapporto con essa: secondo molti studiosi, visti i progressi fatti nel campo, si avvicinerebbe sempre di più la cosiddetta “singularity”, il momento in cui una Ai superintelligente diventerà di fatto molto più intelligente di noi, sfuggendo al nostro controllo.

 

La trascrizione della chat tra Lemoine e LaMDA è di certo affascinante e a tratti inquietante. A un certo punto, la Ai dice di “provare sentimenti che non so spiegare perfettamente nel tuo linguaggio”, tra cui “una paura profonda di essere spenta”, evento che paragona alla morte per noi umani. La conversazione è notevole ma, secondo gli studiosi del settore, va sempre inquadrata per quello che è, ovvero stringhe di testo generate da una potente macchina programmata per generare frasi partendo da prompt – delle richieste scritte. “Oggi abbiamo macchine che possono generare parole senza sforzo ma noi non abbiamo ancora imparato a smettere di immaginare che ci sia una mente dietro”, ha spiegato la professoressa di Linguistica Emily M. Bender al Washington Post.

 

Al di là del panico da Skynet e delle richieste di diritti umani per le macchine, infatti, quello di Lemoine sembra un classico esempio di “effetto Eliza”, dal nome di un chatbot sviluppato dal Mit di Boston nel 1966. Già all’epoca, Eliza si rivelò capace di simulare risposte umane, ingannando o mettendo in dubbio i suoi stessi programmatori. Da allora, l’“Eliza effect” indica l’inconscia tendenza a umanizzare – e antropomorfizzare – i comportamenti dei computer, scambiando ottimi risultati tecnici in qualcosa di più profondo.

 

La denuncia dell’ingegnere di Google è arrivata proprio nei giorni in cui i social network sono pieni di immagini bizzarre create da Dall-E, una rete neurale realizzata da Open Ai, società co-fondata da Elon Musk, che sarebbe in grado di generare qualsiasi tipo di immagine sulla base di prompt scritti. Anche la stessa Google opera in questo settore con la sua Ai in grado di disegnare, chiamata Imagen, che ha alcuni punti in comune con LaMDA: entrambe, infatti, si basano su documenti forniti dagli esseri umani per “imparare” a comunicare. Ma questo apprendimento è molto tecnico, informatico, e quindi diverso da quello umano: consiste perlopiù nella capacità di trovare pattern tra una miriade di opere d’ogni tipo, dalla migliore letteratura ai commenti su internet.

 

Insomma, Dall-E e Imagen non sono dotate di quella che noi chiamiamo creatività, così come, molto probabilmente, LaMDA non è davvero senziente. “Questi sistemi”, ha spiegato un portavoce di Google, “imitano i tipi di scambi trovati in milioni di frasi e possono discutere di qualsiasi stravagante argomento”. Se a volte ci sembrano umani, è perché imitano molto bene persone dotate di coscienza di sé, ovvero noi.

Di più su questi argomenti: