(Foto di unsplash)

Cattivi Scienziati

Dobbiamo preoccuparci di essere manipolati dall'intelligenza artificiale?

Enrico Bucci

Blake Lamoine, appena licenziato da Google per aver divulgato documenti riservati, ha rivelato che l'algoritmo LaMDA dell'azienda americana ha raggiunto l'autocoscienza e la vita: eppure gli esperti concordano e precisano che alla base c'è un fraintendimento

L'intelligenza artificiale LaMDA di Google ha davvero raggiunto l’autocoscienza e la vita, come sostiene l’ingegnere Blake Lamoine, appena licenziato da Google proprio a causa di aver portato all’attenzione di tutti documenti dell’azienda che a suo dire permettono di rispondere affermativamente?

 
"Se non sapessi esattamente di cosa si tratta, che questo è un programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di sette - otto anni", ha detto l’ingegner Lemoine al Washington Post. Nelle sue conversazioni con LaMDA che Lemoine ha reso pubbliche, l’intelligenza artificiale afferma di temere di essere spento, discute di sentimenti quali felicità e tristezza e cerca di instaurare legami con i suoi interlocutori umani. In realtà, tutti gli esperti sono concordi nel dare una risposta piuttosto precisa alla domanda iniziale: no, non vi è nessuna evidenza di alcuna autocoscienza e l’idea stessa che possa esservi si basa su un fraintendimento grossolano.

 
Per capire perché, dobbiamo innanzitutto fare un breve passo indietro e cercare di capire un po’ meglio che cosa è LaMDA. Si tratta di uno degli ultimi, maggiori sforzi di sviluppare un modello del linguaggio umano, da utilizzare in dialoghi tra una macchina e un interlocutore umano: LaMDA è appunto l’acronimo per “Language Model for Dialogue Applications”. In breve, possiamo ricapitolare il funzionamento di queste applicazioni di intelligenza artificiale nel seguente modo. Immagina te che vi sia chiesto di completare una frase, così come si fa con i bambini alle scuole elementari. La frase potrebbe essere per esempio “gli uccelli volano con …”. Un bambino, probabilmente, completerebbe presto questa frase scrivendo “gli uccelli volano con le ali”. Vi sono, naturalmente, delle alternative possibili: per esempio, potremmo scrivere che “gli uccelli volano con il tempo sereno”, e così via; tuttavia, quasi immancabilmente la prima soluzione sarà quella che verrà in mente alla maggioranza delle persone messe alla prova.

 

Ora, immaginate un programma che, processando trilioni di frasi trovate in Internet, sviluppi un algoritmo basato su miliardi di parametri, in grado di fare esattamente quello che il nostro bambino ha fatto: completare una frase con una parola, o per meglio dire completare un dialogo con una frase in risposta ad una frase precedente, generando sequenze di testo intellegibile e logicamente concatenato. Questo algoritmo, una rete neurale, è cioè ottimizzato per scegliere il miglior modo possibile di formulare una frase in risposta a un’affermazione o una domanda precedenti, creando un dialogo, grazie all’ingestione di una inimmaginabile quantità di frasi e di dialoghi ottenuti dalla rete.

 

Un algoritmo del genere è appunto un modello di linguaggio umano per i dialoghi, e può avere svariate applicazioni utili, peraltro non limitate semplicemente alla comunicazione verbale, dato che, nello stesso modo, si possono ottenere reti neurali in grado di elaborare anche immagini, suoni e video come potrebbe fare un essere umano in risposta ad uno stimolo precedente. Ora, è evidente che in queste condizioni di fronte ad una domanda quale “di cosa hai paura” una rete neurale, pescando magari fra i dialoghi di un film, potrebbe rispondere “di essere spento”. Allo stesso modo, il meccanismo costruito per imitare il meglio possibile un interlocutore umano, potrebbe rispondere “oggi sono felice” di fronte ad una domanda quale “come stai”. Alla radice, si tratta di un sistema di imitazione del linguaggio umano, che ovviamente, nell’imitare le costruzioni verbali utilizzate dall’uomo, porta le persone a scorgere per pareidolia una coscienza dietro la rete neurale ottimizzata per far credere loro proprio questo: di essere un interlocutore creativo e dotato delle qualità di una mente umana dialogante.

 

Il tipo di algoritmi di cui ci stiamo occupando, cioè, “eseguono una forma sofisticata di ricerca fra modelli di conversazione per trovare il testo che corrisponde meglio alla domanda che gli è stata presentata, basata su tutti i dati che sono stati inseriti", come ha dichiarato Adrian Weller, dell’Istituto Alan Turing. Tuttavia, per quanto fuorvianti siano le sue dichiarazioni, il rilascio di informazioni da parte dell’ingegner Lemoine ha senza dubbio portato all’attenzione un punto che ritengo di un certo interesse. Nei fatti, possiamo osservare come la nostra valutazione dell’intelligenza e dell’autocoscienza di un interlocutore si basino fortemente sulla capacità di questi di dialogare in maniera appropriata e creativa. Questo perché una delle abilità cognitive maggiori della nostra specie, la capacità (o per meglio dire l’illusione) di immaginare lo stato mentale di un altro individuo della nostra specie si basa appunto sulla comunicazione verbale con quest’ultimo: è innato per noi immaginare una mente senziente dietro una capacità di dialogo sufficientemente elaborata da ingannarci circa la sua provenienza. Questo implica che possiamo essere manipolati da un’intelligenza artificiale in grado di nascondere la sua reale identità (un po’ come è stato manipolato l’ingegner Lemoine); dunque, più che della nascita di una coscienza artificiale, forse è il momento di preoccuparci delle applicazioni degli agenti automatici dialoganti e del loro controllo, nelle mani di poche multinazionali, o a disposizione di chi abbia sufficiente denaro per pagarne il funzionamento.

Di più su questi argomenti: