Wikimedia Commons

teoremi contro i catastrofisti

Tranquilli, l'intelligenza artificiale non soppianterà mai quella umana

Franco Lo Piparo

Ecco come il logico matematico austriaco Kurt Godel ha dimostrato con rigorosissime procedure logico-formali due teoremi che dovrebbero rassicurare gli apocalittici

Grandi grida d’allarme sui giornali. L’intelligenza artificiale sostituirà l’intelligenza naturale! Tranquilli, non accadrà così come gli aerei non hanno soppiantato il volo degli uccelli o la ruota non ha sostituito o reso obsoleto il correre con le gambe. Non accadrà perché è nella natura delle cose che non accada. Le ragioni sono di due tipi tra loro complementari. Una ha a che fare con un aspetto tecnico della questione, noto ai logici e ai filosofi della matematica e che vale la pena ricordare ai non addetti ai lavori.

Negli anni trenta del secolo scorso il logico matematico austriaco Kurt Gödel ha dimostrato con rigorosissime procedure logico-formali due inquietanti teoremi. Proverò a spiegarli con parole semplici. 

Primo teorema. Un qualsiasi sistema matematico-formale è incompleto. Questo vuol dire che è sempre possibile formulare nel linguaggio del sistema una proposizione vera la cui verità non è possibile dimostrare con le regole del sistema. Se poi provate ad aggirare l’incompletezza inserendo tra gli assiomi del sistema la proposizione vera non dimostrabile, spunterà sempre un’altra proposizione vera non deducibile dal e nel sistema arricchito dal nuovo assioma. All’infinito. Per apprezzare la enorme portata teorica, ma anche politica, del teorema tenete conto che gli algoritmi dell’intelligenza artificiale altro non sono che calcoli matematici.

Secondo teorema. Nessun sistema formale è in grado di dimostrare la coerenza del sistema di regole che lo reggono. La dimostrazione può avvenire solo creando un sistema formale semanticamente più potente che abbia il sistema di cui dimostrare la coerenza come sua parte. La situazione si riproduce negli stessi termini nel momento in cui si vuole controllare la coerenza del sistema con cui abbiamo controllato la coerenza del primo sistema. Anche qui, all’infinito. Se traduciamo il teorema nei termini del nostro problema otteniamo: nessuna intelligenza artificiale è in grado di dimostrare la coerenza degli algoritmi che la fanno funzionare. Vi pare poco?

Il senso dei due teoremi dovrebbe essere chiaro: l’intelligenza umana non può essere interamente assorbita dall’intelligenza artificiale e di ciò esiste una dimostrazione matematica. Sarebbe bene che i due teoremi di Gödel e gli altri che ne sono seguiti entrino nella cultura di chi discute questi problemi. Vi è un altro ordine di ragioni che dovrebbe rassicurare gli apocalittici. Lo dico con brutale franchezza: l’intelligenza artificiale non è in grado di provare piacere e dolore. Attenzione, non sto dicendo che non è in grado di simulare ma di provare. Simulare piacere e dolore è facilissimo. Un orgasmo o una grande sofferenza si simulano con manifestazioni, verbali e non verbali, di vario tipo. Sentire piacere e dolore è faccenda radicalmente diversa.

Perché questo aspetto è importante per il nostro argomento? Perché i ragionamenti umani sono calcoli saturi di affettività. Aristotele ne aveva data una definizione straordinariamente suggestiva: quella umana è “mente che desidera” o, formulazione equivalente, “desiderio che ragiona”. Le religioni, le ideologie, le passioni politiche cosa sono se non ragionamenti intrisi di desiderio e desideri che calcolano.

Una mente fatta di soli calcoli non produrrà mai religioni e passioni civili. Ve la immaginate una umanità senza religioni e ideologie? Una umanità che non sa amare e odiare? Impossibile. Vi potrà sembrare strano, questo secondo aspetto è strettamente connesso coi due teoremi matematici di Gödel: la congenita incompletezza e non autossufficienza delle intelligenze artificiali è l’altra faccia della medaglia di una intelligenza priva delle sensazioni basilari del piacere e del dolore.

Gli apocalittici stiano tranquilli. L’intelligenza artificiale non sostituirà mai l’intelligenza umana. Gli enormi problemi che le recenti versioni ChatGPT ci pongono sono di tipo pratico e di questi dobbiamo occuparci. Per farlo bene, bisogna abbandonare l’approccio apocalittico e catastrofista.

Di più su questi argomenti: