Il Foglio Innovazione

Il vero limite dell'intelligenza artificiale

Andrea Moro

E’ dagli anni Cinquanta che sappiamo che una macchina non è in grado di imparare il linguaggio degli esseri umani, né di pensare come noi. Perché allora parliamo di intelligenza?

Ci sono parole che nascono due volte. Cibernetica, per esempio: fu proposta da André-Marie Ampère nella prima metà dell’Ottocento nella sua classificazione delle scienze per indicare l’arte di governare gli uomini, e non è un caso che dica “governare” perché il termine cybernetiké (techne) indicava proprio l’arte di tenere il timone di una nave e dirigerla; d’altronde anche la parola governo derivava dall’immagine del timone: dunque cibernetica e governo, all’origine, volevano dire la stessa cosa a partire dalla stessa metafora. Poi cibernetica rinacque. Fu il matematico Norbert Wiener a darle un nuovo significato poco più di un secolo dopo, ammettendo esplicitamente alcuni anni più tardi di non essere stato a conoscenza del conio di Ampère: intendeva con questo termine cogliere con un’unica nuova parola un nuovo modo di studiare l’organizzazione e la struttura degli organismi viventi, intesi sia come individui sia come sistemi di individui e, più in generale, di tutti i sistemi dove vi fosse scambio di informazioni tra le parti. La cibernetica, secondo Wiener, sostanzialmente combinava le conoscenze e i metodi dell’ingegneria, della biologia e della psicologia comportamentale tenendo come nozioni comuni e fondanti quelle di autoregolazione, di informazione e di calcolo automatico.

 

Il termine cybernetica, alla Wiener non alla Ampére, ebbe grandissima fortuna per tutta la seconda metà del Novecento. Il linguaggio, naturalmente, inteso sia nello studio della sua struttura sia nello studio dei sistemi di traduzione automatica, era uno dei centri di attenzione della cibernetica, complice il ricordo del glorioso successo di Alan Turing che, aiutandosi con una macchina elettromeccanica, la famosa Bombe, riuscì a decifrare Enigma, il codice segreto militare utilizzato dai nazisti nella Seconda guerra mondiale. L’idea dello studio cibernetico del linguaggio era che a partire da un corpus sufficientemente ricco di dati, l’analisi statistica fosse sufficiente per dedurre la struttura di qualsiasi lingua naturale. Il passo sperato fu però più lungo della gamba reale e in quegli anni la tecnologia non riuscì né a decifrare automaticamente la struttura di nessuna lingua umana né a costruire macchine adatte alla traduzione automatica. Il sapore di quella sconfitta è ancora molto vivo nelle parole di un grande logico, Jeoshua Bar-Hillel, che negli anni 70, testimone oculare del clima di baldanza che si era generato in una delle cattedrali della cibernetica, il MIT di Cambridge, disse: “C’era al laboratorio la convinzione generale e irresistibile che con le nuove conoscenze di cibernetica e con le recenti tecniche della teoria dell’informazione si era arrivati all’ultimo cunicolo verso una comprensione completa della complessità della comunicazione nell’animale e nella macchina”. L’uomo, si noti, è sparito: nella visione cibernetica degli organismi viventi, c’è posto soltanto per l’animale e la macchina; ciò che fa di noi esseri umani è svaporato nei circuiti di silicio o di tessuti organici.

 


L’idea che grazie ai dati sia possibile dedurre la struttura di un qualsiasi linguaggio naturale si è rivelata tragicamente sbagliata


 

Per uno strano scherzo del destino poi, di fatto, il contenuto di quel che sta dietro la parola cibernetica nacque una terza volta, sempre negli Stati Uniti, sempre nella costa orientale, sempre nella seconda metà del Novecento e forse proprio per prendere le distanze da essa. Prese una nuova sembianza e diventò intelligenza artificiale, termine coniato da John McCarthy e condiviso con un primo gruppo di fondatori. Tra di loro, Marvin Minsky che proprio al MIT fondò il laboratorio di Intelligenza Artificiale, famoso in tutto il mondo e punto di riferimento di tanti scienziati e di tutti i nerd del mondo. Ai più non sembra esserci differenza sostanziale tra cibernetica e intelligenza artificiale e certamente non c’è soluzione di continuità: il termine nuovo, che chiaramente ha avuto e ha un potere immenso di suggestione, soprattutto sul piano commerciale, è oggi ubiquitario e pare raccogliere l’attenzione di tantissimi livelli della società, da quello della formazione a quello dell’ingegneria e della sanità. Anche in questo caso sembra vigere la stessa prematura baldanza notata da Bar-Hillel, almeno se stiamo alle parole di Minsky che in quegli anni annunciò al mondo: “Entro una generazione il problema di creare un’intelligenza artificiale sarà sostanzialmente risolto”. Una baldanza che non corrispose alle aspettative.

 

Sempre in quegli anni, infatti, come spesso capita nella storia della scienza, accadde qualcosa di imprevisto che costrinse a rivedere tutto e ad abbandonare le sicurezze raggiunte. Accadde che l’applicazione di tecniche matematiche all’analisi della struttura delle grammatiche, in particolare della sintassi, permise di superare le descrizioni aneddotiche e incomplete che caratterizzavano questo campo di studi e permisero a Noam Chomsky di cogliere in modo unitario tre fatti apparentemente scorrelati: primo, che le lingue sono oggetti così complessi che non esisteva (né a tutt’oggi esiste) una descrizione completa dei fenomeni che le descrivono; secondo, che malgrado le differenze tra le lingue la loro struttura rimane fondamentalmente una variazione sullo stesso schema invariante, salvo ovviamente i suoni che sono associati ai significati in modo arbitrario; terzo, che i bambini apprendono le lingue in modo spontaneo, fondamentalmente senza istruzioni e commettendo solo alcuni degli errori che ci si aspetterebbe se andassero per tentativi ed errori, senza una guida precedente all’esperienza.
Fu Chomsky, più o meno negli stessi anni nei quali nasceva l’intelligenza artificiale e imperava la cibernetica, a ridurre la baldanza e riaprire i giochi: “Il fatto che tutti i bambini normali acquisicano delle grammatiche sostanzialmente comparabili, di grande complessità e con notevole rapidità suggerisce che gli esseri umani siano in qualche modo progettati in modo speciale […] con una capacità di natura misteriosa.”

 

Basandosi su teoremi matematici rigorosi, che in un certo senso proseguivano e generalizzavano la formalizzazione di Turing, Chomsky mostrò che i modelli statistici non sono adatti a cogliere la struttura sintattica delle lingue umane e con questo demolì di fatto la possibilità che una macchina possa dedurre una grammatica, cioè imparare una lingua, sulla base di un numero sufficientemente ampio di dati. Un fatto non trascurabile anche perché, sulla base di nuovi studi sperimentali comparati, venne confermata l’ipotesi che la sintassi, come era già chiaro intuitivamente a Cartesio, è il vero spartiacque tra i sistemi di comunicazione di tutti gli animali da una parte e gli esseri umani dall’altra.

 

Questo accadeva negli anni Cinquanta. Da allora, l’impatto degli studi sul linguaggio ha prodotto una messe enorme di dati in tutte le lingue del mondo, mettendo in luce fatti strutturali che in duemila e cinquecento anni di storia della linguistica non solo non erano mai stati osservati ma per i quali non esistevano nemmeno nomi tecnici per descriverli. Questo stato di cose, questa polemica tra analisi statistica e analisi linguistica propria, costituì di fatto la nascita di due diverse discipline, accanto alla linguistica teorica: da una parte, continuò l’interesse per una tecnologia che sulla base di processi di apprendimento e autoregolazione migliorasse e imitasse il comportamento delle macchine (confluita nell’intelligenza artificiale); dall’altra, nacque lo studio biologico del linguaggio che oggi ha portato per la prima volta nella storia a esplorare l’impatto dell’architettura del cervello sulle grammatiche umane e a definire la nozione di “lingue impossibili” (neurolinguistica).

 


L’intelligenza artificiale mira a simulare il comportamento umano, la neurolinguistica mira a capire il funzionamento del cervello


 

Lo sviluppo di questi due filoni di ricerca sta dando risultati strabilianti: l’articolo che state leggendo, ad esempio, è stato scritto da una macchina senza che io fisicamente digitassi le lettere ma semplicemente con un computer portatile in grado di decodificare i suoni che dettavo registrati con un microfono da pochi soldi. Cinquanta anni fa, se non avessi voluto o potuto scrivere, una persona si sarebbe dovuta sedere davanti a me, usare il suo tempo, ascoltarmi, magari senza alcun interesse, e passivamente trascrivere queste parole: un bel vantaggio. Contemporaneamente, gli studi di neurolinguistica stanno portando a identificare i circuiti cerebrali dedicati al linguaggio e a immaginare nuove soluzioni terapeutiche o prostetiche per aiutare le persone colpite da danni linguistici, e rifondare le nostre domande sull’evoluzione della specie umana rispetto alle altre o, addirittura, a immaginare come potremmo, se potremo, comunicare con altre razze intelligenti. Dovrebbe essere chiaro, dunque, che non ha alcun senso porre in contrasto l’intelligenza artificiale con gli studi di neurolinguistica ma ha invece molto senso, anzi è necessario, essere espliciti sui diversi tipi di metodi e di scopi funzioni che queste due discipline hanno. Mentre l’intelligenza artificiale mira a simulare il comportamento umano e, se possibile, a vicariare le funzioni più pesanti o meno gratificanti per le persone a delle macchine e rendere più rapidi e agevoli i compiti, la neurolinguistica mira a capire il funzionamento del cervello ignorando o trascurando la somiglianza con il comportamento reale. Rimane comunque ancora vero che nessuna macchina è in grado automaticamente di generare la grammatica di una lingua umana né di tradurre da una lingua all’altra se non frasi molto semplici e ancora con molti errori.

 

Simulare e comprendere indicano due posizioni diverse rispetto alla realtà anche se, naturalmente, non sono affatto inconciliabili: comprendendo si può migliorare la simulazione e simulando si può verificare tra due modelli quale meglio possa adattarsi alla realtà dei fatti, per esempio se diventa necessario tener conto dei tempi di apprendimento. Deve invece rimanere salda la convinzione che la simulazione non porta necessariamente alla comprensione delle realtà, biologiche o neurobiologiche che siano: basterebbe la storia della leggendaria anatra digeritrice del costruttore di automi Jacques de Vaucanson della prima metà del Settecento per capire quanto queste due dimensioni si sono intrecciate nella storia.

 

Oggi, se è vero che quando si vendono cellulari rende molto usare termini allettanti come “motori neurali” o “chip bionico”, è altrettanto vero che le nostre conoscenze sul funzionamento del cervello non sono alla base di queste tecnologie e il loro vero effetto si ha sulle vendite, non sulle possibilità di avere terapie migliori per riparare il cervello in caso di danno. Dunque chiedersi se hanno ragione coloro che seguono la strada dell’intelligenza artificiale o delle neurolinguistica non ha senso perché dipende dalle ragioni. Certamente, volendo ritornare alle questioni terminologiche, nel dibattito corrente si assiste a modificazioni notevoli delle parole chiave sui quali si concentra il dibattito: modificazioni che disorientano e non aiutano affatto a progredire. Ma questa non è una novità.

 

Turing, al quale tanti chiedevano se le macchine nel futuro avrebbero pensato, una volta rispose: “La domanda originaria, ‘le macchine possono pensare’, credo sia [...] troppo vuota di significato per meritare di esser discussa. Cionondimeno, credo che alla fine di questo secolo l’uso delle parole e l’opinione delle persone colte si sarà così alterata che si sarà in grado di parlare di macchine che pensano senza aspettarsi di esser contraddetti”. Lo stesso avviene oggi e potremmo sostituire pensare con parlare: arriveremo (forse) a dire che le macchine possono parlare eliminando ancora una volta quello che ci rende umani. La distinzione tra simulare e comprendere sarà l’unico antidoto verso questa conclusione così poco credibile, a meno che le vendite non contino di più del sapere.

 
Andrea Moro è professore presso la Scuola Universitaria Superiore IUSS Pavia