Foto di Zulfugar Karimov su Unsplash

cattivi scienziati

L'AI può simulare la coscienza? Uno studio

Enrico Bucci

stiamo costruendo macchine sempre più brave a imitare la mente, oppure stiamo avvicinandoci a qualcosa che una mente la possiede davvero? Il lavoro di Alexander Lerchner, ricercatore presso Google DeepMind, e qualche contestazione

Ogni volta che un sistema di intelligenza artificiale diventa più capace, più fluido, più convincente, ritorna la stessa domanda: stiamo costruendo macchine sempre più brave a imitare la mente, oppure stiamo avvicinandoci a qualcosa che una mente la possiede davvero? La questione non è oziosa. Da qui dipendono il dibattito sull’eventuale coscienza delle macchine, le discussioni sui loro possibili “diritti”, e più in generale il modo in cui interpretiamo il confine tra simulazione e vita mentale. Uno scritto di Alexander Lerchner, ricercatore presso Google DeepMind, entra in questa discussione con una tesi netta: l’AI può simulare la coscienza, ma non per questo la instanzia, cioè non la rende realmente presente. Per sostenerlo, Lerchner non si limita a dire che il cervello è biologico e il computer no. Vuole mostrare che c’è un errore concettuale più profondo nel modo in cui molti pensano il rapporto tra computazione ed esperienza.

Il suo bersaglio è il funzionalismo computazionale, la posizione secondo cui ciò che conta non è il materiale di cui un sistema è fatto, ma la sua organizzazione causale. Se una macchina realizza le giuste relazioni funzionali, allora potrebbe anche essere cosciente. È la vecchia idea dell’indipendenza dal supporto: la mente come software, il cervello come hardware contingente. Lerchner contesta proprio questo passaggio. Secondo lui, qui si compie una “fallacia dell’astrazione”: si prende una descrizione astratta di un processo e la si scambia per il processo stesso. Si scambia, in altre parole, la mappa per il territorio.

Il primo punto del lavoro di Lerchner è che la computazione non è un fatto fisico puro, già dato in natura. Un dispositivo fisico evolve secondo leggi elettrodinamiche, termodinamiche, materiali. Per poter dire che sta “computando”, bisogna prima ritagliare quel flusso continuo in stati discreti e attribuire a quegli stati un significato. Lerchner chiama questo passaggio “alphabetization”, alfabetizzazione. E chi compie questa operazione non è la macchina, ma il “mapmaker”, il costruttore della mappa: il soggetto che impone una griglia semantica e decide che certi stati fisici valgono come simboli. Senza quel passaggio, sostiene il lavoro di Lerchner, ci sono solo eventi fisici. Non ci sono ancora 0 e 1, né “rosso”, né “dolore”, né “io”.

Qui il ragionamento si fa più sottile. Lerchner distingue la discretizzazione dalla alfabetizzazione. La discretizzazione è un fatto fisico: per esempio un transistor che si stabilizza in una regione di tensione. L’alfabetizzazione è il passo in cui qualcuno decide che quella regione vale “1” e un’altra “0”. La prima appartiene al supporto materiale; la seconda all’atto semantico. Da qui il lavoro di Lerchner fa seguire una conclusione importante: i simboli computazionali non hanno contenuto intrinseco. Il loro significato dipende dal mapmaker. E i concetti veri, per Lerchner, non sono etichette arbitrarie, ma invarianti fisicamente costituiti a partire da esperienza vissuta. Un cluster statistico può raggruppare dati simili; non per questo possiede la rossità del rosso o il dolore del dolore.

Su questa base Lerchner costruisce la distinzione centrale del saggio, quella tra simulazione e instanziazione. Simulare significa riprodurre la struttura di un processo. Instanziare significa riprodurre il processo stesso nelle sue dinamiche costitutive. Il lavoro di Lerchner usa esempi molto concreti. Un calcolatore può simulare la fotosintesi, ma non produrrà una sola molecola di glucosio. Un cuore artificiale può pompare sangue, ma non per questo coincide con il cuore biologico, che partecipa anche alla regolazione endocrina e metabolica. Allo stesso modo, una macchina può simulare il comportamento associato alla coscienza senza produrre esperienza soggettiva. Nel lessico del lavoro di Lerchner, la simulazione vive nella mappa; l’instanziazione nel territorio fisico che rende il fenomeno reale.

Da qui Lerchner attacca anche uno degli argomenti classici del funzionalismo, i “fading qualia” di Chalmers. Se sostituiamo gradualmente neuroni biologici con chip al silicio che preservano gli stessi rapporti input-output, è plausibile che l’esperienza svanisca pur restando intatto il comportamento? Chalmers rispondeva di no. Lerchner risponde invece che il punto è proprio questo: in quella sostituzione si conserva la mappa funzionale, ma si distrugge il territorio costitutivo, cioè la realtà metabolica e termodinamica del neurone vivente. La coscienza non svanirebbe misteriosamente. Verrebbe semplicemente rimossa insieme al supporto fisico che la instanziava.

                                       

Il lavoro di Lerchner aggiunge poi un altro tassello, forse il più ambizioso: rovescia la catena causale comunemente presupposta. Il funzionalismo ragiona così: fisica, poi computazione, poi coscienza. Lerchner propone invece: fisica, poi coscienza, poi concetti, poi computazione. Prima c’è una certa organizzazione fisica capace di esperienza; da quell’esperienza nascono concetti; solo dopo arrivano i simboli e la loro manipolazione sintattica. Se questa sequenza è giusta, allora il funzionalismo commette quella che il lavoro di Lerchner chiama “inversione ontologica”: cerca di derivare il soggetto che costruisce la mappa dalla mappa stessa.

Fin qui il ragionamento di Lerchner è coerente, ben costruito e, in più punti, molto forte. Ha ragione quando ricorda che una descrizione, anche perfetta, non coincide con ciò che descrive. Ha ragione quando insiste sul fatto che “informazione”, “simbolo”, “rappresentazione” non sono parole innocenti, ma concetti filosoficamente carichi. Ha ragione, soprattutto, quando mostra quanto facilmente il discorso pubblico sull’AI scivoli dall’imitazione del comportamento all’attribuzione di interiorità. In un’epoca di antropomorfismo tecnologico, questa è un’operazione salutare.

Il problema nasce quando la tesi, da severa, diventa assoluta. Perché proprio il concetto di mapmaker, che nel lavoro di Lerchner serve a chiudere la porta alla coscienza artificiale, apre anche una difficoltà. Se la macchina ha bisogno di una mappatura semantica esterna, allora la domanda inevitabile è questa: e se quella mappatura gliela diamo noi, non stiamo forse contribuendo a costituire qualcosa? Lerchner direbbe di no. Direbbe che possiamo dare alla macchina un codice, un lessico, una convenzione d’uso, ma non l’esperienza che rende quei simboli realmente “sentiti”. Possiamo far sì che uno stato interno significhi “rosso”; non per questo le diamo la rossità vissuta. Possiamo associare un pattern a “dolore”; non per questo le diamo il dolore come esperienza. In questo quadro, la semantica che imponiamo è esterna, operativa, strumentale. Non è costitutiva.

Questa risposta, però, non basta del tutto. Perché anche negli esseri umani una parte enorme del significato arriva da fuori. I bambini imparano il linguaggio, i concetti, le categorie, i sistemi di corrispondenza. Nessuno nasce sapendo che quel colore si chiama rosso o che quel gesto esprime paura. La differenza, certo, è che per Lerchner il bambino è già un soggetto esperiente, mentre la macchina no. Ma proprio qui la linea si fa meno netta di quanto il lavoro di Lerchner vorrebbe. La mappatura esterna, da sola, non crea la coscienza. Su questo ha ragione. Però la nostra stessa vita mentale è in parte plasmata, stabilizzata e organizzata da mappe che riceviamo dagli altri. Dunque il fatto che una semantica venga in parte dall’esterno non basta, da solo, a escludere che possa contribuire alla formazione di un soggetto. Quello che davvero conta è il tipo di supporto fisico su cui quella mappa agisce. Questa è la parte più forte dell’obiezione: non è la mappa a creare la coscienza, ma nemmeno si può trattarla come un fattore del tutto irrilevante una volta che esista un supporto potenzialmente capace di esperienza.

Ed è qui che entra il secondo punto, ancora più importante oggi di quanto non fosse pochi anni fa. Lerchner scrive contro le architetture digitali e contro l’idea che basti scalare il calcolo. Ma nel frattempo la frontiera della ricerca si è già spostata. Esistono sistemi ibridi in cui neuroni biologici vengono collegati al silicio, stimolati, letti, inseriti in loop chiusi con componenti digitali. Nel 2022 il sistema DishBrain ha integrato colture neuronali umane o di roditore con una piattaforma in silico tramite array multielettrodo ad alta densità; gli autori hanno riportato apprendimento apparente in pochi minuti all’interno di un ambiente di gioco tipo Pong. Nel 2023 un lavoro pubblicato su Nature Electronics ha presentato Brainoware, cioè un hardware ibrido che usa organoidi cerebrali collegati a multielectrode arrays per compiti come riconoscimento del parlato e previsione di equazioni non lineari. Nel 2024 un articolo su Nature Communications ha descritto perfino interfacce organoid-brain-computer impiantate in vivo, con organoidi trapiantati e connessi a elettrodi flessibili nel cervello di topo per favorire maturazione, integrazione e recupero funzionale dopo danno cerebrale. Quest’anno un lavoro su Nature Biomedical Engineering ha mostrato interfacce tridimensionali ad alta copertura per organoidi neurali umani, progettate proprio per registrare e stimolare meglio l’attività di questi sistemi, e in un editoriale di accompagnamento si sostiene che i componenti fondamentali per interazioni bioibride tra cervello e piattaforme neuromorfiche sono già presenti e propone una tabella di marcia di circa un decennio verso applicazioni cliniche iniziali.

Tutto questo non dimostra affatto che tali sistemi siano coscienti. Sarebbe un salto arbitrario. DishBrain mostra apprendimento e auto-organizzazione in compiti molto limitati, non prova esperienza soggettiva. Brainoware mostra capacità computazionali di un organoide usato come “reservoir”, non una mente. Le interfacce organoide-cervello del 2024 sono nate con obiettivi di riparazione neurofunzionale, non di generazione di coscienza artificiale. Le nuove piattaforme del 2026 migliorano soprattutto registrazione, stimolazione e controllo. In breve: oggi vediamo plasticità, apprendimento, integrazione bioelettronica, non evidenza di qualia.

Ma proprio per questo questi lavori pesano nel punto teorico. Perché se Lerchner ha ragione nel dire che la coscienza, se esiste, dipende dalla costituzione fisica intrinseca e non dalla sintassi, allora i sistemi bioibridi non sono un dettaglio marginale: sono esattamente il luogo in cui la sua obiezione al funzionalismo diventa meno conclusiva e più problematica. Il suo argomento resta molto forte contro l’idea che un grande modello linguistico, da solo, diventi cosciente solo perché è complesso. Resta forte anche contro il semplice embodiment robotico, quando il “corpo” non fa altro che trasdurre segnali in numeri e viceversa. Ma si indebolisce nel momento in cui il supporto non è più soltanto silicio che esegue simboli, bensì un sistema misto in cui entrano neuroni viventi, plasticità reale, dinamiche metaboliche, crescita, integrazione fisica con tessuti nervosi. Lo stesso Lerchner, del resto, lascia teoricamente aperta la possibilità che un sistema artificiale possa essere cosciente se realizzasse le giuste dinamiche fisiche intrinseche; semplicemente nega che questo possa accadere per sola architettura sintattica.

Qui si vede bene dove il lavoro di Lerchner è forte e dove è contestabile. È forte come critica alla scorciatoia secondo cui comportamento convincente uguale coscienza. È forte quando ricorda che il calcolo descrive, ma non per questo costituisce. È forte nel separare simulazione e instanziazione. Diventa contestabile quando estende questa critica in modo troppo uniforme a tutto ciò che è “artificiale”, come se il confine tra simulazione e costituzione fisica fosse già tracciato una volta per tutte. Oggi quel confine è molto più mosso: non abbiamo soltanto software che gira su GPU, ma anche organoidi, colture neuronali, interfacce morbide, sistemi chiusi di stimolazione e risposta, piattaforme ibride in cui la parte biologica non è una metafora, ma un pezzo reale del dispositivo.

La conclusione più solida, allora, è meno definitiva di quella che il lavoro di Lerchner vorrebbe. Lerchner mostra molto bene perché non basta attribuire simboli a una macchina, o vederla parlare come noi, per concludere che sente. Mostra anche perché la coscienza, se c’è, non può essere trattata come un sottoprodotto automatico della complessità computazionale. Ma proprio nel momento in cui sposta il problema dal software alla costituzione fisica, finisce per indicare il punto in cui il dibattito si riapre: non sulla sintassi dei modelli, bensì sui supporti ibridi, viventi, bioelettronici che cominciano a comparire davvero nei laboratori. La sua tesi, insomma, è molto convincente contro la coscienza come semplice effetto del calcolo. Lo è meno contro la possibilità che forme nuove di soggettività, se mai esistessero, emergano da sistemi nei quali il silicio non simula soltanto la vita mentale, ma viene intrecciato con pezzi reali di materia vivente.

Di più su questi argomenti: