Foto di rymtok via Flickr

Cattivi scienziati

Come il nostro cervello costruisce le parole

Enrico Bucci

Prima ancora di emettere suono, alcuni neuroni generano sequenze di attivazioni in corrispondenza di fonemi, sillabe e morfemi che compongono le nostre parole. È oggi possibile “ascoltare” il nostro cervello, prima ancora che la bocca emetta alcun suono

Come fa il nostro cervello, e precisamente come fanno le cellule in esso contenute – i neuroni – a costruire il nostro linguaggio quando parliamo? Un bel lavoro appena pubblicato su Nature ha cominciato a dare qualche risposta a questa domanda. In breve: i neuroni nella corteccia prefrontale, nota per essere uno dei centri dominanti per il linguaggio umano, sono in grado di codificare informazioni dettagliate sui componenti sublessicali delle parole che un soggetto sta per pronunciare durante la pianificazione del discorso naturale.

Questi neuroni prefrontali codificano l'ordine e la struttura degli eventi articolatori prima dell'enunciazione, riflettendo la segmentazione delle sequenze fonetiche in sillabe. L’attivazione ordinata di questi stessi neuroni predice con precisione i componenti fonetici, sillabici e morfologici delle parole che un soggetto sotto osservazione pronuncerà. Inoltre, le attività neuronali mostrano una dinamica temporale ordinata che riflette una successione di processi coinvolti nella pianificazione della parola, come la morfologia e la sillabazione dei fonemi pianificati. 


La parola, dunque, come successione di fonemi, e l’intero discorso come successione di parole, appaiono quindi generati attraverso l’attivazione ordinata di un insieme preciso di gruppi discreti di neuroni, a riflettere la segmentazione delle sequenze sonore che emettiamo quando parliamo in sillabe distinte e in corrispondenza dei diversi componenti fonetici, sillabici e morfologici delle parole imminenti. Naturalmente, la pronuncia di un discorso, dalla sua concezione fino alla sua enunciazione, è un processo molto più complesso, che coinvolge certamente una varietà di strutture cerebrali distinte (dai centri della memoria, alle aree che si occupano della formulazione dei concetti e così via), ma questo lavoro dimostra che la codifica sonora del discorso concepito corrisponde ad una precisa mappatura di neuroni specializzati, i quali corrispondono esattamente alla struttura fonetica con cui i linguisti analizzano il parlare umano.


Per ognuno dei suoni, in sostanza, si attivano alcune cellule in modo specifico, e alla combinazione di suoni emessi corrisponde la dinamica di attivazione dei corrispondenti gruppi di neuroni in modo sorprendentemente preciso e conservato fra i cervelli di volontari diversi. I risultati descritti non forniscono solo un chiaro supporto alle teorie di base della codifica neuronale del linguaggio, ma, stante la natura anticipatoria dell’attività neuronale sui suoni emessi dai volontari, aprono un’interessante possibilità: quella di trascrivere le parole che un cervello sta formulando, disinteressandosi dei concetti ad esse connessi, e limitandosi alla traduzione sonora dell’attività cerebrale. Questo, ovviamente, potrebbe semplificare di molto la produzione di protesi per coloro che non sono in grado di emettere suoni per vari motivi, letteralmente ridando la parola ai muti, così come potrebbe consentire di dettare la composizione di testi scritti direttamente attraverso il pensiero – traducendo cioè in lettere la “vocina interiore” di cui ognuno di noi ha probabilmente esperienza diretta.

 
Un altro tassello alla comprensione del funzionamento di quella complicatissima macchina che genera la nostra mente è stato quindi aggiunto.

Di più su questi argomenti: