foto Ansa

Cattivi scienziati

Vita artificiale: difficoltà e sfide della ricerca

Enrico Bucci

La complessità degli organismi viventi non è al momento replicabile da macchine macroscopiche. Ecco perché lo studio scientifico si è già spostato alla scala nanometrica

Nei tre articoli precedenti a questo, abbiamo verificato come certe proprietà che normalmente associamo agli esseri viventi, ovvero la capacità di riprodursi, quella di sostentarsi procurandosi le risorse necessarie ed infine quella di evolvere in risposta a pressioni ambientali positive o negative, fra cui la semplice competizione per le stesse risorse, inizino ad essere conferite in diversi laboratori del mondo a macchine macroscopiche appositamente progettate, in grado variabile e, per il momento, mai congiuntamente (anche se esistono progetti in tal senso).

Se intendiamo come essere vivente un sistema che sia caratterizzato dalle proprietà anzidette, saremmo quindi prossimi a costruire macchine viventi; e una simile analisi potrebbe estendersi ad altre proprietà che qui non abbiamo trattato, a meno che queste non siano scelte in partenza per escludere le varie realizzazioni che si intravedono all’orizzonte di quelle “macchine cinematiche autoreplicanti” preconizzate da John von Neumann. Avremo quindi a breve una macchina vivente fatta di silicio, metallo e altri materiali diversi da quelli selezionati dall’evoluzione naturale?

Come biologo, vorrei qui richiamare alcuni formidabili ostacoli che restano di fronte a chi voglia, per la via macroscopica illustrata (altre sono comunque possibili, e le vedremo in futuro), realizzare un organismo vivente.

Un’evidentissima differenza fra i robot macroscopici e gli organismi viventi tradizionalmente intesi sta nella scala e nella pervasività a cui le proprietà che abbiamo visto agiscono. Un essere umano, per fare un esempio, è fatto di circa 37.000 miliardi di replicatori biologici, ovvero le cellule che ne compongono il corpo. Ciascuno di questi possiede un “software”, corrispondente a circa 700 megabytes di informazione genetica memorizzata nel DNA, possiede sensori capaci di recepire segnali esterni, effettua competizioni molecolari ed infine agisce sull’ambiente attraverso attuatori specializzati. La cosa fondamentale, tuttavia, è che questi 37.000 miliardi di replicatori dotati di software genetico non agiscono in isolamento: essi comunicano fra loro e coordinano il proprio funzionamento, così che il corpo umano agisca come un tutt’uno, una rete di replicatori, sensori e attuatori integrata gerarchicamente che è enormemente più complicata, flessibile e capace di risposta fine rispetto anche ai robot costituiti da diverse decine di parti indipendenti che abbiamo esaminato negli articoli precedenti a questo.

In linea di principio, i robot potrebbero e possono lavorare come sciami, così come fanno le cellule di un organismo complesso; tuttavia, uno sciame di 37.000 miliardi di robot con memoria da 700 megabytes, equivalenti ad un solo corpo umano, probabilmente esaurirebbe le risorse e gli spazi necessari alla propria esistenza in brevissimo tempo. Dunque, per quello che riguarda almeno macchine macroscopiche, la complessità anche di organismi semplicissimi come una medusa, fatta di un numero altissimo di cellule, appare fuori portata: semplicemente, non esistono sufficienti risorse fisiche al mondo per utilizzare la tecnologia che normalmente associamo alle macchine macroscopiche.

Non si tratta di una differenza di poco conto: essere composti da un numero elevatissimo di replicatori significa infatti che ciascuna parte della macchina finale (il corpo umano) può rispondere localmente (su scale anche piccolissime) alle condizioni ambientali in modo sofisticato, controllando il proprio ambiente dal livello molecolare fino a quello delle decine di kilometri in cui possiamo facilmente spostarci (questo senza contare il supporto tecnologico con cui abbiamo ulteriormente espanso le nostre capacità).

Perché si possano generare 37.000 miliardi di cellule di un corpo umano, disponendole nel modo giusto a comporre l’individuo finale, vi è poi un’ulteriore necessità fondamentale: il processo di “costruzione” deve essere spontaneo e dal basso, ovvero deve fondarsi sull’interazione fra le leggi della chimica e della fisica e le strutture via via gerarchicamente più complesse di cui siamo costituiti, dal livello atomico, a quello molecolare, fino alle cellule, ai tessuti e agli organismi interi.

La costruzione di un corpo umano, che noi chiamiamo sviluppo, è cioè un processo bottom-to-top, in cui si parte da componenti piccolissime e, grazie al gioco fra ambiente e caratteristiche di quelle componenti, si assemblano spontaneamente componenti del livello gerarchicamente superiore, le quali ripetono il ciclo strutturando il livello superiore, fino a formare l’organismo completo: è come se le viti, i bulloni e i transistor di un robot avessero certe proprietà fisiche che ne garantiscono l’autoassemblaggio nel modo corretto.

L’efficienza di questa “canalizzazione” delle leggi di chimica e fisica alla costruzione di strutture efficienti consente di produrre macchine di dimensioni piccolissime, che fanno tutte le funzioni di un robot macroscopico, compreso conservare, interpretare ed attuare informazione genetica ed ambientale in una scala di pochi miliardesimi di metro; ecco perché un essere vivente può raggiungere una spaventosa densità di informazione e di computazione molecolare, del tutto fuori portata per robot costruiti con componenti macroscopiche assemblate “top-down” quali sono tutte le macchine descritte sin qui.

Naturalmente, perché l’autoassemblaggio sia possibile è necessario che le componenti degli organismi viventi siano in soluzione, acquosa o grassa come nelle membrane non importa: difatti, i solventi controllano la forma degli “ingranaggi” di cui siamo fatti e le proprietà che ne permettono l’interazione fisica reciproca, e dunque anche l’assemblaggio; in aria, il processo “bottom-to-top” necessario per la costruzione di una cellula non è possibile, proprio perché l’azione del solvente (di qualunque natura sia) manca. Questo è il motivo per cui le macchine molecolari che costruiscono la vita sono macchine dotate di una certa “fluidità”, ovvero sono spesso in grado di adattare la loro geometria a seconda dell’ambiente in cui agiscono; e questi cambi di forma consentono di trasmettere informazione condizionale e di attuare lavoro al verificarsi di eventi diversi, cioè sono alla base della computazione, integrazione e attuazione molecolari tipiche della vita. Il “wetware” della vita è molto diverso dall’”hardware” dei robot, anche quando quest’ultimo sia fatto con materiali flessibili: è infatti un “materiale” capace di autoripararsi, di operare e di modificarsi in maniera controllata a partire dalla scala di poche decine di nanometri.

Integrazione di un numero immenso di unità replicative e processive, densità di informazione e di attuazione, estensione della scala di funzionamento, autoassemblaggio “bottom-to-top”, flessibilità del “wetware”, nel loro insieme hanno un ulteriore, decisivo vantaggio sulle macchine macroscopiche che abbiamo conosciuto sin qui: quello dell’efficienza energetica e in termini di risorse necessarie per funzioni complesse quanto la cognizione umana, rispetto ad una rete di complessità equivalente costruita integrando robot delle dimensioni che siamo abituati a considerare. E questo, naturalmente, è un punto fondamentale per la sopravvivenza sul lungo periodo della vita: quella che conosciamo è durata per oltre 3 miliardi di anni, senza esaurire (almeno sin qui) le risorse di cui ha bisogno, mentre qualunque sistema di complessità paragonabile costruito in silicio, metallo e materiali ordinari esaurirebbe molto, molto rapidamente ciò di cui ha bisogno per proseguire le proprie attività.

Questi sono alcuni dei motivi per cui la ricerca sulla vita artificiale si è già spostata alla scala nanometrica: probabilmente, l’emersione di vita complessa è vincolata all’esistenza di macchine autoassemblanti che a quella scala funzionino, ed è a quella scala che, sia imitando la natura, sia cercando soluzioni alternative, si è spostato da un paio di decenni l’occhio degli scienziati.

Ma questa è un’altra storia, di cui parleremo più avanti.

Di più su questi argomenti: