Sognare con Google

Così i paesaggi psichedelici immaginati dalle intelligenze artificiali ci parlano dei rapporti tra gli uomini e le macchine
Sognare con Google

“Sogni” delle reti neurali generati da puro rumore usando un sistema addestrato ai laboratori informatici e di intelligenza artificiale del Mit. Immagini dal Research blog di Google

E’ il gioco antico di guardare le nuvole. Sdraiati sul prato, con il naso all’insù, le masse informi di vapore acqueo diventano animali e persone, l’occhio immagina forme inesistenti, il cervello si inganna e le volute bianche prendono vita. Sono sogni a occhi aperti, istanti in cui il cervello e i sensi vanno in cortocircuito. Quando invece i sensi sono attutiti dal sonno, e il cervello può lavorare in tranquillità con quello che ha già memorizzato, quello è il sogno, ed è uno degli aspetti più intimi della nostra vita non completamente senziente. Gli uomini possono sognare, i neonati sognano, mentre agitano le braccia e le gambe a occhi chiusi nella culla, gli animali forse sognano della caccia e del pascolo.

 

La scorsa settimana, Google ha mostrato che anche le intelligenze artificiali sanno sognare, e sui giornali di mezzo mondo sono tornate di moda le “pecore elettriche” immaginate da Philip K. Dick come compagne dei sonni degli androidi. Quando però gli scienziati dei laboratori di Google hanno mostrato di che sostanza sono fatti i sogni delle intelligenze artificiali – paesaggi onirici, chimere e mostri mitologici, realtà deformate che sembrano venire da altri mondi – le pecore elettriche sono sembrate una trovata poco creativa. Lo studio sui “sogni” di Google, pubblicato sul Research blog della compagnia, è in realtà il frutto della ricerca sulle reti neurali artificiali, modelli di intelligenza artificiale che imitano la struttura dei neuroni nel cervello umano e che hanno un ruolo fondamentale nella simulazione di attività come la classificazione delle immagini o l’apprendimento del linguaggio naturale da parte delle macchine.

 

Le reti neurali artificiali sono divise in strati o livelli di neuroni artificiali, che esattamente come i neuroni biologici hanno una gerarchia e compiti diversi. E come i nostri occhi riforniscono il cervello di immagini sempre nuove, gli scienziati di Google nutrono questi sistemi con milioni di fotografie (per inciso: le nostre fotografie, quelle che carichiamo su internet e vengono fagocitate dal motore di ricerca e dalle app) per insegnare loro a riconoscerne gli elementi. Come nel cervello umano, davanti a un’immagine gli strati più semplici di neuroni individuano i contorni o le forme, i più complessi riescono a indovinare se in un’immagine è raffigurato un cane o un edificio, a riconoscere i volti e le identità delle persone – per esempio il sistema di riconoscimento dei volti di Facebook è così avanzato che è in grado di riconoscere un volto anche quando è in parte nascosto, come quando è coperto dai capelli. I ricercatori di Google hanno fatto diversi esperimenti con questi sistemi – l’articolo parla di “inceptionism”, dal film onirico di Christopher Nolan –, e la cosa sorprendente è che, quando sono state messe alla prova, le intelligenze artificiali pensate per classificare le immagini, per fare dunque un lavoro passivo, hanno iniziato a generare delle immagini nuove.

 

Sono i sogni a occhi aperti di chi guarda le nuvole, letteralmente: i ricercatori hanno sottoposto delle immagini alle reti neurali artificiali e chiesto ai vari strati di enfatizzare gli elementi da loro individuati. Gli strati più semplici, deputati a riconoscere forme e colori, hanno enfatizzato i pattern e i contorni. Gli strati più complessi, quando i ricercatori hanno chiesto loro: mostrami cosa vedi, hanno scavato nella loro memoria di silicio e iniziato a immaginare qualcosa di totalmente nuovo. Da una foto di nuvole su un cielo azzurro, una rete neurale artificiale addestrata a riconoscere forme di animali ha creato chimere mitologiche partendo dalle volute delle nubi: un ricciolo di vapore è diventato un pesce con le zampe di cane, una velatura nel cielo un maiale con la conchiglia di una lumaca. In un’altra foto, dai riflessi del fogliame di un albero, l’intelligenza artificiale ha immaginato i musi di vari cani. E poi abeti che diventano torri, montagne che si trasformano in pagode. I risultati sono straordinari e inquietanti, e il processo, una specie di cortocircuito dell’immaginazione, è paragonabile al sogno a occhi aperti degli esseri umani.



La parte più sorprendente è arrivata quando i ricercatori hanno sottoposto alle reti neurali delle immagini di puro rumore, riquadri di pixel simili agli schermi grigi tremolanti delle vecchie tv a tubo catodico quando non c’era il segnale. Applicando solo alcuni processi di iterazione, i ricercatori hanno dato all’intelligenza artificiale un piano di lavoro sgombro, la possibilità di immaginare partendo quasi dal nulla: nessuna nuvola di cui indovinare i contorni, solo una massa informe di pixel che la macchina poteva modellare a proprio piacimento. E i risultati – edifici celesti, teorie metafisiche di archi, i vortici colorati dei cieli di Munch e i paesaggi allucinati di Salvador Dalí – oltre che scientificamente notevoli sono bellissimi. Sono la cosa più vicina a un sogno umano mai prodotta da un’intelligenza artificiale, e non solo per la carica onirica delle immagini. I ricercatori hanno messo le reti neurali nella stessa condizione di chi sogna: quasi completamente prive di ogni input, esattamente come gli esseri umani durante il sonno, le intelligenze artificiali sono state lasciate libere di rielaborare quanto già memorizzato. “I sogni delle reti neurali di Google erano ‘come’ quelli umani perché le reti neurali erano state private delle informazioni sensoriali dal mondo esterno”, dice al Foglio in una conversazione via email George Zarkadakis, studioso di intelligenza artificiale e autore quest’anno di un libro sull’argomento, “In Our Own Image”. “Questo è simile a quello che i nostri cervelli fanno quando spegniamo i nostri sensi durante il sonno. E il fatto che le reti neurali artificiali producano risultati che hanno la stessa sensazione allucinatoria dei sogni umani è affascinante”.

 

Per i ricercatori di Google, le capacità oniriche delle intelligenze artificiali potrebbero “gettare un po’ di luce sulle radici del processo creativo”. E’ uno degli aspetti più intriganti di tutta la vicenda, perché le immagini dei sogni di Google sono la rappresentazione più evidente mai esistita di come la creatività, o meglio una certa accezione della creatività, non sia una facoltà esclusiva degli esseri umani. Da sempre, gli studi sull’intelligenza artificiale si concentrano sulla mimesi. L’obiettivo degli scienziati è simulare nella maniera più fedele possibile alcune funzioni del cervello umano, fino ad arrivare a riprodurle per intero. Un’operazione in un certo senso passiva, di pura imitazione. Le macchine non hanno niente a che vedere con l’arte. Imparano le regole logiche del linguaggio, classificano i pattern. Le macchine non creano. Ma è naturale che la mimesi del cervello umano alla lunga porti alla riproduzione di tutte le sue funzioni, creatività compresa. Questo significa che anche la creatività è riproducibile? Molti scienziati stanno cercando di meccanizzarla, di distillarne una formula matematica da infondere nei cervelli elettronici. E se per chi crede che l’atto creativo sia il frutto di un’ispirazione la meccanizzazione della creatività è impossibile, il fatto stesso che qualcuno la ritenga un’ipotesi di lavoro dimostra l’avanzamento degli studi sull’intelligenza artificiale. Perché i sogni di Google anche di questo ci parlano, di quanto gli studi sulle reti neurali, branca dello sviluppo dell’intelligenza artificiale che ha conosciuto successi alterni negli ultimi decenni, oggi siano diventati fondamentali (e abbiano trovato in Google e nella Silicon Valley un finanziatore costante ed entusiasta).



[**Video_box_2**]Ma i paesaggi allucinati dei sogni di Google ci parlano soprattutto di noi. Le immagini prodotte dalle reti neurali sono la dimostrazione di come un soggetto diverso dall’essere umano percepisce il mondo. Certo, la “percezione del mondo” di una rete neurale dipende dal tipo di immagini con cui i ricercatori nutrono i cervelli elettronici, ma questo non è molto diverso dal modo in cui gli uomini raccolgono immagini attraverso gli occhi e i sensi. I sogni di Google sono un’elaborazione della realtà di origine matematica, altra da noi, e il fatto che seppure in maniera distorta questi sogni appaiano famigliari, e arrivino a sfiorare il nostro senso estetico, è una scoperta eccitante non solo per gli studi di intelligenza artificiale. George Zarkadakis, che ne ha scritto in un articolo sull’Huffington Post America e poi ne ha parlato con il Foglio in un’intervista, arriva a scomodare l’ontologia. Il problema dell’affidabilità delle percezioni umane ha ossessionato filosofi, neuroscienziati, e oggi è uno dei nodi che gli ingegneri che si occupano di intelligenza artificiale sono più impegnati a districare. Come provare che le macchine vedono le cose come le vediamo noi? – il corollario naturale di questa domanda ovviamente è: come provare che ciò che vediamo è reale? “Anche se le immagini prodotte dalle reti neurali sono state influenzate dall’‘addestramento’ dei ricercatori, la rete si è organizzata da sola secondo funzioni matematiche e probabilistiche. Il fatto che le immagini prodotte ci siano risultate così famigliari non poteva essere previsto, è stato sorprendente”, dice Zarkadakis. “E’ stato come dare un’occhiata nella mente di qualcun altro, solo che nel caso di Google questo altro era un soggetto artificiale, non biologico, puramente matematico. Per me questa è una prova forte del fatto che il mondo che percepiamo non è un’illusione”. In pratica: se le macchine sognano come noi, non viviamo nella caverna di Platone.

 

Applicare l’argomento ontologico ai sogni psichedelici di Google sembra un’aberrazione, eppure quello intorno alla filosofia delle intelligenze artificiali sarà uno dei dibattiti più importanti dei prossimi decenni, in cui molte menti illustri, come Stephen Hawking ed Elon Musk, hanno già preso posizione per dire che i robot sono il più grave rischio mai esistito per la razza umana. “L’intelligenza artificiale è la tecnologia chiave per portare la nostra civiltà al livello successivo”, dice Zarkadakis. Che da futurologo e ottimista aggiunge: “L’unico modo per mitigare i rischi è formare con le macchine una partnership di collaborazione tra eguali”.

Lascia il tuo commento

Condividi le tue opinioni su Il Foglio

Caratteri rimanenti: 1000

Servizi