PUBBLICITÁ

il foglio del weekend

Ada Byron, la fata dei numeri

Michele Magno

Era una libertina piena di ossessioni. E le sue intuizioni geniali hanno cambiato il modo di pensare i computer che usiamo oggi

PUBBLICITÁ

Il linguaggio di programmazione utilizzato dal dipartimento della Difesa degli Stati Uniti si chiama Ada, in onore di Ada Byron, figlia di lord Byron. Come ha scritto il divulgatore scientifico del New York Times Jim Holt, si tratta di una denominazione non del tutto fantasiosa (Quando Einstein passeggiava con Gödel, Mondadori, 445 pp., 25 euro). Augusta Ada Byron, divenuta col matrimonio contessa di Lovelace, era considerata un prodigio della matematica. Dopo la sua morte, avvenuta nel 1852 a trentasei anni, è stata celebrata come una maga dei numeri. Con l’avvento del web, la sua fama postuma ha raggiunto nuove altezze. E’ stata descritta come una visionaria della tecnologia informatica, le è stata attribuita l’invenzione dell’aritmetica binaria, ed è diventata una specie di divinità, oggetto di culto del cyberfemminismo, un movimento che contesta il dominio maschile negli sconfinati territori della realtà virtuale.

ABBONATI PER CONTINUARE A LEGGERE
Se hai già un abbonamento:

Altrimenti


Il linguaggio di programmazione utilizzato dal dipartimento della Difesa degli Stati Uniti si chiama Ada, in onore di Ada Byron, figlia di lord Byron. Come ha scritto il divulgatore scientifico del New York Times Jim Holt, si tratta di una denominazione non del tutto fantasiosa (Quando Einstein passeggiava con Gödel, Mondadori, 445 pp., 25 euro). Augusta Ada Byron, divenuta col matrimonio contessa di Lovelace, era considerata un prodigio della matematica. Dopo la sua morte, avvenuta nel 1852 a trentasei anni, è stata celebrata come una maga dei numeri. Con l’avvento del web, la sua fama postuma ha raggiunto nuove altezze. E’ stata descritta come una visionaria della tecnologia informatica, le è stata attribuita l’invenzione dell’aritmetica binaria, ed è diventata una specie di divinità, oggetto di culto del cyberfemminismo, un movimento che contesta il dominio maschile negli sconfinati territori della realtà virtuale.

PUBBLICITÁ

 

Ma ebbe davvero un ruolo cruciale nella storia del computer? Preferiva, è vero, gli algoritmi alla poesia, ma la sua scelta – sostiene Holt – si fondava su un’idea altamente romantica del proprio genio, in perfetto stile byroniano. Anche lei era probabilmente “matta e cattiva”, come suo padre fu definito dall’amante Carolyne Lamb. Giocatrice d’azzardo patologica e sfrenata cocotte, tendeva all’isteria e spesso era stordita dall’oppio. Dopo la traumatica separazione dal marito, lady Byron le impose un’educazione a base di somme e divisioni. E, per raffreddarne le passioni adolescenziali, la obbligò a studiare un manuale in sei volumi su Euclide. Nel frattempo la ragazza, carina e provocante, era assediata dagli spasimanti, attratti non solo dalla sua celebrità, ma anche dalle enormi ricchezze che avrebbe ereditato dalla sua famiglia di facoltosi proprietari terrieri.

PUBBLICITÁ

 

Nel 1833, a una festa che segnò il suo debutto nel bel mondo londinese, Ada fu presentata a un vedovo quarantenne, Charles Babbage. In quel periodo stava tenendo nella sua casa una serie di serate per illustrare un congegno che chiamava “macchina differenziale”: un calcolatore meccanico, più o meno delle dimensioni di un baule da viaggio, costituito da circa duemila scintillanti ingranaggi in ottone e acciaio, azionato da una manovella. Ada andò a vedere quella “macchina pensante”, e ne rimase affascinata. Chiese allora a Babbage di poter esaminare i suoi disegni, che egli le passò volentieri. Il congegno ideato dal professore che all’Università di Cambridge allora occupava la cattedra che era stata di Isaac Newton (e che sarà di Stephen Hawking), intendeva rispondere a pressanti esigenze pratiche poste dalla rivoluzione industriale.

 

Col suo avvento, ingegneri e navigatori avevano bisogno di tavole numeriche precise, poiché in quelle di cui disponevano c’erano migliaia di errori che potevano causare eventi disastrosi, come naufragi e crollo di viadotti. Nel 1799, quando la Francia era passata al sistema metrico decimale, il barone Gaspard Le Riche de Prony aveva trovato un modo curioso ma efficace per risolvere il problema. L’ispirazione gli era venuta dalla lettura della Ricchezza delle nazioni di Adam Smith, in particolare del famoso brano sulla divisione del lavoro in una fabbrica di spilli. Assunti un centinaio di parrucchieri parigini rimasti disoccupati durante il Terrore, aveva messo in piedi una sorta di catena di montaggio per “fabbricare logaritmi nello stesso modo in cui si fabbricano gli spilli”. Babbage pensò che quei parrucchieri, usati come manovali delle quattro operazioni, avrebbero potuto essere sostituiti da ingranaggi.

 

PUBBLICITÁ

In altre parole, una macchina avrebbe potuto eseguire i medesimi calcoli automatizzando lo sforzo mentale, esattamente come la macchina a vapore aveva automatizzato lo sforzo fisico. Quello di Babbage non era il primo calcolatore meccanico. Una macchina per fare addizioni era stata inventata nel 1642 da Blaise Pascal (e commercializzata col nome di “Pascalina”), e nel 1673 Wilhelm Leibnitz ne aveva inventata una capace di eseguire tutte e quattro le operazioni aritmetiche, anche se non aveva mai funzionato bene. Nessun calcolatore precedente, tuttavia, aveva la complessità della macchina differenziale. Ma, dopo dieci anni di fatiche, egli decise di abbandonarla per progettarne un’altra più sofisticata e ambiziosa. La chiamò macchina analitica: era per molti versi un prototipo del moderno computer.

PUBBLICITÁ

 

Infatti, era dotata di uno “store” (magazzino, vale a dire la memoria), un “mill” (mulino, il processore), un dispositivo di input per l’immissione dei programmi e uno di output per la stampa dei risultati. Il dispositivo di input avrebbe letto le istruzioni mediante schede perforate; una tecnologia messa a punto da Joseph-Marie Jacquard nel 1801 nel campo tessile, che consentiva al telaio la riproduzione di tessuti di diversa foggia con estrema velocità e accuratezza. Nel 1840 Babbage presentò la sua creatura in un congresso scientifico a Torino. Fra i partecipanti c’era il capitano Luigi Menabrea, un giovane ingegnere militare che più tardi divenne primo ministro del neonato Regno d’Italia. Due anni dopo Menabrea pubblicò il saggio Notions sur la Machine Analitytique de M. Charles Babbage.

PUBBLICITÁ

 

Quando Ada propose di tradurlo, il suo mentore se ne mostrò felice. Dati gli ambienti altolocati a cui apparteneva la donna, grazie al suo aiuto sperava di ottenere i finanziamenti che il governo inglese continuava a negargli. Dopo alcuni anni di dedizione assoluta all’impresa, la traduzione era pronta. Ada però vi aggiunse un vero e proprio trattatello filosofico in cui metteva in rilievo come la macchina, essendo in grado di operare su tutti i tipi di simboli, avrebbe potuto comporre anche “pezzi musicali di qualsiasi complessità” e stabilire un collegamento tra neuroni e processi psichici. Ma, a differenza della mente umana, non avrebbe mai potuto essere intelligente: “La macchina analitica non ha alcuna pretesa di dare origine a nulla”. Oltre un secolo dopo, Alan Turing, in una pionieristica conferenza sull’intelligenza artificiale, definì questo truismo come “l’obiezione di lady Lovelace”.

 

Obiezione che escludeva la possibilità per la macchina di Babbage di modificare le istruzioni ricevute – di imparare cioè dall’esperienza – al punto da comportarsi in maniera imprevedibile: come, ad esempio, dare scacco matto a un campione mondiale di scacchi. E’ esattamente ciò che invece sarebbe accaduto l’11 maggio 1997, quando il supercomputer Ibm Deep Blue sconfisse per la prima volta Garry Kasparov, il maestro russo del “più nobile dei giochi”. Dopo la pubblicazione del “suo primo figlio”, come lo aveva definito, la fiducia di Ada nelle sue capacità intellettuali diventò incontenibile. “Sono di buon umore”, confessò a Babbage. “Più studio, più sento il mio genio irresistibile. Non credo che mio padre sia stato un poeta paragonabile a ciò che io sarò come analista (e metafisica)”. In sintonia con la sua ossessione per folletti e fate, pilastri dell’immaginazione popolare dell’epoca, lo invitò ad abbandonarsi alla sua “Guida-da-Fata”.

 

Ma egli declinò la proposta. La pubblicazione delle note di Ada non era stato il colpo grosso che si aspettava. L’establishment non era caduto ai suoi piedi. L’atteso finanziamento parlamentare per la costruzione della macchina analitica non si era concretizzato. A trarre beneficio dalla pubblicazione fu soprattutto Ada. Le copie che furono distribuite ai suoi amici nell’alta società londinese, tra cui un attore, un drammaturgo e uno storico dell’arte, la resero una figura leggendaria. Nel 1844 si diffuse perfino la voce che fosse lei l’anonima autrice di un audace libro fresco di stampa, intitolato Vestiges of the Natural History of Creation, una sorta di teoria dell’evoluzione ante litteram. Quel libro, però, non l’aveva scritto lei. Anzi, a parte la recensione di un testo sul magnetismo animale, non scrisse più nulla di significativo per il resto della sua vita, e non riuscì a portare a termine nemmeno il progetto di un “calcolo infinitesimale del sistema nervoso”, ossia di un modello matematico del modo con cui il cervello produce il pensiero.

 

Come il padre, era soggetta a violente oscillazioni d’umore che ostacolavano la concentrazione richiesta dalla ricerca scientifica. Afflitta da nevrastenia e da ricorrenti attacchi d’asma, trovava rifugio soltanto negli stupefacenti. Nondimeno, l’interesse per l’elettricità quale fonte dell’energia nervosa la fece avvicinare a Andrew Crosse, un eccentrico scienziato dilettante a cui si era ispirata Mary Shelley per il personaggio del dottor Frankestein. E con il figlio di Cross, John, intrecciò una relazione adulterina. Avida di avventure proibite, cominciò a frequentare gli ippodromi perdendo somme astronomiche con le scommesse sulle corse dei cavalli. Nel frattempo, le era stato diagnosticato un cancro all’utero. Quando una grave emorragia la costrinse a letto, Charles Dickens le fece visita per leggerle il suo romanzo da lei preferito, Dombey e figlio.

 

La morte la colse durante una crisi respiratoria segnata da sofferenze terribili. La sua prima biografa, Doris Langley Moore, la descrive come una donna “piena di interrogativi, congetture, argomentazioni, che riempie pagine su pagine di equazioni, formule algebriche, simboli cabalistici di una maga”. Nel 1997 l’accademia inglese Sadie Plant, nel suo manifesto cyberfemminista Zeros+Ones, esalta la “macchina analitica di Ada” non menzionando Babbage. Per un altro suo biografo, Benjamin Woolley, la nobildonna “riuscì ad elevarsi al di sopra delle minuzie tecniche della straordinaria invenzione di Babbage per rivelarne l’autentica grandezza” (Bride of Science, 1999). Woolley si sofferma molto sui motivi del fallimento dell’inventore della macchina analitica. A suo avviso, l’epoca vittoriana non era pronta per il computer: “Quando Ada tradusse e annotò il saggio di Menabrea, i settori [dell’economia] che il computer ha rivoluzionato quasi non esistevano”.

 

E ancora: “Quando il calcolatore elettronico emerse, un centinaio d’anni più tardi, i suoi inventori sapevano ben poco di Babbage e Ada”. Lo studioso britannico ha ragione solo a metà, osserva Holt. E’ vero che il computer non avrebbe potuto svolgere alcun ruolo nell’Ottocento. Di esso non si sentì veramente il bisogno fino alla Seconda guerra mondiale, quando si dimostrò decisivo per decifrare i codici delle potenze dell’Asse; e, allora, fu Alan Turing a gettare le basi dell’innovazione che più ha segnato il Novecento: una macchina in grado non solo di effettuare calcoli numerici, ma qualunque operazione descrivibile mediante un algoritmo, cioè una successione di istruzioni eseguibili in modo automatico. In altri termini, una macchina (hardware) in grado di decodificare e simulare le istruzioni, ossia i programmi (software).

 

E i computer sulle nostre scrivanie sono esattamente come il genio di Bletchley Park li aveva pensati: macchine che, come tutte le macchine, sanno fare soltanto un numero finito di operazioni, ma che fanno quelle giuste. Turing, però, conosceva il lavoro di Babbage: anzi, i primi computer digitali che videro la luce all’inizio degli anni Quaranta del secolo scorso erano tutti, in fondo, debitori del suo ingegno. Può apparire bizzarro che l’antenato del computer moderno, più che macinare numeri o elaborare informazioni, abbia avuto a che fare con la tessitura di bei broccati o con parrucchieri specializzati in pettinature alla Pompadour rimasti a spasso. E tuttavia sono questi gli antecedenti vezzosi dell’età del computer, un’età che può vantare tra i suoi primi agenti pubblicitari una giovane malata di nervi, figlia di un poeta, che si considerava una fata.

PUBBLICITÁ