Dimenticate hal 9000, l'intelligenza artificiale somiglia più a una calcolatrice (ma molto più utile)

    “A me piace lavorare con la gente. Ho rapporti diretti e interessanti con il dottor Poole e con il dottor Bowman. Le mie responsabilità coprono tutte le operazioni dell'astronave, quindi sono perennemente occupato. Utilizzo le mie capacità nel modo più completo; il che, io credo, è il massimo che qualsiasi entità cosciente possa mai sperare di fare”. (Il computer HAL 9000)

    Tutti ricordiamo HAL 9000, il computer “intelligente” di “2001: Odissea nello spazio”, film che vinse un Oscar esattamente 50 anni fa. Ingannava il tempo giocando a scacchi con David, interagiva come un assistente vocale e, quando scoprì il piano per la sua disattivazione, decise autonomamente di uccidere gli astronauti per continuare le sue segrete direttive programmate. Dieci anni dopo, nel 1979, l'equipaggio di Star Trek si trova ad affrontare V'ger, una nave aliena che si rivela essere una evoluzione della sonda spaziale Voyager 6 che si credeva perduta in un buco nero. Intercettata da una razza di macchine viventi, viene fatta evolvere fino a sviluppare una propria coscienza e le viene assegnata la missione di imparare tutto ciò che può e di cercare il suo creatore per restituirgli le informazioni accumulate. Questi sono solo due esempi di come l'arte ci abbia proposto una visione dell'evoluzione di strumenti informatici che sviluppano un'autodeterminazione e persino una coscienza.

    Ma è veramente possibile una simile evoluzione? La risposta semplice è no.

    Molti amici affini al pensiero promosso dalla Singularity University hanno un atteggiamento molto più possibilista nei confronti di questa domanda. Taluni ritengono che potrebbe accadere, che potremmo inventare qualcosa, oggi inimmaginato, che ci consentirà di porre le basi per sistemi capaci di autodeterminazione e coscienza. Si tratta in tutta evidenza di una fede, non essendovi un riscontro possibile, al pari di chi crede che potremo generare la vita grazie a un ritrovato ancora da inventare. (Sono passati 37 anni dall'uscita di “Blade Runner”).

    Il termine “Intelligenza artificiale” venne coniato da un gruppo di sette informatici di primissimo piano nel 1955 quando proposero un progetto estivo di ricerca all'Università di Dartmouth che avrebbe dovuto coinvolgere 10 studiosi per due mesi per studiare una intelligenza artificiale sulla base della congettura che “ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza possono essere descritti in modo così accurato da consentire a una macchina di simularli”. Il budget richiesto era di 13.500 dollari. Molti decenni e miliardi di dollari dopo, è chiaro che nemmeno sappiamo con chiarezza cosa sia l'intelligenza umana e quindi, tantomeno, come sia possibile emularla.

    Ci si riferisce a una intelligenza come quella umana, in grado di affrontare una sterminata varietà di situazioni (anche improvvisando) con il nome “AGI – Artificial General Intelligence”, o “strong intelligence” in contrapposizione alla “narrow” o “weak” intelligence che sono i software che consentono di affrontare compiti specifici.

    Questo è un punto importante. Una calcolatrice è decisamente più capace di una persona nel risolvere calcoli complessi come le radici quadrate, ma non la chiameremmo “intelligente” anche se, per la verità, quando furono introdotte venivano definite “intelligenti”. Il computer consente di fare un budget trovando istantaneamente punti di equilibrio tra varie ipotesi, cosa che, senza di esso, richiederebbe settimane. Ma non per questo lo chiameremmo “intelligente”. Lo chiamiamo “calcolatore” perché capiamo che la natura della sua elaborazione è un algoritmo deterministico che viene calcolato.

    E questo è un altro punto importante: l'introduzione dei calcolatori elettronici ha consentito di affrontare temi con una capacità di scalare per quantità e velocità a livelli quasi infinitamente superiori a quanto realizzabile dalle persone.

    Il termine “intelligenza artificiale” evoca un parallelo con una intelligenza umana che in realtà non esiste. Costituisce una analogia utile, in determinati casi, per semplificare la discussione, ma non è accurato. Oggi diciamo che un computer si programma e fa dei calcoli: quasi tutti abbiamo una idea – più o meno precisa – di cosa ciò significhi. Diciamo anche che una intelligenza artificiale “impara” e “decide” ma pochi sanno cosa ciò realmente significhi.

    Attualmente il cuore dell'attenzione, in materia di intelligenza artificiale, è il “machine learning” e lo strumento di maggiore interesse sono le reti neurali, un concetto che origina al 1943 e che trova una analogia con la fisiologia dei neuroni, almeno per il livello di conoscenza disponibile nella metà del secolo scorso. Oggi sappiamo che anche questa analogia è molto inaccurata. Il termine machine learning fu definito nel 1959 come segue: “Si dice che un programma apprende dall'esperienza con riferimento ad alcune classi di compiti e con misurazione della performance, se le sue performance nel compito migliorano con l'esperienza”. Decisamente assomiglia a ciò che fa un umano, ma anche a ciò che fanno un lombrico o un'ameba.

    Realizzare un computer che “apprende” significa fornire a un computer la capacità di estrarre dai dati modelli statistici non esplicitamente programmati e applicarli per effettuare predizioni a partire da nuovi dati. Un esempio serve a chiarire: dai dati dei rilevamenti atmosferici osserviamo che c'è una correlazione tra il rosso del tramonto e il bel tempo del giorno successivo, codificato nell'enunciato “rosso di sera, bel tempo si spera”. Un calcolatore, cui vengano forniti in input una serie di dati circa il colore del tramonto e il tempo della giornata successiva, è in grado di calcolare questa correlazione e distillarla in un modello statistico usabile per fare predizioni per nuovi giorni: “Il tramonto stasera è nero, domani sarà una bella giornata?”. Sulla base del modello possiamo predire che probabilmente sarà brutto. Dire “si spera” è accurato. Non vi è certezza, solo un elevato grado di probabilità, poiché abbiamo a che fare con un modello statistico. Un modello con una sola dimensione (il colore del tramonto) è banale, non lo definiremmo certamente come esempio di “intelligenza”, ma ci è utile come base del ragionamento perché il meccanismo è analogo.

    Consideriamo alcuni elementi che concorrono a determinare il prezzo di un appartamento: il quartiere, l'età dell'edificio, la superficie, il numero di stanze, la prossimità a mezzi pubblici o ad asili nido, ecc. Calcolando le correlazioni esistenti tra tutti questi parametri e il prezzo in euro è possibile distillare un modello statistico che consenta di predire il valore in euro di un nuovo appartamento, note le sue caratteristiche. Prezzo che “si spera” sarà accurato. Bisogna cioè sottolineare che il modello statistico non coincide con la realtà, ma è solo una sua rappresentazione e, come tale, è intrinsecamente probabilistico, non deterministico. “Si spera”.

    Un determinato insieme di valori ematici è caratteristico di una leucemia? Fornendo i dati in input a un sistema di intelligenza artificiale opportunamente addestrato su tanti campioni di sangue sano o malato, esso sarà in grado di predire casi di leucemia. Un determinato insieme di pixel di una immagine istologica è caratteristico di un tumore al seno ? Un sistema opportunamente addestrato, ovvero che usa un modello statistico distillato dai dati di casi noti, può predirlo. Un'auto a guida autonoma è, in principio, un sistema molto sofisticato addestrato con innumerevoli sequenze di fotogrammi di guida su strada correlati con livelli di sterzo destra/sinistra e acceleratore/freno.

    Questo meccanismo predittivo sulla base di modelli statistici distillati da correlazioni estratte dai dati consente di affrontare tipologie di problemi diversi da quelli affrontabili con approcci algoritmici-deterministici come il software “tradizionale”.

    Diversamente dai programmi tradizionali, l'intelligenza artificiale è cioè un modo di produrre software con cui si possono affrontare problemi di “percezione” e classificazione grazie a modelli statistici. Compiti in precedenza non automatizzabili e quindi tradizionalmente associati all'intelligenza umana divengono oggi automatizzabili e quindi effettuabili con una capacità di scalare per quantità e velocità a livelli quasi infinitamente superiori a quanto realizzabile dalle persone.

    Ma così come non si può determinare se una cellula sia tumorale guardando il colore del tramonto, non si può nemmeno sapere se probabilmente domani pioverà facendolo predire a un sistema basato su un modello statistico atto a riconoscere cellule tumorali.

    Un software di intelligenza artificiale può essere molto più bravo di un umano a fare correlazioni e predizioni e quindi vincere a scacchi, ma non chiedete a quel software quanto faccia 1+1, perché non sarà in grado di calcolarlo. Tranne il caso di quei pochi tipi di lavoro composti da una sola funzione, altamente ripetitiva, in cui non sorgono mai situazioni nuove da affrontare, queste tecniche consentono di aumentare le capacità lavorative delle persone, le uniche che realmente capiscono il senso di ciò che si fa.

    Negli scritti di sant'Agostino si sottolinea che esistono due modalità della ragione. La prima è la scientia, che è la ragione calcolante, la ragione che organizza i mezzi per realizzare i fini umani. La scientia però non conosce e non comprende i fini dell'azione. Questi fini la scientia li recepisce da un'altra facoltà della ragione, dalla sapientia, che è la capacità di vedere i fini dell'azione. E questa è saldamente in mano all'uomo.