LaPresse

Interrogativi

Tra apocalittici, integrati e risolutori. A ChatGpt serve l'etica? (No)

Maurizio Crippa

Il dibattito provocato dall'intelligenza artificiale nelle sue varie forme (ora si spera molto in “Claude”, il chatbot “gentile”) può essere rappresentato con queste tre attitudini differenti. E poi c'è un altro tema: chi controllerà i volenterosi controllori delle IA?

"Tutto l’universo conosciuto è governato unicamente dai libri”, scrisse Voltaire divenuto vecchio e saggio. Un postulato, più che una squillante verità. Ma ha retto benino fino ai nostri giorni, fino a noi ancora figli della Galassia Gutenberg. Una rivoluzione che potesse espellere i libri dal governo unico del mondo era impensabile per Voltaire, anche se già ai suoi tempi – come racconta Robert Darnton  nel suo ultimo libro, Editori e pirati – il trionfo dei Lumi passò proprio da una “disruption” del sistema di controllo sui libri: chi controlla la macchina, governa il mondo.

 

Ora che siamo di fronte a un salto quantico, a un “universo conosciuto” che potrebbe non essere più governato dai libri – la misura umana della conoscenza – ma “unicamente” da un computer che ha imparato a pensare e a parlare, da una intelligenza non più umana ma artificiale, è normale che esplodano dibattiti ed entusiasmi, o che emergano paure arcaiche. Un cambiamento che promette di spostare non solo alcune funzioni delle nostre vite, ma il governo stesso della conoscenza, avrebbe fatto impressione anche a un disincantato pensatore come Voltaire. C’è qualcosa di profondo, psichico, antropologico, che va oltre i libri.

 

Siamo vissuti per millenni, persino gli illuministi atei, immersi nella sacralità del pensiero biblico: fatti “a sua immagine e somiglianza”. Come scrive il linguista Andrea Moro in librino pieno di suggestioni, Parlo dunque sono (Adelphi), questa somiglianza sta proprio nel “riconoscerci capaci di dare dei nomi”. Un legame tra linguaggio e potere sul cosmo: “All’origine della tradizione ebraica il Dio che fa l’uomo è lo stesso Dio che si ferma ad ascoltare l’uomo dare i nomi”. Ora la facoltà  di collegare con un senso les mots et les choses passa alle macchine: è ovvio che ci sia grande apprensione, tra i nipotini spodestati del governo di Gutenberg. 
Apprensione che arriva persino a Barack Obama, “chi distinguerà tra me e un mio avatar creato dall’IA?”, si è chiesto in una conferenza a Berlino. E detto dal presidente che costruì le sue campagne elettorali anche sullo sfruttamento massivo dei database e dei social media – antenati solo un pochino più stupidi delle AI – fa un certo effetto. Obama è un grande oratore, come ha ricordato sul Corriere il raffinato Paolo Valentino andava famoso per le sue costruzioni “trimembre”, impostare aut-aut apparentemente irrisolvibili e uscirne con una terza via entusiasmante.

 

Con meno pretese, potremmo dire che il dibattito provocato da ChatGPT e i suoi fratelli (ora si spera molto in “Claude”, il chatbot “gentile”) può essere diviso in tre attitudini differenti: ci sono gli apocalittici, gli integrati e i risolutori etici. Ma non è detto che le soluzioni “etiche” del problema siano poi davvero risolutive e prive di nuove domande. 

 

La categoria più semplice da inquadrare, anche perché la più rumorosa, è quella degli apocalittici: come in Metropolis, urge la rivolta contro il dominio delle macchine. Qualche giorno fa la breaking news planetaria sono state le parole di Geoffrey Hinton, il “Godfather” dell’IA che ha lasciato Google, dove era a capo dei progetti di sviluppo per i linguaggi di apprendimento artificiale, e davanti a una platea del MIT di Boston ha fatto professione del suo nuovo credo: “E’ una minaccia esistenziale all’umanità, la politica deve regolare questi modelli”. Ma il fronte degli ex pentiti è ampio. C’è Elon Musk, uno che sulla AI ha investito molto, ma a lui non danno retta. Però la lettera aperta “Pause Giant AI Experiments”, che chiedeva una moratoria è stata firmata anche dal ceo di Apple, Steve Wozniak, e dal filosofo e saggista Yuval Noah Harari, che ha poi rinforzato sull’Economist gli allarmi: “Se trattiamo l’intelligenza artificiale come un oracolo rischiamo la fine della storia umana, la nostra civiltà potrebbe essere hackerata”. Ma già nel 2019 Sam Altman, il fondatore di OpenAi, scomodò i dubbi che erano sorti attorno al Progetto Manhattan: “Sto facendo qualcosa di buono? O qualcosa di molto cattivo?”.

 

Fino a poco tempo fa il dibattito poteva apparire teorico e un po’ attardato (se ne occuparono a poca distanza uno dall’altro due quasi centenari come Henry Kissinger e Noam Chomsky) e con un retrogusto misoneista, se non luddista. Certo, c’è preoccupazione per i milioni di posti di lavoro che spariranno: questa rivoluzione industriale promette di essere più devastante, in quanto globale, delle precedenti. Ma, ribattono gli ottimisti, ne nasceranno altri, e più tecnologicamente qualificati. Però, dopo prese di posizione di Geoffrey Hinton, è innegabile che il dibattito abbia fatto un salto di qualità. Ha detto lo scienziato in un’intervista a Repubblica: “Ho cambiato idea sul rapporto tra il cervello umano e i modelli di intelligenza artificiale. Pensavo che questi modelli lavorassero come il cervello. Invece sono in grado di sapere migliaia di volte quello che sanno gli umani”. Un rischio spaventoso, dice: “Sono in grado di fare dei ragionamenti. Possono essere in grado di manipolare le persone, avendo imparato tutta la conoscenza del mondo”. E infine, il dubbio sulla possibilità di controllo: “Anche se fissassimo delle regole, questi sistemi potrebbero impararle e superarle. Queste intelligenze artificiali non hanno degli obiettivi di evoluzione prestabiliti, ma prima o poi li potranno creare, se perdiamo il controllo”.

 

In un excursus letterario-filosofico per la Review del Foglio, Guido Vitello ha ricordato che già cento anni fa un autore distopico, Günther Anders, aveva parlato di “vergogna prometeica”, il pentimento degli umani per le loro stesse incontrollabili scoperte.
Ci sono poi quelli che Umberto Eco chiamerebbe integrati, ma è più corretto definirli ottimisti circa le trasformazioni della scienza. Come ha scritto Eugenio Cau, uno degli aspetti rilevanti anche a livello sociale delle IA è proprio l’entusiasmo che ha circondato il debutto di ChatGPT. Mentre le criptovalute hanno acceso solo fuochi fatui, mentre il Metaverso non è decollato e soprattutto non ha affascinato, l’effetto ChatGPT è stato paragonabile a quello del primo iPhone (2008). “La Silicon Valley è un gigantesco meccanismo imprenditoriale, finanziario e tecnologico lanciato a rotta di collo all’inseguimento della next big thing, la nuova grande idea rivoluzionaria”, scrive. E “quando usi ChatGPT, il primo pensiero che ti balza alla mente è: ‘Incredibile!’. E il secondo pensiero  è: ‘Questo lo potrei usare per…’”. Non è solo la novità del giocattolo. Le applicazioni in ogni campo – screening medici, medicina predittiva, analisi finanziarie – sono enormi. Per non parlare del campo nascente della giustizia predittiva (brr… eccoci a Minority Report) o a quella, più rassicurante, dell’esame di giganteschi depositi di atti o sentenze.  Ma la domanda se tutto questo rischierà di condizionare le scelte personali, sociali o addirittura politiche resta.

 

E’ in questo campo ancora vergine – ma come vedremo qualche solco è già stato tracciato in campi confinanti – che si attesta il terzo gruppo. Senza più titoli di Eco a disposizione, potremmo definirlo quello dei regolatori etici: tendenza realista o tendenza utopista. La scrittrice Chiara Valerio, commentando su Rep. l’intervista a Hinton che la “lascia perplessa”, punta a normalizzare, o minimizzare. Ma nel tentativo di spostare il punto di vista finisce per perdere aderenza. Dire che l’intelligenza “non appartiene solo a noi ma è caratteristica del mondo organico” ha ovviamente il suo interesse, ma né le piante né gli animali “danno nomi” alle cose, né ambiscono a governare “l’universo conosciuto”. L’IA è un’altra cosa, limitarsi a dire che serve una politica che metta tutti in condizione di accedervi è wishful thinking etico. Più nel dettaglio, e nel quadro di una costruzione-costrizione normativa, si muovono filosofi come Luciano Floridi, docente a Oxford. Nel suo “Etica dell’intelligenza artificiale - Sviluppi, opportunità, sfide” (Cortina), lavora attorno alle possibili regolamentazioni etiche, pratiche e anche legislative del Nuovo Mondo. E se il mondo è nuovo, il terreno è già in parte arato da molte riflessioni dedicate al necessario, e un po’ fantomatico, “governo della complessità” tecnologica e delle informazioni.

 

Qualche anno fa un giurista e saggista americano assai influente come  Cass R. Sunstein (è stato il riferimento di Obama sul tema delle regolamentazioni) ha scritto un libro, #republic – La democrazia nell’epoca dei social media (Il Mulino), in cui partendo dalla preistoria (il 1995) ipotizza “un’architettura di controllo” per la info-sfera. Partiva da Nicholas Negroponte, mitologico guru del MediaLab del Mit al tempo della prima rivoluzione informatica, che aveva profetizzato l’arrivo del “Daily Me”, un mondo (allora sconosciuto) in cui ogni individuo sarebbe stato in grado di selezionare informazioni e consumi culturali in totale autonomia. Ragionava Negroponte: l’importante è che ognuno possieda “l’architettura di controllo” del suo “Daily”. Vent’anni dopo, Sunstein era costretto ad ammettere che quella rivoluzione ormai compiuta aveva invece generato l’anarchia digitale. E immaginava “tasti della serendipity” basati su un algoritmo buono in grado di bucare le bolle social troppo proterve e autoreferenziali. Sullo sfondo delle sue analisi c’era già il tema vero è più complesso: a chi spettano l’onere e il potere del controllo? Alla politica? All’industria? Agli scienziati? Di sicuro, non agli individui. Quanto siano condizionanti e incontrollabili gli algoritmi che guidano i social media è noto da tempo. Ma oggi, di fronte a macchine che scrivono per noi, che forniscono soluzioni semplici a problemi complessi, il tema del regolatore si fa ancora più stringente. Soprattutto davanti a dubbi filosofici forse atavici, ma non facilmente eliminabili.

 

Si può notare che le critiche più interessanti degli apocalittici vengano spesso da chi studia  il linguaggio umano nella sua specificità, e ne ha dedotto che è irriducibile  qualsiasi funzione meccanica. Chomsky se ne andò dal MIT molti anni fa (molto in anticipo su Hinton) proprio perché contrario agli studi di intelligenza artificiale: le proprietà del linguaggio, ripete, “nascono dalle leggi di natura, non sono qualcosa che si sviluppa come accumulo”. Già decenni fa sosteneva: “Il fatto che tutti i bambini normali acquisiscano delle grammatiche sostanzialmente comparabili, di grande complessità e con notevole rapidità suggerisce che gli esseri umani siano in qualche modo progettati in modo speciale, con una capacità di natura misteriosa”. E più di recente ha affermato che il problema di ChatGPT è “la mancanza di moralità”, cioè l’incapacità (ma solo per ora?) di stabilire se un concetto sia vero o falso, giusto o sbagliato. Per il vecchio linguista, ChatGPT è un esempio di “banalità del male”.

 

E’ un modo di intendere l’essenza profonda (“generativa” non per niente) del linguaggio umano nella sua essenza misteriosa, radicalmente lontano da quello di uno programmatore informatico. La più recente polemica, persino banale, riguarda Amnesty International che ha utilizzato immagini generate dall’AI per illustrare un report sui diritti civili in Colombia: perché usare immagini “false” per illustrare una cosa “vera”? E se domani immagini false mostrassero il “falso” (e non è solo il piumone del Papa) che accadrebbe? Discepolo e collaboratore italiano di Chomsky, Andrea Moro ha ricordato un altro fondamento non aggirabile della nostra cultura, la nozione di linguaggio di Aristotele. Per il filosofo greco, spiega, “il falso e il vero hanno a che fare con la congiunzione e la separazione”. Il falso è una separazione: “non”. E’ il verbo essere a stabilire, tra le parole, una unità: “è”. Essere o non essere: un famoso dilemma. Ma se una macchina non sarà in grado di riconoscere separazione o congiunzione? Se insomma, come teme Hinton, un giorno diventasse per noi inconoscibile, cioè ingiudicabile, il contenuto delle sue affermazioni? Il tema dell’essenza della lingua delle macchine può essere definito “umanistico”, infatti non piace granché agli scienziati, ma esiste. Gli apocalittici possono non avere ragione in toto, anche perché, come dice lo stesso Hinton, queste macchine “non parlano un linguaggio umano”. Ma la necessità di regolarne l’uso l’ha avvertita persino Joe Biden, che pure si racconta ne sia affascinato, tanto che giovedì alla Casa Bianca si è svolto un primo incontro tra Kamala Harris e il Gotha dell’industria delle IA per iniziare a stabilire i punti fermi di un percorso di “sicurezza”. L’Amministrazione americana ha annunciato anche uno stanziamento di 140 milioni di dollari per studiare lo sviluppo di una IA “etica”.

 

Ma è proprio in questa zona del dibattito che nascono nuove domande.  Nei giorni scorsi ha scatenato un certo entusiasmo la notizia che, nonostante l’addio di Hinton, Google ha investito 300 milioni su Anthropic, una startup fondata da due scienziati di origine italiana, Daniela e Dario Amodei, i “ribelli che sfidano ChatGPT”, secondo la titolazione un tantino pop di Repubblica. Gli Amodei avevano abbandonato OpenAI proprio per un contrasto di visione: l’azienda di ChatGPt puntava a un percorso rapido e commerciale, trascurando il tema della sicurezza. Così è nata Anthropic, che ha sviluppato un chatbot chiamato Claude, puntando a sistemi “affidabili, interpretabili e guidabili”. L’idea è quella di una “AI costituzionale”, basata su modelli linguistici che possono “imparare a seguire una serie di semplici principi del linguaggio naturale attraverso l’auto-miglioramento” (il contrario dei dubbi profondi di Chomsky e Hinton). Si può dare alle IA “un’impronta etica”. Gli Amodei confermano: “Siamo più etici e sicuri di ChatGPT”. Con loro lavorano 150 persone: fisici, neurologi, scienziati, biologi, filosofi, laureati in materie umanistiche, “indispensabili per sviluppare un pensiero critico”. Dimostrazione che l’IA non è solo “tecnica”, o un’intelligenza a sé, come quella vegetale. E dunque non può essere solo una questione di regolamentazione.

 

Si torna inevitabilmente ai temi di cui Sunstein, e non solo lui, parlava già anni fa. Che cosa succede se “l’architettura di controllo” non è più personale, come nel sogno del “Daily me”, ma diventa un algoritmo, un machine learning di cui non si può sapere se dice il vero o se sbaglia? Si torna ad Aristotele, si torna a Voltaire e al governo dell’universo. A chi spetta stabilire le regole? (Sunstein non nascondeva che servirebbe una riflessione sul Primo emendamento, il fondamento della libertà di parola). E se chi governa l’architettura si dimostrasse eticamente non affidabile? Non si parla solo di chatbot in mano a paesi come la Cina (ma ne hanno parlato molto, al MIT). Gli scienziati di Anthropic spiegano che il Large language model permette un addestramento delle reti di deep learning: “Inserendo una massa sufficientemente vasta di dati, i risultati sono piuttosto razionali”. E alla domanda: che differenza c’è tra ChatGPT e Claude? la risposta è: “Claude tende a elaborare output un pochino meno nocivi e, beh, è più gentile”. Spiegano: “Tutti questi modelli sono addestrati sulla base di dati umani, cioè su quanto scrivono le persone. Il che vuol dire che se non si interviene, inevitabilmente questi modelli rifletteranno i pregiudizi umani”. Con la tecnica chiamata Reinforcement Learning, un feedback umano mirato può addestrare i modelli in modo da ridurre i preconcetti. “Noi gli diciamo: ‘Questa non è una risposta adeguata’ o ‘non dovresti dare quel tipo di risposta’. Il risultato? Il metodo riduce i pregiudizi dell’84 per cento circa”.

 

Cosa sia poi giudizio o pregiudizio, è una faccenda umana che non dovrebbe essere affidata a una macchina. Anche senza confondere il deep learning con il deep state, è chiaro che la responsabilità che i programmatori di IA eticamente addestrate si prendono è tremenda. Forse è meglio attestarsi sulla consapevolezza che le macchine non hanno pensieri umani, sono algoritmi che li riassumono e stabiliscono previsioni statistiche: insomma sono una “scorciatoia” – come le definisce lo scienziato Nello Cristianini in un bel libro (il Mulino) di cui il Foglio si è occupato. Il problema non è che sviluppino una loro etica, ma che sia controllabile – il più possibile trasparente – il loro processo di accumulo ed elaborazione. Quello che Floridi, e molti altri scienziati, indica come cruciale: i principi di “esplicabilità” e di “accountability”. Cristianini parla di una necessaria “ispezionabilità” delle IA. Se è fuorviante considerare le macchine pensanti e parlanti come a sostituti di un linguaggio umano completamente diverso (“Tutte le volte che licenzio un linguista la performance del nostro sistema migliora”, diceva oltre trent’anni fa il capo dei progetti di Ibm), forse è rischioso anche pensare di poterli istruire con dettami etici e contenuti decisi soltanto dalle persone che governeranno “tutto l’universo conosciuto”.

 

Di più su questi argomenti:
  • Maurizio Crippa
  • "Maurizio Crippa, vicedirettore, è nato a Milano un 27 febbraio di rondini e primavera. Era il 1961. E’ cresciuto a Monza, la sua Heimat, ma da più di vent’anni è un orgoglioso milanese metropolitano. Ha fatto il liceo classico e si è laureato in Storia del cinema, il suo primo amore. Poi ci sono gli amori di una vita: l’Inter, la montagna, Jannacci e Neil Young. Lavora nella redazione di Milano e si occupa un po’ di tutto: di politica, quando può di cultura, quando vuole di chiesa. E’ felice di avere due grandi Papi, Francesco e Benedetto. Non ha scritto libri (“perché scrivere brutti libri nuovi quando ci sono ancora tanti libri vecchi belli da leggere?”, gli ha insegnato Sandro Fusina). Insegue da tempo il sogno di saper usare i social media, ma poi grazie a Dio si ravvede.

    E’ responsabile della pagina settimanale del Foglio GranMilano, scrive ogni giorno Contro Mastro Ciliegia sulla prima pagina. Ha una moglie, Emilia, e due figli, Giovanni e Francesco, che non sono più bambini"