Facce dispari

Walter Quattrociocchi: “Nei social troviamo solo quel che già vogliamo. Troppi deliri sull'IA”

Francesco Palmieri

Per l'ordinario di Data Science and Complexity a La Sapienza "l’idea che l’Intelligenza artificiale possa prendere il sopravvento sull’uomo è basata su una quantità di nozioni fasulle o raffazzonate"

Il dibattito sull’Intelligenza artificiale non appassiona più molto Walter Quattrociocchi, ordinario di Data Science and Complexity a La Sapienza. Non lo appassiona neanche dopo l’approvazione dell’AI Act con cui il Parlamento europeo regolamenta la materia. Sarà per i dati che accumula e rielabora nel suo Centro, sarà per cifra caratteriale o per coerenza scientifica, ma l’opinione di Quattrociocchi echeggia dispari nel coro.

 

Cos’è che la raffredda? L’attenzione sull’Intelligenza artificiale non le pare calibrata?

Mi scoraggia la narrativa sviluppata sul tema: ognuno cerca di intestarsene un capitolo con argomentazioni spesso senza riscontri, mentre proliferano moniti circa possibili pericoli che a volte lasciano il tempo che trovano.

 

Per esempio?

L’idea che l’Intelligenza artificiale possa prendere il sopravvento sull’uomo è basata su una quantità di nozioni fasulle o raffazzonate. Un approccio serio deve tenere conto solo del binomio dati-algoritmi, quello che ci consente, per esempio, di prevedere il meteo, cosa compreranno le persone o per chi voteranno. Dati e algoritmi. Ciò che esula da questo inquadramento è puro delirio. L’IA che processa il linguaggio è una tecnologia con più di dieci anni, ma non compiva il salto qualitativo per carenza di dati. Oggi riversiamo nel linguaggio una quantità semantica che l’algoritmo traduce in forma matematico-statistica: trova i pattern nelle nostre parole e ricrea percorsi di cui prevede l’evoluzione. Più dati avrà meglio funzionerà: è una rappresentazione statistica molto potente ma senza nulla di “intelligente”. Non deciderà per noi e men che meno avrà caratteristiche di essere senziente. ChatGPT è bravissima perché lo siamo noi col nostro linguaggio. La tecnologia dei Large language models è ottima per i copia e incolla o per altre pur elaborate mansioni che ci fanno perdere tempo.

 

Paventa il rischio di equivoci sull’IA?

Non bisogna lasciarsi travolgere dall’hype mediatico né dalle spinte lobbistiche suscitate dall’entità degli investimenti e dal modello di business delle piattaforme, sempre più orientato all’intrattenimento. Purtroppo gli interlocutori politici non sempre sanno bene di cosa stanno parlando.

 

Si legge che tra i rischi c’è la discriminazione di genere.

Sciocchezze. Poniamo il caso di Amazon: si è detto che discriminerebbe le donne nell’assunzione dei magazzinieri, ma non si può attribuire alcuna “colpa” all’Intelligenza artificiale perché è solo una questione di vecchia inferenza statistica. L’algoritmo che processa i dati costruisce la rappresentazione matematica sulle assunzioni fatte fino a quel momento. Se risultano più uomini il problema è il dato, non l’algoritmo. Un altro esempio: negli Usa si utilizza l’osservazione frequentista nella prevenzione del crimine. Se i dati storici registrano più reati nelle periferie, in una certa fascia economica, tra alcune comunità e così via, magari l’algoritmo rileverà maggiore propensione a delinquere in un giovane disoccupato di origine ispanica. Possiamo censurare l’algoritmo per renderlo meno discriminatorio, ma il bias è nei dati. Si può correggerli però si elimina la loro capacità predittiva.

 

Sempre protagonista di dibattito, assieme all’Intelligenza artificiale, è la vexata quaestio delle fake news, già oggetto di molteplici interventi. Sono stati efficaci?

L’impatto dei fact-checking è stato sopravvalutato. Ho elaborato una messe così imponente di dati da giungere a una certezza: l’utente dei social ignora le informazioni a contrasto, che addirittura lo irrigidiscono maggiormente sulle sue. Un riscontro lampante lo abbiamo ricavato dalla pandemia con l’osservazione delle tendenze vaccinali. Le curve di esitazione erano costanti. In poche parole, si cercano online i contenuti già congeniali e gli utenti più affini con cui ci s’accomoda in una echo chamber di condivisione in gruppi sempre più polarizzati. A qualunque nozione contraddittoria si reagisce male, perché un confirmation bias scherma dalle dissonanze cognitive.

 

Dimostrare che la verità è un’altra non serve?

In più comporta un rischio. Stabilire una verità dall’alto la consegna a chi detiene il potere e ciò potrebbe trasformarsi in una insidia alla libertà di espressione. Le fake news sono l’effetto di un ecosistema progettato sempre più sul modello di business dell’intrattenimento che prevale sull’informazione.

 

Qual è la soluzione?

L’incremento della consapevolezza attraverso la spiegazione dei meccanismi con cui funzionano le piattaforme. Per il resto, i social riverberano dinamiche umane e il cervello funziona nel modo in cui ha sempre funzionato. Nei prossimi giorni, ‘Nature’ pubblicherà una indagine svolta dal mio Centro su otto piattaforme in cui si dimostra che da oltre un trentennio i meccanismi delle shitstorm non sono cambiati. La codifica del mondo è la stessa.

 

Quanto pesano gli influencer? Sono sopravvalutati?

Secondo i nostri carotaggi, il numero dei follower, ammesso che siano tutti veri e consistenti, non ha nulla a che vedere con la viralità dei contenuti né la configurazione sui social combacia con quella del mondo reale. Gli influencer funzionano nelle rispettive echo chamber, un po’ come gli spot pubblicitari tv nelle specifiche fasce.

 

Chiara Ferragni si risolleverà?

In genere un influencer dopo 12-14 mesi stanca. Lei dura da molto di più perché ha innescato un marchingegno di storytelling della sua vita. Dopo la vicenda del pandoro ha inaugurato un nuovo film: voglio essere me stessa, vivere nel presente eccetera. Vedremo se ricapitalizzerà.

 

Di più su questi argomenti: