L'atto di sacrificio compiuto dal capitano Desse verso la nave olandese Colombo, Jean Antoine Théodore Goodin, 1829
Sfidare il pensiero unico catastrofista si può. Tre spunti
Il filosofo Dan Williams spiega perché l’allarmismo abbia una presa così forte sul nostro modo di guardare al futuro. Ma la paura dell’AI e della disinformazione potrebbe nascere da una sopravvalutazione del pericolo. Ottimismo spericolato ma realista
“Chi prevede disastri non deve quasi mai ammettere di essersi sbagliato, poiché può sempre sostenere che il disastro non si è ancora verificato, o che è stato evitato proprio grazie ai suoi avvertimenti. Al contrario, minimizzare un rischio che prima o poi si materializza può rovinare una credibilità acquisita da tempo. La scommessa più sicura, dunque, è sempre prevedere il peggio”. Dan Williams è un filosofo britannico, è docente a Cambridge e Sussex, è specializzato nelle funzioni sociali delle credenze, studia da anni le ragioni per cui nella nostra mente si formano convinzioni irrazionali, approfondisce da tempo il ruolo dei cosiddetti bias cognitivi che maturano nelle nostre teste e da alcuni mesi ha dedicato parte dei suoi studi a un tema che a questo giornale sta doppiamente a cuore: la tossicità di un occidente fondato sul principio dell’allarmismo e la pericolosità di una cultura moderna che ha trasformato la paura della tecnologia in una fonte perenne di pessimismo, di catastrofismo e di rancore.
Dan Williams è stato intervistato pochi giorni fa dal Point e in una lunga chiacchierata con il settimanale francese ha offerto alcune chicche assolute e di buon senso che sono musica per le orecchie degli ottimisti in cerca di argomenti da offrire all’internazionale dell’allarmismo in servizio permanente effettivo, fondamentali per quelle serate in cui tocca affrontare commensali immersi nel pessimismo cosmico. Il primo spunto di riflessione offerto da Dan Williams riguarda la cornice del ragionamento generale: perché le notizie che suscitano angoscia, allarme, paura (avete presente i boxini morbosi che ogni giorno compulsate nelle colonne laterali dei grandi giornali? Ecco) hanno così tanta presa sul pubblico, mentre quelle di segno opposto vengono spesso trattate come se fossero fuori dal mondo, false, pur essendo vere?
Williams dice che tutto nasce dal cosiddetto pregiudizio della negatività: siamo spontaneamente attratti da minacce e pericoli. E questa predisposizione si è sviluppata nel corso dell’evoluzione perché ci ha resi più vigili contro i rischi che potrebbero compromettere la nostra sopravvivenza. Il problema, dice Williams, è che questa predisposizione, combinata con un ambiente mediatico in cui tutti competono per catturare l’attenzione e guadagnare la fiducia del pubblico, crea un mercato particolarmente redditizio per la retorica allarmistica. E dunque, di fronte a noi c’è un cane che si morde la coda: le notizie allarmistiche fanno presa, quelle non allarmistiche no, e alla fine nella retina del pubblico le prime resteranno fisse, mentre le seconde no.
Il secondo spunto di riflessione riguarda il tema tecnologico. Il giornalista del Point chiede perché il pubblico ha così tanto bisogno che il futuro tecnologico sia drammatico, che si tratti di profezie di estinzione o di promesse utopiche, e Dan Williams offre una spiegazione convincente. Dice che, in primo luogo, lo sappiamo, gli esseri umani sono istintivamente sensibili alle minacce e che il nostro cervello è programmato per rilevare il pericolo prima di ogni altra cosa. In secondo luogo, però, c’è chi su questo meccanismo ci specula, per esempio i media, e dunque sa che è molto più facile sedurre il pubblico con una storia sulla fine del mondo che con un’analisi sfumata, rigorosa e, diciamocelo, un po’ noiosa.
Nel caso specifico, in molti temono che l’intelligenza artificiale alimenterà un’èra di disinformazione di massa, in particolare attraverso i deepfake, e porterà a ogni sorta di abuso politico. Ma questo timore sovrastima enormemente l’effettiva influenza della disinformazione sugli atteggiamenti e sui comportamenti di voto. E la storia ci insegna che le preferenze politiche degli individui si basano su fattori molto più profondi: le loro esperienze di vita, la loro posizione sociale, la loro identità e la visione del mondo che hanno sviluppato nel tempo. Quello che gli apocalittici si rifiutano di vedere quando si parla di intelligenza artificiale riguarda il saldo positivo che ha avuto finora l’AI sulla vita democratica. Saldo così spiegato: l’AI consente ai cittadini di essere meglio informati, di compiere ricerche più precise, e i pericoli veri della democrazia restano sempre quelli individuati da Platone più di duemila anni fa: demagoghi ed elettori irrazionali, le cui decisioni sbagliate indeboliscono le istituzioni.
Un terzo spunto incoraggiante che suggerisce Williams rispetto al futuro del rapporto tra AI e giornalismo è legato a un effetto che in pochi considerano quando si ragiona dell’impatto dell’intelligenza artificiale nel mondo dei media. E’ vero, sì, i deepfake possono creare informazioni sballate, pericolose, e a volte anche propaganda, ma la loro proliferazione potrebbe avere anche un effetto positivo: incoraggiare il pubblico a essere più scettico nei confronti dei contenuti che incontra online, tranne quando provengono da fonti la cui affidabilità è chiaramente dimostrata, e considerare fondamentale la scelta di una testata ufficiale, responsabile, piuttosto che affidarsi alla pesca a strascico in rete. Il ragionamento di Williams è ottimistico in un modo forse spericolato, ma comunque interessante da mettere a fuoco, perché Williams crede fino a un certo punto alle minacce delle fake news, dei troll, perché i portatori di falsità in fondo sono spesso un riflesso dei nostri pregiudizi cognitivi, e chi crede alle fake news tendenzialmente lo fa perché ha già un’idea distorta su un tema, difficile che ne venga condizionato.
La tecnologia, dunque, amplifica la conoscenza più dei rischi. I problemi sono vecchi, conosciuti e affrontabili, non nuovi, inesorabili e ingestibili. I timori legati alla disinformazione generata dall’intelligenza artificiale sopravvalutano la credulità del pubblico. I deepfake visivi sono pericolosi ma, come tutte le falsificazioni della realtà del passato, creeranno un meccanismo all’interno del quale la fiducia evolverà, si trasformerà, troverà nuove vie di fuga, ma non svanirà, e anzi chiunque cadrà in una fake alla lunga verrà punito, perché il meccanismo fragile con cui si costruisce un sentimento di fiducia deve essere coccolato in ogni istante, e perdere di vista quel sentimento oggi è più pericoloso che mai. Il suggerimento di Williams dunque non si limita a essere un’iniezione di vitamine per chi ha a cuore l’ottimismo, la lotta dura contro la dittatura del catastrofismo. Il suggerimento di Williams mira a qualcosa di più: non abbiate paura a ribellarvi alle narrazioni dominanti e allarmanti, non abbiate paura a sfidare il pensiero unico allarmista, non abbiate paura a sfidare la scommessa più sicura: prevedere il peggio, attingendo al metodo del boxino morboso, utilizzando la scorciatoia del catastrofismo per non dover portare a cena un pensiero basato non sulla percezione ma semplicemente sulla realtà.