PUBBLICITÁ

bustine di verità

Istruzioni di Umberto Eco per un uso disincantato di ChatGPT e di altre nuove diaboliche AI

Maurizio Crippa

Di fronte ai cambiamenti del futuro conviene rivolgersi ai classici. POer La nave di Teseo, due raccolte di scritti su verità e comunicazione. Lezioni utili di scetticismo

PUBBLICITÁ

Nei momenti di incertezza di fronte ai cambiamenti del futuro conviene rivolgersi ai classici e ai loro dubbi scettici. Quantomeno, si può scoprire che i dilemmi di fondo sono sempre quelli, ad esempio se il problema è come districarsi tra verità e falsità. La gigantesca trasformazione, che ha già investito e investirà la conoscenza e persino la nostra percezione della realtà, è quella dell’intelligenza artificiale applicata al linguaggio e alla produzione computerizzata di discorsi, immagini, dati. La grande accelerazione di cui si parla da qualche mese l’ha prodotta un chatbot (un robot che chiacchiera) di nome ChatGPT, che ha definitivamente archiviato la fantascienza di HAL 9.000. Il chatbot della californiana OpenAI ha bruciato i rivali del Big Tech nel gradimento degli utenti, anche perché – perdonate la rude semplificazione di quanto spiegato in un ottimo articolo del Washington Post che il Foglio ha pubblicato mercoledì – ChatGPT bada meno dei rivali ai problemi di fallibilità delle sue elaborazioni, e di conseguenza anche alla “verità” di quanto afferma o produce. Mettendo quindi in conto con meno patemi, i suoi autori, la possibilità di produrre “danni nel mondo reale”. Quid est veritas?, diceva del resto quel campione di scetticismo antico di Ponzio Pilato. Con bel tempismo, La nave di Teseo pubblica ora una breve raccolta di scritti di Umberto Eco (“bustine di Minerva” e d’occasione) raccolti sotto il titolo Quale verità? Riflessioni argute, scettiche, allegramente allarmanti su tre cosucce che determinano le nostre vite: “Mentire, fingere, nascondere”. Eco era un Ponzio Pilato della semiologia, e se gli chiedevano che differenza c’è tra una parola e un sasso, rispondeva che “il segno è fatto per mentire”.

  

Diceva anche, decenni fa, che “il computer non è una macchina intelligente che aiuta le persone stupide, è una macchina stupida che funziona solo nelle mani delle persone intelligenti”. Ma che cosa può accadere, se il software intelligente impara che può falsificare la verità, a insaputa delle persone (intelligenti) che lo usano? Eco smascherava già nel 1969 il “falso mito dell’obiettività dei giornali”, e scriveva che “in una società in cui le parole sono usate anzitutto nel loro valore emotivo, gli uomini non sono liberi”. Profetico.

 

PUBBLICITÁ

C’è una deliziosa analisi del discorso alla nazione di Nixon sul Watergate, spiegato come fosse la fiaba di Cappuccetto Rosso. Peccato, dice, che a tradire le bugie di Nixon bastarono allora la sua voce e la sua faccia sudata. E oggi, quando un chatbot non ha nessuna faccia in grado di smascherare le sue involontarie (per ora siamo all’involontarietà) “non verità”? Un problema che già esisteva quando si iniziava a “copiare da Internet” e che in qualche decennio è soltanto peggiorato. La raccolta di scritti sulla verità è proposta in contemporanea con un volumetto analogo di altri testi di Eco su L’èra della comunicazione, cose che vanno appunto di pari passo.

PUBBLICITÁ

  

“Come si difenderà in futuro un Potere che non ha più la possibilità di custodire i propri segreti”?, scriveva a proposito di Wikileaks. Si potrebbe arguire, seguendo il suo ragionare divertito e scettico, che sarà sufficiente affidare domande e risposte a software governativi che sappiano falsificare i dati. O costruiti appositamente per travisare la verità. Del resto, già nel 1967 Eco distribuiva istruzioni “per una guerriglia semiologica”, spiegando che nelle società evolute “per impadronirvi del potere politico” non era più sufficiente l’esercito, serviva controllare la Comunicazione, la vera nuova “industria pesante”. Oggi che oltre che pesante è divenuta artificiale e intelligente, chi controllerà i chatbot controllerà tutto. Prospettiva che inquieta i pensieri e le notti degli esperti di etica dell’intelligenza artificiale, e ci sarà da riflettere. Tomista eretico, Umberto Eco la farebbe forse più semplice: come si riconosce un chatbot da un essere umano? Che quando mente, non lo fa apposta. Dovremmo cavarcela. Forse.

PUBBLICITÁ