Scopiazzamenti fake

Quanto fa paura l'intelligenza artificiale che dice cose false col tono di chi la sa lunga

Pietro Minto

ChatGPT sa scrivere testi complessi. Saggi universitari e di ricerca: basta premere un bottone per avere qualche migliaio di battute su qualsiasi argomento. E il timore è la disinformazione su larga scala 

Le elezioni statunitensi del 2016 furono caratterizzate dallo scandalo delle fake news su Internet e i social media. Diverse inchieste scoprirono l’operato della Internet research agency, un gruppo di troll russi che curavano campagne online, sostenendo Donald Trump o diffondendo bufale sulle mail di Hillary Clinton. Una di queste “troll farm”, si scoprì in seguito, aveva un budget di circa 1,2 milioni di dollari al mese. Ebbene, tutto questo – e non ce ne vogliano i troll russi o macedoni – rischia di essere superato e reso antiquato dalle intelligenze artificiali.

 

Negli ultimi mesi, sembra che sia cambiato tutto, all’improvviso. Da quando OpenAI ha presentato al pubblico Dall-E e ChatGPT, due servizi che mettono in pratica le potenzialità del modello linguistico GPT-3 (una cosa molto complessa che viene indicata per semplicità con il nome di “IA”, intelligenza artificiale), in molti si sono resi conto di come questa tecnologia cambierà la nostra vita. “It works like magic”, disse Steve Jobs presentando il primo iPhone: funziona “come per magia”. Ed è vero: ChatGPT sembra davvero un oggetto incantato, una scatola nella quale inserire un qualsiasi comando scritto per ottenere paragrafi e paragrafi di testo. In pochi secondi, a prezzo modico (anzi, per ora gratuitamente, ma la pacchia sta per finire).

 

Allo stesso modo, queste IA possono essere consultate per generare una decina di paragrafi su quanto i vaccini facciano male, per esempio. O sul perché prendere l’aspirina possa curare il cancro. E così via. Bufale, mostruosità d’ogni tipo, confezionate ad hoc da sistemi la cui vera funzione è produrre testo credibile. E quindi grammaticalmente corretto, con la sintassi chiara (ChatGPT sembrare preferire gli elenchi puntati) e un tono affidabile. Ma non necessariamente veritieri. Altro che magia, quindi: le IA sbagliano, e tanto, lo ha ammesso anche il capo di OpenAI. Anche quando sbagliano, però, sembrano sapere il fatto loro. L’obiettivo delle aziende del settore, del resto, non è la perfezione ma il “buono abbastanza”, che comunque risulta sufficiente nella maggior parte dei casi. 

 

Anche a scuola, come ha notato lo scorso dicembre Daniel Herman, docente di scuole superiori che in un articolo per l’Atlantic ha messo in guardia il sistema scolastico dalle capacità di generazione di queste IA. Siamo ben oltre il plagio o la scopiazzatura: basta premere un bottone per avere qualche migliaio di battute sulla fotosintesi clorofilliana. In un altro caso, invece, Antony Aumann, docente di Filosofia presso la Northern Michigan University, ha scoperto le potenzialità del mezzo correggendo i saggi dei suoi studenti. Uno di questi scritti, “il migliore della classe”, spiccava tra tutti gli altri, per quanto era illuminante e profondo. Parlandone con l’autore, ha scoperto che il giovane aveva usato ChatGPT per scriverlo, spingendo Aumann a rivedere del tutto le prove scritte (che ora verranno fatte al computer usando browser con forti restrizioni, in cui non sarà possibile usare le IA). Nel frattempo, Microsoft si prepara a investire dieci miliardi di dollari in OpenAI e pare stia già lavorando per integrare il servizio a Microsoft Word, aggiungendo il bottone magico a uno dei più diffusi editor di testi del mondo. 

 

Come hanno scritto Nathan Sanders e Bruce Schneier sul New York Times, sistemi simili verranno utilizzati per disinformare e fare pressione politica su larga scala a costo pressoché nullo. I due immaginano una campagna di influenza politica fatta da un’IA in grado di “identificare i punti deboli di un sistema legislativo e sfruttarli spietatamente attraverso le comunicazioni dirette, le campagne di relazioni pubbliche”, inondando le istituzioni di lettere di protesta, per esempio. “Quando sono gli umani a farlo – concludono – lo chiamiamo lobbying”. E quando a farlo è una singola persona dotata della giusta intelligenza artificiale? Non abbiamo ancora parole per un mondo simile ma le dovremo trovare.

Di più su questi argomenti: