(foto Ap)

la riflessione

Non dobbiamo avere paura di ChatGPT, tanto non funziona

Lucetta Scaraffia

Perché temere di perdere posti di lavoro con l'intelligenza artificiale, se il software non è nemmeno in grado di raccogliere informazioni veritiere?

Non dobbiamo avere davvero nessuna paura di ChatGPT. Ma non già per motivi nobili, tipo  perché dobbiamo accettare con fiducia la modernità e non guardarla con sospetto come vecchi barbogi, quali probabilmente siamo. Bensì per un semplicissimo motivo: e cioè che ChatGPT non funziona, spesso (non voglio dire sempre) sbrocca e racconta balle. E dunque, prima che l’intelligenza artificiale rubi posti di lavoro agli esseri umani, prima che i preti la usino per preparare le omelie come ha suggerito un entusiasta della modernità come l’arcivescovo di Milano, Delpini, prima che gli studenti se ne possano servire per prendere ottimi voti nei compiti in classe, sono convinta che passerà ancora molto tempo. Per capirlo basta poco.

 

Io ho provato, ad esempio, a chiedere alla nuova meraviglia della tecnica notizie biografiche su alcune persone di qualche notorietà nel mondo intellettuale, e ho ottenuto risposte veramente imbarazzanti. Non solo luogo e anno di nascita in genere sono risultati sbagliati, e addirittura qualcuno ancora vivo e in buona salute si è visto dato per morto già da qualche anno “nel cordoglio generale”, ma anche i rispettivi settori di interesse, le università o i giornali dove avrebbe lavorato non erano quelli giusti: ai suddetti sono stati attribuiti elenchi di pubblicazioni inesistenti oppure opera di altri autori.

 

Quello che colpisce però, oltre il sussiego che traspare da queste biografie e alla sicurezza con la quale Lui, il Superintelligente risponde, è la verosimiglianza di queste biografie inventate. Sono sì false, piene di particolari non corrispondenti alla realtà,  ma al tempo stesso potrebbero essere vere. Quindi ancora più inquietanti, direi, e  forse anche pericolose, perché qualcuno potrebbe crederci. Bisogna aggiungere però che se  rispondi al cervellone dicendogli  che ha sbagliato, lui lo ammette subito, chiede scusa, e ti invita a  mandargli tu altre informazioni per assolvere meglio il suo compito. Chiede aiuto, in sostanza, perché ammette che il suo materiale di riferimento non è sufficiente. Ovviamente, lo sappiamo tutti, ChatGPT si ciba di fonti presenti in rete, ma ciò che non è chiaro è quale tipo di selezione operi . Non sarebbe sufficiente ad esempio che si collegasse a Wikipedia per avere dati più corretti? Almeno Wikipedia per ora è ancora compilata da esseri umani.

 

Ma non lo fa, a quel che sembra, e dunque  non si capisce da dove mai tiri fuori queste biografie immaginarie ma pur verosimili. Penso a questo proposito a ciò che potrebbe accadere a quando ad esempio le omelie faranno riferimento a parabole che Gesù non ha mai pronunciato, ma verosimili. A quando davanti ad un quesito legale citerà nei particolari una legge inesistente ma che forse dovrebbe esserci. E’ già successo, mi dicono. Preoccupa soprattutto pensare agli studenti che devotamente si rivolgeranno a lui per fare dei compiti e si ritroveranno con una bella insufficienza  Forse capiterà che questo mondo verosimile verrà confuso con quello vero, o meglio si sovrapporrà a quello vero, tanto – come diceva Foucault -  la definizione è già interpretazione, e interpretazione che serve al potere. In questo caso, invece, serve a Lui: non sappiamo per farsene che cosa.

Di più su questi argomenti: