Leon Neal / Getty Images

L'editoriale del direttore

Perché non bisogna avere paura di ChatGPT. Un esperimento (il nostro!)

Claudio Cerasa

L’intelligenza artificiale produrrà “effetti catastrofici”, come dice Musk? Chissà. La convivenza con i giornali, intanto, ci dice l’opposto e dimostra che l’AI è un super stress test per chi fa informazione. E che può fare bene, a due condizioni

È possibile che le preoccupazioni manifestate da Elon Musk sullo stato dell’intelligenza artificiale abbiano un fondo di realtà ed è possibile che l’appello con cui il ceo di Tesla ha invitato gli ingegneri di tutto il mondo a mettere in pausa per almeno sei mesi lo sviluppo di ChatGPT, per evitare “effetti potenzialmente catastrofici sulla società”, possa contenere un fondo di verità ed è difficile dare torto a Musk quando dice che “potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”. Ciò che però ci sentiamo di poter affermare senza troppe remore, rispetto allo sviluppo poderoso di ChatGPT, è che l’intelligenza artificiale, applicata al giornalismo, non produce alcun effetto potenzialmente catastrofico e in alcuni casi, come proveremo a dimostrarvi, è in grado di produrre persino effetti positivi, con rischi perfettamente gestibili. Nel caso in cui, dunque, Elon Musk fosse interessato ad approfondire la storia di un giornale deciso a sperimentare con dedizione l’intelligenza artificiale sulle sue pagine ci permettiamo, senza conflitti di interesse, di suggerirgli un modello  interessante da studiare: il nostro, naturalmente! Un mese fa, come sapete, il Foglio ha scelto di condurre un esperimento decisamente spericolato: inserire ogni giorno nelle pagine del nostro quotidiano un testo scritto con ChatGPT e premiare alla fine di ogni settimana con un abbonamento al Foglio e una bottiglia di champagne due lettori estratti a sorte fra tutti quelli in grado di individuare ogni giorno il testo scritto con l’intelligenza artificiale. Pensavamo, inizialmente, che fosse un esperimento per testare i limiti e le potenzialità dell’intelligenza artificiale, e così in parte è stato, ma ci siamo resi conto che alla fine il test in questione era tarato più sulla qualità giornalistica dei cervelli naturali, cioè i nostri, che sulla qualità giornalistica dei cervelli artificiali, cioè quelli finanziati da Musk & co.

 

Il nostro rapporto con ChatGPT è cominciato, in modo freddo, un pomeriggio di marzo, il 7, quando abbiamo chiesto a ChatGPT di elaborare il suo primo articolo per noi, contro l’iniziativa del Foglio di affidare ogni giorno a ChatGPT un testo artificiale da inserire con intelligenza tra le pagine del nostro giornale. Le nostre regole di ingaggio: dare un’indicazione non più lunga di 400 battute per spiegare a ChatGPT che taglio dare al testo da noi commissionato e limitarci poi, nel passaggio del testo, a correggere eventuali verbi sbagliati e a eliminare alcune espressioni temporali molto ricorrenti all’interno dei contenuti scritti con ChatGPT (“in primo luogo”, “in secondo luogo”, “in conclusione”).  I lettori hanno risposto in modo divertito al nostro concorso. Hanno approfittato del canale con il giornale per dialogare sul tema. Hanno segnalato con ironia, per manifestare dissenso da alcune nostre idee, articoli scritti da noi come articoli scritti dall’intelligenza artificiale. Hanno confuso con l’intelligenza artificiale, facendoci riflettere, alcuni articoli scritti con intelligenza umana, ma pochi per fortuna. E in definitiva i lettori ci hanno aiutato a capire un paio di cose interessanti relative all’interazione tra uomo e macchina, quando si parla di informazione. Le lezioni, a voler essere sintetici, sono almeno tre.

 

Prima lezione: la presenza dell’intelligenza artificiale è una forma di concorrenza reale che esiste all’interno del mondo dei giornali ma è una presenza che più che essere demonizzata deve necessariamente spingere chi scrive e chi fa i giornali a fare quello che l’intelligenza artificiale non sarà mai in grado di fare: avere idee originali, avere notizie proprie, avere contenuti di qualità, avere tagli unici per leggere quello che succede nel mondo. Se un testo di giornale prodotto dall’intelligenza artificiale è davvero competitivo con un testo prodotto dall’intelligenza umana significa che l’intelligenza naturale di chi fa un articolo o di chi fa un giornale non ha fatto tutto il possibile per produrre un contenuto non replicabile.

 

La seconda lezione è relativa a quelle che sono le potenzialità dell’intelligenza artificiale nel nostro mestiere: esistono, effettivamente, articoli che in alcune testate potrebbero essere fatti tranquillamente con l’intelligenza artificiale, quegli articoli per esempio scritti velocemente con alcune agenzie selezionate, e in teoria esiste la possibilità di produrre un articolo anche di qualità dopo aver chiesto a ChatGPT di buttare giù una prima bozza, salvo poi rivederla con intelligenza non artificiale. La terza lezione è relativa a un ragionamento che deriva non dall’esperienza del nostro esperimento ma da un’evoluzione dell’intelligenza artificiale applicata al mondo dell’informazione con cui tutti voi avrete fatto i conti negli ultimi giorni: le fotografie di Donald Trump (falsamente arrestato) e di Papa Francesco (con piumino pregiato) prodotte con l’intelligenza artificiale ma divenute ugualmente elemento di dibattito tra alcune non sofisticatissime intelligenze naturali. E la lezione che si può trarre da quelle foto è semplice: in un’èra in cui l’intelligenza artificiale può facilmente creare un falso che sembra vero, è compito di un’intelligenza non artificiale sfidare l’intelligenza artificiale, facendo di tutto per non avere paura della concorrenza e rendendosi conto che più l’intelligenza artificiale prenderà piede più aumenterà da parte dei lettori il desiderio di avere testate giornalistiche di cui fidarsi, in grado di avere non solo idee originali, notizie proprie, contenuti di qualità, tagli unici per leggere quello che succede nel mondo, ma anche il coraggio di dimostrare che un fatto per essere reale non ha bisogno solo di essere virale. Signor Musk, per qualsiasi cosa siamo qui. Viva ChatGPT.

Di più su questi argomenti:
  • Claudio Cerasa Direttore
  • Nasce a Palermo nel 1982, vive a Roma da parecchio tempo, lavora al Foglio dal 2005 e da gennaio 2015 è direttore. Ha scritto qualche libro (“Le catene della destra” e “Le catene della sinistra”, con Rizzoli, “Io non posso tacere”, con Einaudi, “Tra l’asino e il cane. Conversazione sull’Italia”, con Rizzoli, “La Presa di Roma”, con Rizzoli, e "Ho visto l'uomo nero", con Castelvecchi), è su Twitter. E’ interista, ma soprattutto palermitano. Va pazzo per i Green Day, gli Strokes, i Killers, i tortini al cioccolato e le ostriche ghiacciate. Due figli.