(foto Ap)

L'editoriale del direttore

Il segreto per convivere con ChatGPT? Investire sull'intelligenza naturale

Claudio Cerasa

Non servono divieti, non serve demonizzare l’intelligenza artificiale. Meglio ricordare che è dannosa perché pensa per te, perché si può sostituire alla tua intelligenza, scrive un docente americano. Idee per un ritorno a scuola senza ansie

E’ settembre, si riaprono le scuole, si torna nei licei, si rivedono i professori, si rincontrano gli amici, si spalancano le università e nell’anno scolastico che si apre esiste un tema importante che meriterebbe di essere studiato senza slogan, senza pregiudizi, senza isterismi. E’ un tema che in verità riguarda prima di tutto il mondo degli universitari ma è un tema con il quale presto o tardi tutti gli studenti faranno i conti come sanno bene quei genitori disperati che preferirebbero beccare i propri figli a compulsare siti pornografici piuttosto che beccarli mentre digitano con le manine sul motore di ricerca un indirizzo maledetto: ChatGPT. Il tema avete capito qual è: che fare con l’intelligenza artificiale? Come comportarsi se un figlio, mentre fa i compiti, viene beccato con le mani nella marmellata degli algoritmi? E in che modo le scuole e le università dovrebbero attrezzarsi per governare il fenomeno, per castigare gli imbroglioni e per evitare di allevare allievi somari?

 

Jonathan Zimmerman insegna Storia dell’educazione all’Università della Pennsylvania. E’ autore di un libro di discreto successo, “The Amateur Hour: A History of College Teaching in America”. E in un articolo pubblicato la scorsa settimana sul Washington Post ha raccontato la storia del suo rapporto con l’intelligenza artificiale. Con il nuovo semestre alle porte, racconta Zimmerman, ha ricevuto, come tutti i colleghi docenti, un’e-mail dalla sua università. Obiettivo: incoraggiare a elaborare una “politica” sull’uso dell’intelligenza artificiale nei corsi. L’università ha suggerito che il primo giorno di lezione gli insegnanti avrebbero potuto informare gli studenti sui paletti scelti nell’utilizzo dell’intelligenza artificiale. E d’altronde come potrebbe essere altrimenti? Da mesi, i media di mezzo mondo ripetono ossessivamente che l’intelligenza artificiale è una catastrofe per l’umanità, una specie di nuova pandemia globale. Da mesi, i docenti di mezzo mondo, temendo un forte aumento del plagio e una riduzione dell’apprendimento, hanno presidiato con alterni successi ogni tipo di webinar per capire come colmare le lacune nelle proprie conoscenze sul tema. E da mesi gli operatori universitari hanno dovuto fare i conti con sentimenti diversi: per ogni professore pronto a esaltare le meraviglie dello strumento ce n’è un altro che dice che porterà alla rovina del pianeta.

 

Dunque: che fare? Vietare? Consentire ma con limitazioni? Inventarsi, come ha fatto qualche università americana, sistemi di rilevamento della scrittura, basati sull’intelligenza artificiale, per individuare gli scritti realizzati con ChatGPT? Un sondaggio condotto su 456 docenti universitari nei mesi di marzo e aprile portato avanti da una task force specializzata sul tema ha rivelato, come racconta ancora il Washington Post, che le maggiori preoccupazioni dei professori riguardo all’intelligenza artificiale sono il suo ruolo nel favorire il plagio, l’incapacità di rilevare il testo scritto dall’intelligenza artificiale e la possibilità che avrebbe la tecnologia nell’impedire agli studenti di apprendere come scrivere, come apprendere e come sviluppare capacità di pensiero critico. Istituzioni come Sciences Po, a Parigi, la RV University di Bangalore, in India, hanno bandito ChatGPT, preoccupati che potesse compromettere l’apprendimento e incoraggiare le truffe. Lo stesso hanno fatto l’Università di Hong Kong, l’Imperial College di Londra, le scuole pubbliche di New York, del New Jersey e dell’Oklahoma, il distretto scolastico unificato di Los Angeles e altre scuole in giro per gli Stati Uniti. Nel Wisconsin la Milwaukee Public Schools. Nello stato di Washington la Seattle Public Schools. In Virginia la Loudoun County Public Schools. Nel Maryland la Baltimore County Public Schools. E così via. Il nostro eroe Zimmerman ha scelto una via alternativa. E ha spiegato per filo e per segno la sua sofisticata politica sull’intelligenza artificiale: nessuna. Sì, dice Zimmerman, non ho una politica sull’intelligenza artificiale, non intendo vietare ChatGPT, non intendo porre paletti, non intendo creare software per smascherare gli studenti ma intendo affidarmi alla loro intelligenza. Ovvio, dice ancora, naturalmente dovrai avvisarmi se ti affidi all’intelligenza artificiale per scrivere un articolo, così come sei tenuto a citare qualsiasi altra fonte. Ma la scelta di utilizzare o meno l’intelligenza artificiale dipenderà solo ed esclusivamente da te. Puoi farlo, dice, anche se io spero che tu non lo faccia mai. Non per le ragioni che si sentono dire spesso, perché l’intelligenza artificiale può inventare “fatti” fasulli (anche se può farlo) o perché può generare un testo razzista e odioso. No, la ragione è un’altra. La ragione è che l’intelligenza artificiale è dannosa perché pensa per te. Perché si può sostituire alla tua intelligenza. E io professore voglio che tu sia intelligente. Voglio che tu fissi per ore una pagina o uno schermo vuoto, cercando di decidere come iniziare. Voglio che tu scriva una bozza dopo l’altra e che via via tu sia costretto a sviluppare una versione migliore delle tue idee. E non voglio farti vergognare per aver preso una scorciatoia, voglio che tu sia orgoglioso di ciò che hai realizzato. Le sciocchezze, ha scritto Harry Frankfurt, storico docente dell’Università di Princeton, sono “un nemico della verità più grande di quanto lo siano le bugie”.

 

Se vuoi vivere la tua vita in questo modo, dice ancora il professore, l’intelligenza artificiale fa sicuramente al caso tuo. E se questo è quello che vuoi, lascia che gli algoritmi scrivano i tuoi saggi, risolvano i tuoi problemi, disegnino le tue opere d’arte, compongano le tue poesie. Diventerai il tipo di persona abile nel declamare meme e cliché. Sembrerà che tu sappia di cosa stai parlando anche quando non lo sai. Ma non saprai mai in cosa credi veramente. E non saprai davvero cosa vuol dire trasformarti in un essere umano completamente autonomo, con le tue idee, sentimenti e obiettivi. Far riflettere sui limiti dell’intelligenza artificiale facendo un investimento sull’intelligenza naturale. Nessun dubbio da queste parti. Pochi divieti, molti ragionamenti. Viva il professor Zimmerman.

Di più su questi argomenti:
  • Claudio Cerasa Direttore
  • Nasce a Palermo nel 1982, vive a Roma da parecchio tempo, lavora al Foglio dal 2005 e da gennaio 2015 è direttore. Ha scritto qualche libro (“Le catene della destra” e “Le catene della sinistra”, con Rizzoli, “Io non posso tacere”, con Einaudi, “Tra l’asino e il cane. Conversazione sull’Italia”, con Rizzoli, “La Presa di Roma”, con Rizzoli, e "Ho visto l'uomo nero", con Castelvecchi), è su Twitter. E’ interista, ma soprattutto palermitano. Va pazzo per i Green Day, gli Strokes, i Killers, i tortini al cioccolato e le ostriche ghiacciate. Due figli.