AP Photo / Timothy D. Easley

Istruzione e IA

Cari prof, più intelligenza. Un girotondo a risposta multipla sul “mostro” ChatGPT

Vietare, assecondare, arrendersi, governare, forse imparare… Che fare con la tecnologia a scuola e all’università? E come prenderla: come una piccola truffa (il solito copia & incolla) o come un’opportunità per l'apprendimento?

L’introduzione dell’intelligenza artificiale e di strumenti quali ChatGPT nella scuola potrebbe essere produttiva. Non occorre demonizzare a priori l’intelligenza artificiale ma, al contrario, bisogna valutarne le potenziali applicazioni in ambito scolastico. D’altronde se la scuola vuole evolvere, proiettarsi nel domani e andare oltre alla mera didattica frontale deve cercare di cogliere proprio queste opportunità. L’intelligenza artificiale ha il potenziale per rivoluzionare la società e di conseguenza la scuola. Può essere impiegata per aiutare gli insegnanti a personalizzare l’apprendimento, ad adattare i contenuti in base alle attitudini individuali degli studenti, a monitorare i loro progressi e a fornire informazioni su come migliorare il loro rendimento. Se introdotta nelle scuole, all’interno di un protocollo di regole, l’intelligenza artificiale può offrire alcuni vantaggi oggettivi e stimolanti e può consentire agli studenti di ottenere un riscontro rapido e personalizzato sul lavoro svolto, in modo da aiutarli a concentrarsi sui loro punti di forza e a raggiungere i propri obiettivi educativi. Sono, in ogni caso, convinto che l’intelligenza artificiale sia uno strumento che va governato e non meramente subìto. Da questo punto di vista, il ruolo dell’insegnante come guida è fondamentale e insostituibile. L’equivoco da cui tenersi alla larga è immaginare che l’intelligenza artificiale possa arrivare a sostituire l’interazione umana. L’educazione richiede infatti un dialogo diretto, presuppone la sua umanizzazione, proprio perché si incentra sulla persona. L’educazione è anzitutto maieutica e la maieutica è una pratica essenzialmente umana. L’intelligenza artificiale non può dunque soppiantare l’insegnante né marginalizzarne il ruolo che è decisivo in tutti i gradi di scuola. Tutto questo, dal mio punto di vista, può essere molto utile, dal momento che la personalizzazione della didattica è una delle direttrici fondamentali su cui ho voluto da subito impostare la mia azione riformatrice. La missione è fornire un’esperienza di apprendimento sicura, efficace, rispettosa delle norme, stimolante e interattiva per gli studenti, evitando che questi diventino troppo dipendenti dalla tecnologia e sviluppino meno le loro fondamentali abilità creative. E’ quindi necessaria un’educazione digitale per i nostri studenti che comprenda l’uso responsabile e sicuro della tecnologia e l’apprendimento delle principali competenze digitali, come la programmazione e l’analisi dei dati. Ciò, a sua volta, presuppone ovviamente un’adeguata formazione dei docenti. 
Giuseppe Valditara
ministro dell’Istruzione e del Merito


 

La vita finta, triste e comodissima

Una volta c’era il compagno di classe buono e secchione che passava i compiti a tutti, per pura generosità o per una sigaretta a ricreazione. Lui scriveva, noi copiavamo serenamente, cercando di cambiare qualche parola, magari anche di sbagliare un verbo per scongiurare il rischio di essere sgamati dal professore. Più avanti, all’università, ho conosciuto studenti fuori sede che si mantenevano facendo i ghost writer per le tesi di laurea: lo sfaticato pagava e il laborioso andava in biblioteca e scriveva, il fannullone consegnava e il volenteroso incassava. Insomma, c’è sempre stato qualcuno che risolveva i problemi a chi aveva poca voglia di studiare. Con internet le cose si sono ulteriormente semplificate: qualsiasi versione di latino o di greco, qualsiasi problema di matematica o di fisica sono già pronti in rete. Basta scrivere il titolo dell’esercizio, la pagina del libro, e magicamente appare la soluzione. Ci sono anche tutte le tesine possibili e immaginabili su qualunque argomento, basta premere un tasto e il gioco è fatto. Ricordo uno studente che all’esame di maturità aveva presentato una bellissima ricerca su Cesare Pavese: “Bravo, davvero un bel lavoro, ma qual è il libro di Pavese che più ti è piaciuto tra quelli che hai letto?” e lo studente mi guardava stupito, perché non aveva letto assolutamente nulla, in fondo non era necessario. E adesso siamo arrivati alla ChatGPT, una funzione dell’intelligenza artificiale in grado di generare in un linguaggio abbastanza coerente e naturale qualsiasi tipo di testo. Tu chiedi e ChatGPT risponde, pescando dal mare magno di internet tutte le informazioni e organizzandole perfettamente. Può produrre tesi e riassunti, traduzioni e approfondimenti, può persino analizzare i sentimenti di un testo, se sono positivi, negativi o neutri. E’ la lampada di Aladino, capace di esaudire qualsiasi desiderio degli studenti. All’Università di Firenze qualche professore più attento degli altri si è accorto che certi studenti abbastanza scarsi di colpo consegnavano tesi perfette, ricche di informazioni e scritte in un italiano fluente, hanno sentito puzza di bruciato e hanno scoperto il trucco. Ma ormai la porta è aperta e i buoi sono fuggiti. Certo, ora si stanno approntando software in grado di riconoscere se un testo è genuino o artefatto, ma nell’eterna lotta tra guardie e ladri, il ladro è sempre un passo avanti. Indietro non si torna, l’intelligenza artificiale ha già sconfitto anni fa Kasparov in una partita a scacchi e adesso sconfiggerà ogni professore che spera ancora di trasmettere la sua cultura agli allievi. E’ già tutto pronto, perché ammazzarsi di fatica per mettere insieme cento pagine su Federico Barbarossa o sulla letteratura giapponese del Novecento? Chiedi e ti sarà dato, bussa e ti sarà aperto, sollecita la ChatGPT e tutto ti sarà regalato. La vita vera è faticosa, la vita finta è già qui, triste e comodissima.
Marco Lodoli


 

Una trasformazione radicale

La diffusione di alcune applicazioni di intelligenza artificiale, su tutte ChatGPT e Midjourney, pongono, una volta per tutte, il tema della trasformazione radicale come contenuto dell’innovazione. Un software come ChatGPT non si limita a offrire una scorciatoia a laureandi fanfaroni, bensì cambia alla radice i processi della scrittura. E’ questo il tema con cui è oggi necessario confrontarci. Lo si deve fare partendo da una costatazione: modificare le condizioni della scrittura significa ammettere la possibilità di una trasformazione radicale delle forme del sapere. Discutere, anche criticamente, di tesi di laurea scritte dall’intelligenza artificiale può essere una buona occasione per inquadrare la portata della trasformazione in atto, giacché l’elaborato finale che il laureando porta in commissione di laurea, aldilà delle sue qualità intrinseche, è uno dei simboli emblematici dell’accademia come sistema di produzione, diffusione e conservazione dei saperi. Tale sistema si è fondato per secoli, e si fonda tutt’ora, sulla scrittura. Ancora oggi una gamma ristretta di “cose” scritte è il pilastro su cui poggiano esperienze complesse e variegate come quelle della formazione, dello studio, della ricerca e della vita intellettuale. E’ dunque plausibile ammettere che la distruption, più volte evocata nell’ultimo trentennio, sia giunta a noi con tutta la sua potenza. Vietare queste applicazioni in ambito accademico come molte università stanno facendo, o peggio ancora ripiegare l’analisi dell’impatto di ChatGPT solo sul piano etico, non ci porterà lontano e di sicuro non aiuterà a comprendere in maniera profonda il senso di ciò che stiamo vivendo. Per provare a capirci qualcosa può essere utile riprendere in mano il libricino Come si fa una tesi di laurea di Umberto Eco, pubblicato da Bompiani nel 1977. E’ particolarmente istruttivo leggere oggi l’introduzione di questo breve scritto in cui il grande semiologo chiarisce da quale motivo discenda l’esigenza di quel volume: il passaggio dall’università d’élite a quella di massa. Quando gli atenei cominciarono a riempirsi di studenti di diversa estrazione e provenienza si pose il problema delle lacune, teoriche e pratiche, con cui essi affrontavano l’esperienza universitaria. Tra queste, non saper scrivere in maniera corretta, appariva a Eco come una mancanza, giustamente, da colmare. Così egli pensò intelligentemente che un compendio di consigli puntuali sul “come fare una tesi” potesse essere di grande aiuto per migliaia di studenti. E così è stato. Oggi che il passaggio d’epoca è trainato dalla trasformazione delle forme e dei processi della scrittura, dovremmo ripercorrere il testo di Eco procedendo in maniera inversa, ossia domandandoci quale sia la società che corrisponde a questo nuovo modello di scrittura.
Federico Tarquini
Università degli Studi Niccolò Cusano


 

Aiuterà a sbloccare la creatività degli studenti

Negli ultimi tempi, le scuole si sono giustamente molto preoccupate dell’impatto dei chatbot di intelligenza artificiale (AI), in particolare ChatGPT, sviluppato da OpenAI, sugli studenti. ChatGPT, lo sapete, è in grado di scrivere saggi, risolvere problemi scientifici e matematici e produrre codici per far funzionare i computer. Molti studenti, in questi mesi, sono stati sorpresi a utilizzare ChatGPT per imbrogliare, per truccare i compiti, il che ha causato preoccupazione tra noi educatori. Alcune scuole hanno risposto bloccando l’accesso ChatGPT ai computer e alle reti della scuola. Tuttavia, il blocco dell’accesso non è una soluzione affidabile, poiché gli studenti possono comunque accedere all’app tramite altri dispositivi e il blocco potrebbe non impedire agli studenti di trovare programmi di intelligenza artificiale alternativi. Bandire ChatGPT dalla classe non è quindi una soluzione sostenibile. Invece, gli educatori dovrebbero prendere in considerazione l’adozione di ChatGPT come aiuto didattico, come abbiamo iniziato a fare nella nostra università, consentendogli alcuni compiti e modificando i propri programmi, le proprie lezioni, per tenere a bada gli imbroglioni. ChatGPT può essere uno strumento didattico efficace, in grado di generare piani di lezione personalizzati per gli studenti, scrivere attività in classe e fungere da tutor o partner di dibattito. I difetti di ChatGPT, come fornire risposte errate, possono anche essere utili per insegnare a fare i conti con alcuni esercizi di pensiero critico. Inoltre, ChatGPT può far risparmiare tempo agli insegnanti che si preparano per la lezione generando quiz e fungendo da punto di partenza per gli esercizi in classe. In questo modo, gli studenti si diplomeranno in un mondo pieno di programmi di intelligenza artificiale generativa e dovranno conoscere questi strumenti per lavorare al loro fianco. Gli insegnanti hanno un ruolo fondamentale da svolgere nel guidare gli studenti in questo strano nuovo mondo fornendo un’esperienza pratica con gli strumenti di intelligenza artificiale, i loro punti di forza e di debolezza, i pregiudizi e come possono essere utilizzati in modo improprio o armati. Bandire ChatGPT dalla classe non è una soluzione affidabile. Gli educatori dovrebbero abbracciarlo con attenzione come aiuto didattico per sbloccare la creatività degli studenti, offrire tutoraggio personalizzato e preparare meglio gli studenti a lavorare insieme ai sistemi di intelligenza artificiale da adulti. Noi ci stiamo provando.
Joseph Carragher
University of New York

(Questo intervento è stato scritto con ChatGpt e fa parte della colonna di testi del Foglio scritti con questa tecnologia nell’ambito di questo concorso)


 

Uno sprone per affinare gli attributi dell’umano

In Cibernetica e fantasmi pubblicato nel 1967, Italo Calvino si interrogava sulle caratteristiche di una macchina che scrivesse romanzi. Ispirato da un’idea di letteratura quale ars combinatoria di Ramon Llull e di Raymond Queneau, Calvino scriveva di non essere interessato a “…una macchina capace solo di una produzione letteraria diciamo così di serie…”, ma a “una macchina scrivente che metta in gioco sulla pagina tutti quegli elementi che siamo soliti considerare i più gelosi attributi dell’intimità psicologica, dell’esperienza vissuta, dell’imprevedibilità degli scatti di umore, i sussulti e gli strazi e le illuminazioni interiori”. Seguendo Calvino: quali sono gli “attributi gelosi dell’umano” alla luce della repentina e pervasiva diffusione di ChatGPT? ChatGPT offre risposte a innumerevoli domande. Sarà quindi sempre più importante imparare a saper formulare domande? Se sì, quali sono i modelli educativi da adottare? Qual è il ruolo dei docenti in un modello educativo che dovrebbe porre studenti/esse al centro? L’avvento di ChatGPT può essere lo sprone per ripensare la formazione per affinare gli attributi gelosi dell’umano. Formare prevede due momenti: instruere nel senso di suggerire – e non imporre – segni, simboli, chiavi interpretative della realtà, accendere il fuoco per l’apprendimento ed educere nel senso di tirare fuori, condurre verso. Il docente guida i processi di apprendimento di studenti/esse che oltre a imparare linguaggi e contenuti “umani”, imparano anche il linguaggio di interazione con e di interrogazione alle macchine per saperle governare e non respingere. Un modello educativo fondato sull’apprendimento investigativo, che in Luiss abbiamo chiamato enquiry-based, richiede sistemi di valutazione non ancorati sulle risposte corrette a problemi con una soluzione prestabilita e quindi calibrati sul pensiero convergente – questo lo fa molto bene ChaptGPT – ma calibrati sul pensiero divergente. Quest’ultimo è un importante precursore del lavoro creativo poiché procede attraverso il riconoscimento di schemi profondi e connessioni sorprendenti o ispirate tra elementi distinti e distanti che possono sembrare stravaganti. Continueremo così a manutenere i gelosi attributi umani fino a quando un’altra profezia di Calvino si avvererà e/o noi non saremo in grado ripensare nuovamente la formazione. “La vera macchina letteraria sarà quella che sentirà essa stessa il bisogno di produrre disordine ma come reazione a una sua precedente produzione di ordine, la machina che produrrà avanguardia per sbloccare i propri circuiti intasati da una troppa lunga produzione di classicismo… nulla ci vieta di prevedere una macchina letteraria che a un certo punto senta l’insoddisfazione del proprio tradizionalismo e si metta a proporre nuovi modi d’intendere la scrittura, e a sconvolgere completamente i propri codici”.

Andrea Prencipe
rettore Luiss Guido Carli


 

Quattro cose da fare dopo la resa

L’altro giorno è girato in rete un video con una penna manovrata da una stampante 3D e la scritta “3D Printer does homework ChatGPT wrote”, cioè più o meno “Una stampante 3D scrive (materialmente, con la penna) i compiti dettati da ChatGPT”. Risparmiarsi la fatica di scrivere – uno dice – perché no? E’ una fatica del corpo, non è male che la faccia la macchina. Ma far creare a una macchina un testo e firmarlo noi – non è, oltre che una scorrettezza, un’abdicazione, una rinuncia all’esercizio dell’intelligenza nonché, per chi insegna a scuola o all’università, il segnale che tutto è finito e si chiude baracca? Naturalmente è sempre saggio essere pessimisti, ma in questo caso, a parte qualche difficoltà evidente (quanti testi ancora più banali degli attuali dovremo leggere in rete o sulla carta? Quanti “creativi” perderanno il lavoro? Chi avrà più il coraggio di assegnare un riassunto come compito a casa?), può persino darsi che ChatGPT e i suoi simili (c’è già pieno di app che promettono di essere “better than ChatGPT”) aiutino a rendere l’insegnamento della scrittura e delle materie umanistiche un po’ meno irrazionale. Per la mia esperienza, agli studenti non dispiace scrivere. Soprattutto, non gli dispiace scrivere insieme, con un insegnante che per esempio gli mostri come una frase mal congegnata o un periodo zoppicante possano essere trasformati in una frase e in un periodo non solo corretti ma eleganti. Vale un po’ quello che vale per la lettura: soprattutto quando si è più piccoli, si apre un libro più volentieri se qualcun altro lo apre insieme a noi, se lo legge con noi. Non essere lasciati lì da soli, con la pagina bianca o la pagina scritta davanti a noi, è forse questo il primo requisito per diventare lettori e/o scrittori (o meglio, senza esagerare: scriventi). Ciò che mi pare allontani gli studenti dalla scrittura (come dalla lettura, dallo studio in generale) è da un lato l’obbligo, dall’altro la valutazione. Nessuno è contento di spendere un paio d’ore del suo tempo cercando di mettere insieme due o tre pagine su un argomento del quale ignora tutto (Petrarca, la storia d’Italia, la Costituzione), adoperando un linguaggio lontanissimo dal linguaggio che spontaneamente parla e che spontaneamente metterebbe per iscritto. Lo si fa, a scuola, ci si assoggetta a questa tortura non per imparare qualcosa su Petrarca o la storia d’Italia o la Costituzione, o per imparare a scrivere, ma solo perché qualcuno darà un voto a quel penoso esercizio. Se lo studente troverà il modo di aggirare l’ostacolo, cioè di evitare la corvée del tema o della ricerca o del riassunto, lo farà. Lo si faceva prima di internet (chi poteva), facendosi aiutare da un ripetitore; lo si faceva fino all’altro giorno scopiazzando testi dalla rete; lo si fa ora con ChatGPT. Che fare, dunque? Come regolarsi con queste ultime diavolerie, queste lastre tombali che la téchne sta per deporre sul tema, la tesina, la relazione? La resistenza è futile: arrendiamoci. E, dopo la resa, (1) scriviamo un po’ di più insieme, in classe, facendo vedere agli studenti come si fa (naturalmente bisogna sapere come si fa, e qui non sono tanto ottimista); (2) smettiamo di chiedere agli studenti di improvvisarsi consumati saggisti e di fingersi esperti di cose che ignorano; chiediamogli invece di parlare, di scrivere di cose che conoscono e che gli stanno a cuore (“Dite perché odiate vostro padre, perché odiate la scuola, perché odiate me”, era il tipo di tema che secondo Paul Goodman bisognerebbe assegnare agli studenti, e credo che avesse una buona parte di ragione); (3) cominciamo a ragionare sulla possibilità di farla finita coi voti, specie con quelli assegnati per i “compiti a casa”; (4) cominciamo a ragionare sulla possibilità di farla finita con i “compiti a casa”. (Lo so: insegno all’università, parlare è facile). 
Claudio Giunta
Università di Trento


 

Sa tutto: è un ottimo strumento di discernimento

Gli studenti italiani sono vecchi dentro e restii alle innovazioni, quindi usano ChatGPT solo per il (loro) mestiere più antico del mondo: copiare. Del resto possono fare poco altro, in una scuola che li valuta soprattutto sulla quantità di nozioni che sono in grado di sciorinare; in tal caso ChatGPT risulta l’ennesimo ritrovato in soccorso alle défaillance della memoria (come un tempo le anfetamine) o alle pretese della pigrizia (ognuno usa la tecnologia che ha: trent’anni fa, passammo non so come una versione di latino usando ricetrasmittenti). Da qualche tempo invale tuttavia una formula, ormai svuotata dalla retorica, che però potrebbe tornare utilissima per cavalcare l’intelligenza artificiale anziché rimpiangere i bei tempi del calamaio: la didattica per competenze. Una didattica incentrata non sul sapere contenuti, non sul saper dimostrare abilità, ma sul “saper essere”, secondo la classica definizione data da David McClelland nel 1973. ChatGPT è la sfida più entusiasmante che la didattica per competenze potesse augurarsi. Un’intelligenza artificiale che sa tutto, ma in modo approssimativo e ingenuo, sembra fatta apposta come strumento di apprendimento e di discernimento. Con ChatGPT, a scuola, si può essere felici. Lo si può utilizzare come giochino didattico base, un oracolo da interrogare a mo’ di versione sofisticata del Sapientino, con la supervisione di un adulto che integri e corregga. Così si trasmettono conoscenze. Dopo di che, ChatGPT bisogna saperlo usare, nel senso di insegnare agli studenti non solo ad accedervi e sperimentare che tipo di domande sia più efficace; ma anche a sbizzarrirsi, magari chiedendo di scrivere un sonetto sul secondo principio della termodinamica o la cronaca della pace di Westfalia come un servizio del Tg. Così si trasmettono abilità. A quel punto, si può lavorare sulle competenze, ossia sulla consapevolezza intellettuale degli alunni. Posti di fronte all’intelligenza artificiale, li si può invitare a individuare cosa renda macchinosi i testi di ChatGPT e come si possa migliorarli; o al crudelissimo esercizio di tartassare ChatGPT di domande sempre più insidiose su un argomento fino a che, inevitabilmente, non sbaglia e implora pietà. Così i ragazzi imparano che l’intelligenza umana è comunque superiore a quella artificiale, perché la prima può usare la mole di dati della seconda ma la seconda non può usare la sottigliezza della prima. Imparano anche la soddisfazione di saperne una più del diavolo; e che quando si copia è meglio non fidarsi del tutto.
Antonio Gurrado
Università degli studi di Pavia


 

Per non svuotare la relazione docente/alunno

Non siamo timidi: la questione lambisce addirittura il paese della metafisica. Gli studenti consegnano ai professori testi che i professori non sanno più se siano farina del loro sacco, o farina del mulino di ChatGPT? Allora delle due l’una: o i testi sono realmente indistinguibili, o non lo sono. Nel primo caso, e posto che si vogliano ancora distinguere gli studenti dagli algoritmi a loro disposizione, ci vogliono contromisure del tipo vietare questo e regolamentare quello. Più sorveglianza, più controlli, e niente dispositivi per le mani. Sono questioni di disciplinamento della didattica, tutt’al più, roba per dirigenti scolastici. Se invece i testi sono distinguibili, allora è affare dei docenti: ci pensino loro, facciano il loro mestiere, e risolvano loro il problema che angustiava già Wittgenstein (quando l’intelligenza artificiale era ancora speculazione, più che programma di ricerca): il maestro assegna 100 addizioni e l’alunno ne risolve correttamente 85, dirà il maestro che ha imparato la regola dell’addizione? Poniamo dica no e che gliene sottoponga altre 100, e poniamo pure che l’alunno ne risolva allora 90, o 95: in realtà, non c’è modo di tirare la linea superata la quale si può esser certi che la regola è appresa, neppure se l’alunno risolvesse tutte e 100 le addizioni (potrebbe aver copiato; potrebbe sbagliare la 101esima e chissà quante ancora; potrebbe persino avere appreso una qualche regola fantastica che funziona solo per il tipo di calcoli su cui si è finora esercitato, e non su altri). Di fronte a una eventualità simile, il maestro ha ancora un’alternativa: o si rifugia nella metafisica, e attribuisce a un quid misterioso che lo studente abbia in zucca la differenza tra il capire e il non capire (e così anche tra la testa dell’alunno che capisce, e qualunque altra entità che non capisce, e non ha neppure bisogno di capire, per eseguire), oppure cerca non “dentro” la testa, ma tutt’attorno. E siamo al punto. Attorno ci sono infatti: gli altri studenti, il modo di stare in classe, le conversazioni informali con i loro argomenti vari e diversi, gli incontri scuola famiglia, i consigli di classe, e un mucchio di altre cose che forniscono mille e una chiave di comprensione dei testi presentati da quell’alunno. Tutto quello, insomma, che rende viva e vivente (e pure sensata) non solo la relazione fra il docente e l’alunno, ma qualunque relazione fra esseri umani (a volte anche fra esseri umani e altri animali), ma che al momento non si trova nei rapporti con ChatGPT. La differenza è dunque tracciata: grazie alla presenza e grazie al contesto. Più ricchi sono presenza e contesto, meno c’è da temere che si svuoti la relazione docente/alunno. Chiarito questo, come sono entrati in classe penna e quaderno, libro e calcolatrice, smartphone e lavagne interattive, così può entrarci pure ChatGPT. Per essere usato in molti modi: come strumento di analisi e di comparazione, come archivio di informazioni e palestra per esercitazioni, e magari pure come strumento di valutazione della ricchezza e vitalità del rapporto che il docente avrà saputo stabilire col suo alunno. (E quanto alla metafisica, sarà per la prossima volta).
Massimo Adinolfi
Università di Napoli Federico II


 

Valutare le domande, non le risposte della macchina

Chi siamo noi docenti per impedire l’utilizzo di una macchina intelligente in grado di rispondere a una nostra domanda consultando l’intero contenuto del web e componendo, in pochi secondi, un testo attraverso l’impiego simultaneo di miliardi di combinazioni grazie a reti neurali installate in super-computer? Sistemi come questi cambieranno il mondo e il modo in cui gli umani impiegano le proprie capacità intellettive. Ai nostri studenti non dovremmo impedirne l’uso, ma dovremmo aiutarli a comprenderli e a guidarne un utilizzo etico volto a migliorare il mondo e a rafforzare le capacità umane. Questo dovrebbe essere uno dei compiti principali delle università, nel prossimo futuro, attraverso attività di ricerca e didattica. Nella ricerca, ad esempio, un mio collega studia come evitare che gli algoritmi di intelligenza artificiale che interpretano il linguaggio naturale possano portare a risultati contrari a principi di diversità e inclusione. Il nuovo master in Artificial Intelligence appena varato dal mio ateneo includerà i più recenti sviluppi della ricerca nel campo dell’etica dell’intelligenza artificiale. Anche nelle attività didattiche le opzioni sono numerose e affascinanti. In uno dei miei corsi chiedo agli studenti di utilizzare ChatGPT per ricercare e riassumere definizioni di concetti per loro nuovi e complessi, o di individuarne dimensioni nuove e inesplorate. Chiedo poi loro di giungere a una sintesi dei risultati così generati e li valuto sulla differenza tra la loro capacità di sintesi e i testi “artificiali”. Agli studenti è poi possibile chiedere di selezionare le risposte artificiali più complete e interessanti, analizzando a ritroso le domande che hanno generato tali risultati. La valutazione è data alle domande poste alla macchina, non alle sue risposte. Gli esami e le tesi potrebbero poi essere impostati chiedendo agli studenti di richiamare esplicitamente i contenuti e la struttura logica delle lezioni di un corso o ingaggiandoli nella discussione di evidenze empiriche da loro raccolte con interviste o sondaggi. Potrebbe poi essere loro chiesto di illustrare e discutere a voce i risultati di una ricerca realizzata con ChatGPT, valutandoli sulla qualità della presentazione. Questi sono solo alcuni esempi di utilizzo etico e intelligente dell’Open AI: la creatività umana non ha limiti nell’estenderli e individuarne di nuovi. In sintesi, l’università dovrebbe adottare un approccio olistico per prevenire l’uso improprio di ChatGPT, che comprenda la formazione degli utenti, l’accesso limitato, la verifica dell’identità, il monitoraggio dell’uso e l’attuazione di sanzioni [quest’ultima frase è stata generata da ChatGPT in risposta alla mia domanda: “Cosa dovrebbe fare una università per impedire l’uso improprio di ChatGPT?”. Non sono d’accordo: soluzioni poco creative e troppo limitate e restrittive!
Carlo Salvato
Università Bocconi


 

Non si può fermare l’IA con le mani 

Ci siamo assillati per anni con le tesi copiate da Wikipedia. Problema ancora novecentesco: si copiava come si è sempre fatto, internet semmai amplificava, facilitava, aiutava. Si rubacchiavano pezzi qui e là, senza neanche passare dai libri, potendo contare però su una moltitudine di fonti, non tutte attendibili, ovvio, ma che importa. Il prof prendeva la parte sospetta, la metteva su Google, il gioco era fatto (c’erano però studenti geniali: quello che a un’obiezione su un compito tutto copiato mi fermò subito, “professore, lo so cosa mi sta per dire, lei pensa che la risposta l’ho copiata da Wikipedia ma vede quella voce lì l’ho scritta io”, con un piglio, una sicurezza, una poker face incredibile: destinato non c’è dubbio a un grande futuro). Per la generazione “copia & incolla” (neologismo Treccani, 2018) la differenza tra copiare e elaborare un testo critico a partire da una bibliografia è sempre stata assai sottile, anche perché, come dice lo sceneggiatore Wilson Mizner: “Quando rubi da un autore è plagio, quando rubi da tanti è ricerca”. Ora però sta per saltare del tutto. Le fonti iniziano a sparire dai motori di ricerca. Colleghi universitari mi raccontano di questi studenti cinesi che non mettono tre parole di italiano in fila però si presentano con tesi di laurea che sembrano scritte da Umberto Eco. Anche loro negano: “Non è copiata, mi sono fatto aiutare”.  E non mentono. Solo che ad aiutarli non è stato un amico, un parente, uno studente più bravo o uno dei tanti ghostwriter compilatori di tesi a pagamento, ma chatGPT, l’intelligenza artificiale a portata di tutti. E’ facile: si parte da alcune domande, per esempio, “forniscimi un’interpretazione di ‘La lettera scarlatta’ di Hawthorne”, e quello va avanti a braccio, evocando, dopo precisa contestualizzazione dell’opera, “la complessità di un testo multistrato, certo aperto a più interpretazioni, ma incentrato sulla dialettica tra colpa e innocenza nell’America puritana del XVII secolo”, eccetera. Alcune università si stanno attrezzando. C’è un gran dibattito in corso su possibili contro-software programmati per stanare le tesi scritte da un chatbot, con consigli di facoltà che sembrano usciti da un racconto di Philip Dick. Solo che pensare di fermare così un’intelligenza artificiale open access, assai facile da usare, è un po’ come risolvere il problema dei flussi migratori dando la caccia agli scafisti nel globo terracqueo. Il caro vecchio “copiare” qui c’entra poco. Anche solo limitandoci al campo della scrittura, le possibilità di chatGPT sono davvero sconfinate, non riducibili al problema della copia e dell’originale, peraltro abbastanza incomprensibile per uno studente nato nel XXI secolo. Un testo scritto da un chatbot è frutto di un brainstorming, di un flusso di domande e risposte che devono essere orientate anche con astuzia, altrimenti quello si inceppa, va in loop, sbaglia risposta, si insolentisce, tipo Hal9000 in “2001 Odissea nello spazio”. Esercitarsi a comporre testi con un chatbot può essere altamente formativo e stimolante. Si possono analizzare con sedute sfiancanti per il chatbot le basi etico-morali della sua “neutralità”. Se gli domandate di esprimersi sull’infibulazione, il burka o l’università vietata alle donne in Afghanistan, vi dirà che come intelligenza artificiale non può prendere “una posizione” ma solo fornire eventuali “informazioni oggettive”. Se gli domandate cosa ne pensa del conflitto russo-ucraino vi risponderà invece come Santoro, Travaglio e la cricca dei nostri pacifisti neutrali che trovano sbagliato “prendere una posizione”. Le posizioni del chatbot possono però modellarsi sulle richieste degli utenti, cambiando anche repentinamente in base alle sollecitazioni diverse. Forse Giuseppe Conte è il primo politico programmato su ChatGPT, e viene del resto dal Movimento dei microchip sotto pelle (voci di corridoio dell’Inps dicono ci sia chatGPT anche dietro la famigerata mail di Anastasio, e qui forse l’intelligenza artificiale inizia a divertirsi con noi). Però invece di multare, sorvegliare, punire, che belle tesi di laurea potremmo assegnare! Molte teorie postmoderniste potrebbero essere riviste e messe alla prova dei fatti dentro un contest dialettico con il chatbot (e la sua lettura oggettiva, neutrale, ottusa, che quindi toglie anche la coltre di fumo, la fuffa, il gioco di prestigio dei calembour decostruzionisti). Oppure gli si può domandare di scrivere una scena romantica di una commedia americana ambientata nella costiera amalfitana. Vi restituirà dialoghi comunque non più brutti di quelli di molti film italiani visti a Venezia. Il nostro studente potrebbe divertirsi ad analizzare la ricorrenza dei cliché, mettendo insieme gli originali, cioè le scene di film che hanno ispirato il chatbot. Si possono fare analisi comparate tre le interpretazioni de “La lettera scarlatta” fatte con la chatGPT e quelle proposte da Wikipedia, oppure uno scontro finale, chatbot-Treccani, tipo Avengers Infinity War. Insomma, siamo solo all’inizio. Non si può fermare l’intelligenza artificiale con le mani. Diamogli fiducia.
Andrea Minuz
Sapienza, Università di Roma


 

L’esame orale farà giustizia

La questione dell’autonomia culturale delle tesi è annosa, ma è indubbio che l’avvento dell’intelligenza artificiale stravolge la questione: i rapidi progressi tecnologici non promettono a breve soluzioni accettabili se non la prospettiva di una generalizzazione della difficoltà di discernere (una parola cara ai Gesuiti) il contenuto autentico dell’autore. Ovviamente il problema si riprodurrà sul mondo delle pubblicazioni scientifiche, poiché i concorsi contemporanei enfatizzano pazzescamente queste ultime quasi ignorando la didattica e la prova orale, l’unica che potrebbe correggere l’eccellenza presunta dei testi scritti, riducendo il rischio di un inquinamento “alla fonte” dei prodotti scientifici. Chi ha a lungo riflettuto sulle tesi, e soprattutto chi ha scritto testi di orientamento a questa straordinaria prova di capacità personale, può intanto affidarsi all’esame orale, perché quest’ultimo fa giustizia di un’eventuale sproporzione tra la performance del candidato e quella del testo presentato. Le tecniche usate fino a pochi mesi fa per un alert sugli eccessi di appropriazione di contenuti ormai non funzionano più. In seconda battuta, è evidente che le strutture didattiche dovranno rapidamente limitare al massimo le tesi compilative, poiché quelle di ricerca hanno comunque bisogno di una specificazione del tema che già potrebbe illuminare meglio la personalità del candidato. Infine, una possibilità per le istituzioni formative è quella di mediare in modo da far sì che il voto ottenuto dagli esami abbia un valore più incisivo rispetto a quello conseguibile alla prova di laurea. 
Mario Morcellini
Sapienza, Università di Roma