Wikipedia allena le chatbox, ma così potrebbe autodistruggersi

Pietro Minto

Quello tra i chatbot e l'enciclopedia online è un rapporto delicato. Un saggio immagina che in futuro un modello computerizzato potrebbe finire per sostituire il sito e i suoi curatori umani

La chiamano “morte per Wikipedia”: succede quando una persona viene erroneamente dichiarata morta nella propria pagina Wikipedia da qualche utente male informato o in vena di burle. Scherzi che, nella community degli editor che scrivono, rileggono e controllano ogni giorno migliaia di lemmi dell’enciclopedia online, non vengono presi alla leggera e vengono considerati atti di vandalismo digitale. “Morte per Wikipedia” è anche il titolo di un saggio pubblicato da uno di questi editor, che si fa chiamare Barkeep49, sul futuro dell’enciclopedia in un web popolato da intelligenze artificiali generative, come ChatGPT.

 

Quello tra questi chatbot e Wikipedia è un rapporto delicato innanzitutto perché i primi si basano su modelli linguistici di grandi dimensioni (Llm) che devono essere “allenati”. Per farlo, gli sviluppatori danno in pasto a questi sistemi moli e moli di dati, documenti, testi e contenuti. Spesso presi da internet. E da Wikipedia. Senza Wikipedia, quindi, questi chatbot non esisterebbero nemmeno. C’è poi un secondo fronte, quello dell’autorevolezza: pur con tutti i suoi difetti, l’enciclopedia online è oggi ritenuta una fonte attendibile, tanto da essere usata da motori di ricerca come Google per dare risposte immediate a domande fattuali (cercando “Cristoforo Colombo”, ad esempio, comparirà un boxino con l’anteprima della sua pagina su Wikipedia). Ma l’autorevolezza è anche uno dei punti deboli dei chatbot, le cui risposte sembrano spesso credibili, pur non essendolo.

  

Chiunque abbia provato ChatGPT sarà rimasto stupito dalla tecnologia ma avrà anche notato la facilità con cui il bot inventa dettagli, date, informazioni, generando testo sempre “credibile” e scritto correttamente, ma pieno di quelle che nel settore vengono dette hallucinations. La prossima e presunta morte di Wikipedia, raccontata in questi giorni dal New York Times, si basa proprio sul controverso rapporto tra IA generative – automatiche, potenti e veloci – e un sito redatto da migliaia di esseri umani, che da anni si danno regole e si impegnano per proteggere l’enciclopedia da errori, sviste, disinformazione. Un ottimo esempio di questo sforzo collettivo è la pagina inglese dedicata alla pandemia da Covid-19. Visitandola e aprendo la sezione “Talk”, nella quale è possibile leggere la discussione dietro le quinte degli editor su quel lemma, si cade in un lunghissimo dibattito in cui negazionisti, NoVax e altri utenti propongono la “loro” versione di verità enciclopedica. Ora proviamo a immaginare che la stessa pagina venga automatizzata e generata da un’IA. Ecco.

  

Nonostante questo, Barkeep49 sostiene che, in futuro, un modello computerizzato potrebbe finire per sostituire il sito e i suoi curatori umani, così come l’Encyclopaedia Britannica è stata superata da Wikipedia nel 2012. Non tutti i suoi colleghi concordano: bot come ChatGPT, infatti, sono programmati per generare testo in modo probabilistico, determinando la parola più “giusta” da abbinare a quella che la precede, e così via; secondo uno studio di Stanford, inoltre, solo la metà delle frasi generate da una serie di servizi simili risulta supportata da fonti. Insomma, non proprio le basi per un’enciclopedia degna di questo nome. Il punto è che questi modelli linguistici possono offrire risposte immediate, confezionate decentemente e simili, quanto meno superficialmente, a quelle di un’enciclopedia. E c’è il rischio che per molte persone, specie se ignare, ciò sia sufficiente.

  

Nel frattempo, la Wikimedia Foundation, l’ente no profit che possiede Wikipedia, sta lavorando a dei plug-in con cui ChatGPT potrà generare testo affidandosi alle informazioni dell’enciclopedia online, che fungerebbe da riserva di fonti a cui attingere. Sono esperimenti simili a confortare parte degli editor di Wikipedia, che considerano le IA generative uno strumento utile e positivo, fosse solo perché in grado di alleggerire il carico di lavoro degli editor (che sono tutti volontari), senza sostituire le capacità umane di chi lavora dal gennaio del 2001 per costruire un’enciclopedia gratuita e aperta a tutti, ma soprattutto affidabile.

Di più su questi argomenti: