(foto Ap)

cattivi scienziati

Ci si può fidare dell'AI applicata alla ricerca? Un esperimento

Enrico Bucci

Un programma di intelligenza artificiale, come ChatGPT, può essere usato per creare delle vere e proprie frodi scientifiche. È utile chiedersi se siamo pronti a immergerci in un tale spaventoso rumore informativo

L'intelligenza artificiale rappresenta un grande passo nella ricerca scientifica. Ma come può essere sfruttata in un modo poco etico? Un programma AI, come ChatGPT, può essere usato per creare delle vere e proprie frodi scientifiche. In pratica, gli utenti possono generare testi realistici e affidabili partendo da promemoria forniti. Ciò ha reso possibile la costruzione di abstract scientifici falsi attraverso un sistema automatizzato, con documenti che possono ingannare persino i professionisti del settore.

 

Grazie all'enorme database di più di 8 milioni di frasi, ChatGPT è capace di "apprendere" come scrivere adeguatamente a livello umano.

 

Innanzitutto, ChatGPT può generare rapidamente un testo scientifico falso utilizzando una varietà di fonti. In secondo luogo, il software può cambiare il tono e il contenuto del testo in base alle esigenze dell'utente. Infine, il programma è in grado di integrarsi con altri strumenti di editing per rendere il processo ancora più semplice.

 

Se volete creare immagini false a corredo di un testo generato da ChatGPT, allora un software come ImaGen è lo strumento che fa al caso vostro. Inserendo l'input testuale con cui si desidera generare un'immagine e scegliendo il tema grafico tra quelli disponibili, in pochi secondi si avrà un'immagine personalizzata pronta per l'uso nel documento. Con ImaGen si possono persino comporre più immagini insieme per creare contenuti complessivamente più interessanti.

 

La modifica della bozza generata attraverso i passaggi precedenti può essere effettuata con ChatGPT, che fornirà variabili via via più complesse del testo di partenza in risposta all'input dell'utente, fino ad ottenere un risultato soddisfacente.

 

ChatGPT aumenta incredibilmente la scala e la credibilità con cui possono essere generati articoli scientifici fraudolenti. In passato, era necessario utilizzare un team di persone per creare contenuti falsi e farli apparire come veri, ma ChatGPT rende tutto molto più semplice.

 

Ciò significa che è più facile per i malintenzionati rilasciare falsi risultati di ricerca o dati falsificati.

 

In un sistema in cui la valutazione dei ricercatori ai fini della carriera e dai finanziamenti dipende dal numero di articoli pubblicati, questa scoperta potrebbe avere conseguenze negative per i ricercatori onesti.

 

Bene: tutto quello che avete letto sin qui, eccetto questa ultima frase e ciò che segue, è stato generato come testo in italiano attraverso un software detto copymatic, uno dei tanti a disposizione per fare esattamente ciò di cui si denuncia il pericolo in questo scritto, ovvero generare un testo credibile e argomentato per sostenere una tesi qualsiasi – scientifica o meno.

 

Siamo pronti ad una invasione di contenuti generati artificialmente, la cui affidabilità è indecidibile al lettore e soprattutto la cui massa totale aumenterà spaventosamente il rumore informativo, permettendo così di manipolare ogni aspetto della nostra vita basato su comunicazioni scritte, video e audio?

Di più su questi argomenti: