Foto di Chaewul Kim su Unsplash

Cattivi scienziati

L'autocorrezione della scienza è sempre più difficile

Enrico Bucci

L'impact factor misura la “rilevanza” di una rivista scientifica in base alle citazioni che ricevono i suoi articoli. Ma modificarne il conteggio rappresenta l’ennesima torsione di un sistema che si limita ad aggiustare gli indicatori, invece di affrontare i suoi difetti strutturali

Il 20 maggio 2025, Clarivate ha annunciato una modifica formale al calcolo dell’impact factor che, a uno sguardo distratto, potrebbe sembrare finalmente ragionevole: le citazioni ricevute da articoli ritrattati non verranno più conteggiate nel calcolo dell’impact factor delle riviste. Per capire il punto, occorre ricordare cos’è l’impact factor. È un punteggio che misura la “rilevanza” di una rivista scientifica in base alle citazioni che ricevono, in media, gli articoli pubblicati su di essa. Più citazioni, più alto il punteggio, migliore è considerata la rivista.

 

       

In teoria, dunque, impedire che lavori sbagliati o addirittura fraudolenti — sebbene molto citati — continuino ad alimentare artificialmente il prestigio numerico delle testate che li hanno pubblicati, anche dopo la ritrattazione, è una di quelle notizie che sembrano difficili da criticare: si elimina una stortura, si riallinea la metrica al valore reale della ricerca, si manda un messaggio etico. Ma a guardarla bene, questa modifica non è una soluzione: è l’ennesima torsione di un sistema che, invece di affrontare i suoi difetti strutturali, si limita ad aggiustare gli indicatori. E ogni volta che si interviene sulle metriche senza toccare le motivazioni che ne regolano l’uso, il risultato è quello di peggiorare il sistema, non di riformarlo.

L’impact factor non è un indicatore come gli altri. È diventato una moneta: regola il valore di mercato delle riviste, giustifica i costi per pubblicare, influenza le decisioni degli autori, orienta i finanziamenti, determina chi verrà letto e chi no. Intere carriere accademiche si fondano sul posizionamento bibliometrico delle pubblicazioni nelle riviste a maggiore impact factor. Le riviste, di conseguenza, competono per accrescere quel punteggio come se fosse un capitale: ogni citazione è una risorsa, ogni punto in più è un vantaggio competitivo. E in questo quadro, introdurre la sottrazione delle citazioni agli articoli ritrattati non è affatto un gesto neutro. Al contrario, trasforma ogni ritrattazione in un danno misurabile, prevedibile e penalizzante. Quanto più un articolo è citato, tanto maggiore sarà il danno che la rivista subirà se deciderà — o sarà costretta — a ritirarlo.

Il paradosso che ne risulta è evidente: si introduce un disincentivo materiale all’autocorrezione. Le riviste che fanno il proprio dovere editoriale, individuano un errore, ammettono un problema, rimuovono un contenuto non più valido, verranno matematicamente punite. Le citazioni totali diminuiscono, l’indicatore scende, il ranking si modifica, e la percezione pubblica – per quanto sbagliata – sarà quella di un declino. Al contrario, le riviste che temporeggiano, minimizzano, chiudono un occhio o evitano di aprire un’indagine formale quando emergono dubbi su un articolo molto citato, proteggeranno il proprio capitale bibliometrico. Chi non corregge sale, chi corregge scende. E in un sistema che assegna valore, risorse e autorevolezza in base a quel punteggio, la conclusione non è teorica: è perfettamente razionale per un editore evitare la ritrattazione, anche a costo di lasciare nella letteratura scientifica un errore conclamato.

Si poteva prevedere? Certamente. Era sufficiente osservare il modo in cui le metriche vengono oggi utilizzate: non come strumenti analitici, ma come dispositivi di governo. Il problema non è solo tecnico, né solo etico. È sistemico. Il legame tra bibliometria, reputazione e mercato ha trasformato gli indicatori da strumenti di misurazione a oggetti di competizione, e qualunque modifica che non tenga conto di questo assetto finisce per produrre esattamente l’effetto opposto a quello desiderato. La rimozione delle citazioni agli articoli ritrattati, in un sistema sano, avrebbe rafforzato la credibilità delle riviste che correggono. In questo sistema, invece, le penalizza. Trasforma l’autocorrezione in una perdita e la trasparenza in uno svantaggio competitivo.

Non si tratta di difendere gli errori o di nascondere la polvere sotto il tappeto. Il punto è che, senza una riflessione seria sulla funzione reale della bibliometria e sul modo in cui le riviste sono oggi inserite in un’economia dell’attenzione e del profitto, ogni intervento tecnico sulle formule si riduce a un’aggiunta di pressione selettiva su un sistema già distorto. Non è un caso se le ritrattazioni, negli ultimi anni, sono state spesso ritardate, ostacolate o non realizzate affatto. Con questa modifica, si introduce un ulteriore meccanismo di scoraggiamento, esattamente nei casi più gravi, quelli in cui le ritrattazioni sarebbero più necessarie: quando gli articoli sono molto citati, e quindi più influenti, più dannosi in caso di errore, ma anche più costosi da eliminare.

La scienza dovrebbe premiare chi corregge e punire chi nasconde. Ma finché i numeri bibliometrici continueranno a essere usati nel modo distorto che vediamo oggi, accadrà il contrario. Con questa ultima modifica, si penalizzerà chi rimedia e si premierà chi finge che nulla sia accaduto. Ed è così che si soffoca, lentamente, la capacità stessa della scienza di riparare i propri errori.

Di più su questi argomenti: