FOTO Ansa

cattivi scienziati

Quando la quantità diventa la qualità della ricerca

Enrico Bucci

Se l'attenzione si sposta dalla solidità scientifica alla massimizzazione di indicatori quantitativi si producono molti articoli, ma la qualità media e l’impatto reale ne risentono. Tutti sanno che il sistema è distorto, ma nessuno ha interesse a cambiare strategia finché gli altri non lo fanno simultaneamente

Un recente rapporto globale di Elsevier, The Researcher of the Future, fotografa bene la situazione in cui ci troviamo. Tra i ricercatori intervistati, oltre 3000, circa il 68% dice che la pressione a pubblicare è aumentata rispetto a pochi anni fa; una quota molto ampia dichiara di non avere tempo sufficiente per fare ricerca in modo approfondito, perché il lavoro quotidiano è frammentato tra didattica, burocrazia, scrittura di bandi, riunioni, gestione di progetti. La ricerca “vera” viene spinta ai margini del tempo disponibile.

Sul fronte delle risorse la percezione è altrettanto chiara: molti si aspettano un calo o una stagnazione dei fondi per la ricerca di base, e pochi si attendono miglioramenti significativi. In questo contesto, diventare “competitivi” significa dimostrare di produrre tanto e in fretta. Il report mostra che una larga maggioranza dei ricercatori sente di essere valutata principalmente in base a indicatori bibliometrici: numero totale di articoli, citazioni, impact factor delle riviste, h-index. Molti ammettono di adattare il proprio comportamento a questi parametri: scegliere argomenti “di moda”, segmentare uno studio in più pubblicazioni, privilegiare analisi che possono produrre risultati rapidi. Quasi tutti, però, riconoscono che questo impoverisce la solidità della ricerca, riduce la replicabilità e può erodere la fiducia del pubblico nella scienza.

Il quadro è paradossale: la comunità scientifica è consapevole della distorsione, ma continua a comportarsi come se non potesse farne a meno. Da qui la domanda chiave: se tutti vedono che il sistema bibliometrico ci intrappola, perché non ne usciamo?

La risposta emerge con chiarezza se guardiamo alla situazione con gli strumenti della teoria dei giochi e della letteratura sulla valutazione della ricerca. Negli ultimi decenni, indicatori come il numero di citazioni e l’impact factor delle riviste sono diventati la lingua franca con cui università, agenzie di finanziamento e governi valutano la ricerca. Sono facili da calcolare, comparabili tra soggetti diversi e si prestano bene a generare classifiche e ranking. Proprio per questo, però, hanno finito per modellare i comportamenti: se sai che la tua carriera, i tuoi fondi e perfino il prestigio del tuo ateneo dipendono da questi numeri, diventa razionale ottimizzare quei numeri, non necessariamente la qualità sostanziale del lavoro.

La letteratura sul tema descrive questo meccanismo come una vera e propria trappola. I bibliometrici, che dovevano servire a misurare, diventano obiettivi da perseguire. I ricercatori puntano alle riviste “ad alto impatto”, talvolta ricorrono a pratiche di “gaming” (autocitazioni strategiche, coautorie gonfiate, slicing dei risultati in molti articoli piccoli), e l’attenzione si sposta dalla solidità scientifica alla massimizzazione di indicatori quantitativi. In termini di equilibrio di Nash, si crea uno stato stabile in cui ogni attore – il singolo ricercatore, l’istituzione, l’ente di finanziamento – si comporta in modo razionale rispetto ai propri incentivi, ma il risultato collettivo è inefficiente: si producono molti articoli, ma la qualità media e l’impatto reale ne risentono. Tutti sanno che il sistema è distorto, ma nessuno ha interesse a cambiare strategia finché gli altri non lo fanno simultaneamente.

Qui entra in gioco anche la dipendenza dal percorso. Per anni, decisioni su carriere, fondi e reputazione si sono accumulate intorno a questi indicatori. Gli atenei competono nei ranking internazionali che usano metriche bibliometriche, i finanziatori si affidano a quei numeri per selezionare progetti e ricercatori, le regole amministrative sono state scritte intorno a questa infrastruttura. Cambiare rotta significa mettere in discussione interi sistemi di potere, redistribuire risorse e sostenere costi di transizione in termini di tempo, formazione, riorganizzazione. Per molti attori istituzionali, sperimentare forme alternative di valutazione appare rischioso: potrebbero perdere posizione nei ranking, sembrare meno “accountable”, o non avere subito strumenti altrettanto semplici da usare. Anche quando le critiche al bibliometrico sono condivise, la struttura di incentivi e la paura dei costi di transizione generano inerzia.

A questo si aggiunge un altro elemento: il deficit di prove robuste sulle alternative. Le proposte di valutazione qualitativa, di ranking mission-oriented, di indicatori centrati su trasparenza e impatto sociale sono numerose, ma spesso mancano dati consolidati sulla loro efficacia operativa. La letteratura sottolinea che esiste una forte domanda di riforma, ma una base empirica ancora limitata sui risultati dei nuovi modelli. Di fronte a questa incertezza, molte istituzioni preferiscono il sistema che conoscono, per quanto insoddisfacente, a un cambiamento che percepiscono come sperimentale e potenzialmente pericoloso.

Il risultato è un equilibrio di Nash istituzionale: le regole attuali allineano gli incentivi individuali al mantenimento dello status quo. Un ricercatore che decidesse di pubblicare meno, ma meglio, rischierebbe di essere penalizzato rispetto a colleghi più prolifici; un’università che spostasse l’attenzione dai numeri alla qualità potrebbe apparire meno performante nei ranking; un’agenzia di finanziamento che abbandonasse le metriche semplici rischierebbe di essere accusata di arbitrarietà. Nessuno ha convenienza a cambiare in solitudine, anche se tutti riconoscono i limiti del sistema.

Il modello evolutivo proposto da Mantas Radzvilas e colleghi nel 2022 aiuta a capire a livello micro come questo equilibrio si consolida. In questo modello, la pubblicazione della ricerca è vista come un’interazione continua tra autori e revisori. Gli autori possono scegliere di investire molto sforzo in pochi lavori di alta qualità, oppure poco sforzo in molti lavori mediocri. I revisori, dal canto loro, possono decidere se essere severi, dedicando tempo ed energia a controlli accurati, oppure indulgenti, accettando rapidamente la maggior parte dei lavori. Lo sforzo dell’autore ha un costo, così come la severità del revisore. I benefici, invece, dipendono dai risultati: pubblicazioni accettate, reputazione, possibilità di finanziamento.

Il modello mostra che, quando lo sforzo elevato dell’autore non viene premiato in modo chiaro, quando la severità del revisore è costosa e poco riconosciuta, e quando la reputazione non distingue efficacemente tra rigore e superficialità, l’equilibrio evolutivo del sistema converge verso uno stato di bassa qualità. In questo stato, la strategia più razionale per gli autori è produrre molto con poco sforzo, e la strategia più razionale per i revisori è fare controlli veloci e poco approfonditi. Se qualcuno decide di comportarsi diversamente – un autore che investe anni in un solo studio solidissimo, o un revisore che rifiuta la maggior parte dei lavori per mancanza di rigore – ottiene un payoff inferiore: meno pubblicazioni, meno citazioni, più tempo speso, nessun riconoscimento istituzionale. Il sistema “seleziona contro” i comportamenti virtuosi, spingendo tutti verso l’equilibrio sub-ottimale.

Dentro un equilibrio del genere non si esce dall’interno. Non basta chiedere ai ricercatori di essere migliori, né appellarsi alla loro coscienza professionale. Chi prova ad agire diversamente viene penalizzato dal contesto, e dopo un po’ o si adegua o esce dal gioco. La sola via d’uscita è cambiare i payoff, cioè modificare i premi e i costi associati alle diverse strategie. In termini semplici: bisogna fare in modo che lavorare bene sia non solo giusto, ma anche conveniente.

Nel contesto italiano, questo implica muoversi su due piani contemporaneamente: inserirsi nel processo di riforma internazionale della valutazione (DORA, CoARA, Plan S, iniziative sull’open science), e allo stesso tempo sfruttare le peculiarità del sistema nazionale, in particolare la sua forte centralizzazione. Proprio perché molte decisioni su abilitazioni, valutazioni e fondi passano per pochi nodi – il Ministero, l’ANVUR, alcuni grandi enti di ricerca – è possibile introdurre cambiamenti che valgano subito per tutti, riducendo il rischio che chi cambia per primo venga penalizzato rispetto agli altri.

Sul piano operativo, una prima mossa concreta sarebbe quella di limitare drasticamente il numero di lavori che possono essere presentati nei concorsi, nelle abilitazioni e nei bandi nazionali, chiedendo per ciascuno non solo il testo, ma anche i dati, i protocolli e il codice necessari a verificarlo. Questo sposta subito il baricentro della convenienza: il ricercatore non ha più interesse a produrre decine di articoli difficilmente controllabili, ma a selezionare pochi lavori solidi e trasparenti. La qualità del processo – non solo il risultato pubblicato – diventa oggetto di valutazione.

In parallelo, è possibile intervenire sul sistema editoriale. Le università e gli enti di ricerca italiani spendono cifre molto elevate in abbonamenti e costi di pubblicazione verso editori commerciali. Una parte significativa di queste risorse potrebbe essere reindirizzata verso la creazione di riviste istituzionali ad accesso aperto, gestite da consorzi pubblici, con governi editoriali accademici e costi di pubblicazione nulli o minimi per gli autori. Queste riviste potrebbero adottare la revisione aperta: i giudizi dei revisori verrebbero pubblicati insieme agli articoli, rendendo il processo trasparente e verificabile. Il vantaggio non è solo economico, ma anche culturale: la severità del revisore smette di essere nascosta e diventa parte della reputazione scientifica complessiva.

Un’altra leva importante riguarda la produttività. Introdurre un tetto al numero di pubblicazioni che possono essere considerate in un dato periodo – per esempio, ai fini dell’abilitazione o della valutazione triennale – elimina il vantaggio della pubblicazione di massa. Se dopo un certo numero di lavori gli articoli aggiuntivi non contano più, la strategia razionale smette di essere “pubblica ovunque, comunque” e torna a essere “pubblica ciò che vale davvero”. Del resto, non è affatto vero che i ricercatori migliori siano quelli che pubblicano di più: se guardiamo ai Nobel per la medicina di quest’anno, per esempio, uno è andato alla valente ricercatrice Mary E. Brunkow, con H-index e numero di articoli di inferiori a chi scrive.

Infine, un registro nazionale delle correzioni e delle ritrattazioni, gestito da un ente indipendente e ispirato alle linee guida della comunità internazionale (come COPE), aiuterebbe a ribilanciare il rapporto tra trasparenza ed errore. Oggi chi corregge un lavoro rischia uno stigma, mentre chi non corregge, anche in presenza di dubbi seri, raramente ne paga le conseguenze. Un registro che distingua chiaramente gli errori onesti dalla cattiva condotta, e che riconosca valore alla correzione pubblica, renderebbe più rischioso il comportamento superficiale e più sicuro quello rigoroso.

Tutte queste misure non sono panacee, e non esauriscono il ventaglio delle possibili riforme. Ma hanno un tratto comune: agiscono sui parametri che, secondo il modello teorico e la letteratura empirica, mantengono in vita l’equilibrio di bassa qualità. Aumentano la ricompensa per lo sforzo reale, riducono il costo della severità, rafforzano la reputazione del rigore, rendono meno vantaggiosa la corsa ai numeri. In altre parole, cambiano il gioco.

Solo in un ambiente in cui la qualità è valutata, la trasparenza è richiesta, la severità è sostenibile e la quantità non è più premiata automaticamente, diventa razionale per ciascun ricercatore fare ciò che tutti dicono di volere: meno articoli, ma migliori. Finché questo non accade, possiamo continuare a denunciare la trappola bibliometrica, ma resteremo comunque al suo interno.

Di più su questi argomenti: