Ricerca, siamo davvero al top o i numeri sono dopati?

Uno studio condotto dall’Università di Siena e di Pavia e capitanato da Alberto Baccini svela il trucco che c’è dietro le straordinarie performance italiane nei ranking internazionali di valutazione scientifica. Sarà proprio vero che siamo fra i migliori o è solo un’illusione?
Irene Sartoretti, 01 Ottobre 2019
Micron

Nelle classifiche internazionali, l’Italia risulta uno di quei paesi che godono di ottima salute scientifica. Nel 2016, secondo un rapporto stilato dall’osservatorio scientifico Science and Technology Observatory, il nostro paese si piazza all’ottavo posto per numero di pubblicazioni, dopo Francia, Giappone, India, Germania, Regno Unito, Cina e Stati Uniti, che guidano la top ten. Pubblicazioni à gogo e articoli scientifici che contano citazioni su citazioni lasciano quasi gridare al miracolo italiano.
L’immagine di una scienza più che mai prolifica e quella di ricercatori continuamente citati contrastano però con un’altra fotografia. Quella di un paese i cui ricercatori, dopo essere stati formati ad alto livello, sono costretti a fare le valigie dando vita a una forma di migrazione tutta particolare, che è la migrazione colta, fatta di persone scientificamente molto competitive che vanno a crearsi, negli altri paesi, carriere accademiche importanti.

L’immagine di una nazione iperproduttiva in termini scientifici stride anche con un’altra fotografia, che è quella di un paese dove gli investimenti per la ricerca e lo sviluppo sono ben lungi dall’essere elevati. Nel 2017 è stato dedicato alla ricerca scientifica solo l’1,3% del prodotto interno lordo, contro il 2,07% della media europea. Per informazione, guidano la classifica dei paesi europei che investono di più: Svezia, Austria, Danimarca e Germania. Fanalino di coda sono invece Romania e Lettonia, che condividono un triste quasi pari merito.
Possibile che in Italia si riesca a fare di più con meno? Che in questo paese di santi, di navigatori e di poeti si sia perfino in grado di moltiplicare i pani e pure i pesci? Che ricercatori mal-pagati siano in grado di fare meglio dei loro colleghi europei che beneficiano di finanziamenti ben più lauti? Un articolo uscito in questi giorni sul quotidiano francese Le Monde parla, e lo fa senza mezzi termini, di falso miracolo scientifico italiano, citando fonti più che autorevoli, ovvero un articolo apparso su Plos e rilanciato prontamente dalle prestigiose riviste Nature e Science. Insomma, tutti quei dirigenti politici che sognano un paese con brillanti risultati nella ricerca scientifica senza finanziarla adeguatamente, rimarranno ahinoi molto delusi: i miracoli non esistono, nemmeno nel Belpaese.

Ma andiamo con ordine e scopriamo perché. Nel 2010 è stato approvato, a livello internazionale, un modo di valutazione della ricerca scientifica che si fonda essenzialmente su due criteri, entrambi di natura bibliometrica. Il primo criterio è il numero di articoli prodotti. Il secondo è invece il numero di citazioni dei suddetti articoli. Ovvero, più un articolo è citato e più vuol dire che è rilevante per una certa disciplina. Il fatto è che, da quando questo sistema di valutazione della ricerca scientifica è stato messo in piedi, quelli che erano due semplici indicatori, si sono trasformati, come ricorda il giornalista Sylvestre Huet su Le Monde, in obiettivo principale dei laboratori scientifici. Come si suol dire, fatta la legge, trovato l’inganno.
Hanno preso il via, diffondendosi capillarmente, pratiche di doping delle performance scientifiche, che fanno crescere in modo tanto esponenziale, quanto artificiale, le cifre. Si pubblica di più anche se con meno e più incerti risultati. Il numero di articoli scientifici si ingrossa insieme a quello delle riviste scientifiche, ma la qualità di entrambi risulta più scadente. Si è inoltre fatta strada la prassi delle autocitazioni e delle citazioni incrociate fra colleghi. Tradotto: i ricercatori citano continuamente loro stessi, facendo schizzare, in modo artefatto, la rilevanza della propria produzione scientifica. E i ricercatori che si conoscono fra di loro si organizzano in modo più o meno tacito per citarsi a vicenda e far così crescere altrettanto artificiosamente il numero di citazioni dei propri articoli e quindi il loro grado di importanza. È così che molte delle citazioni di un articolo vengono fatte all’interno di uno stesso collettivo di ricercatori e hanno dunque valore nullo nell’attestarne la scientificità.

A fare le pulci al sistema scientifico italiano non sono stati, come si potrebbe maliziosamente supporre, scienziati esteri invidiosi delle elevatissime performance dei loro colleghi made in Italy, ma gli stessi ricercatori dell’Università di Siena e di Pavia, guidati dall’economista Alberto Baccini.
In un articolo ripreso da Nature e Science, uscito sulla rivista Plos One questo 11 settembre, Alberto Baccini, Giuseppe de Nicolao e Eugenio Petrovich  scrivono che l’Italia è uno di quei paesi con il numero di citazioni inward, ovvero provenienti dallo stesso paese nel quale le ricerche scientifiche sono prodotte, più alto. Numero che, di anno in anno, non fa che crescere. Se prima del 2010 il numero di citazioni inward era più o meno stabile, a partire da questa data, in tutti i paesi del G-10 si inizia a registrare una crescita anomala.
È un caso?! Certo che no. Il 2010 è l’anno in cui viene ufficializzato il sistema bibliometrico di valutazione scientifica, che si affianca, fino a sostituirlo ampiamente, a quello della valutazione fatta da esperti in una data disciplina. E se i laboratori di tutti i paesi del G-10 si adeguano al nuovo metodo di valutazione, mettendo in campo strategie opportunistiche per far lievitare il valore della propria produzione scientifica, è in Giappone e in Italia che si registra una vera e propria impennata di citazioni inward. A titolo di esempio, Italia e Francia hanno un volume pressoché analogo di articoli scientifici pubblicati all’anno. Ma le autocitazioni inward in Italia risultano molto più numerose di quelle fatte dai cugini d’oltralpe (39 000 contro 28 000).
Per dimostrare che si tratta di citazioni che non attestano una reale rilevanza degli articoli nella disciplina, Alberto Baccini e colleghi hanno deciso di prendere in considerazione un terzo criterio di valutazione: quello delle collaborazioni internazionali. In effetti, un altro dei criteri per valutare le performance della ricerca scientifica in un dato paese è il numero di cooperazioni che i suoi laboratori tessono con quelli delle altre nazioni. Gli Stati Uniti rappresentano un caso un po’ a parte nelle operazioni di valutazione e sono esclusi da questo criterio perché hanno risorse interne particolarmente importanti che permettono loro di non aver bisogno di andare a cercare competenze altrove.

Nel caso dell’Italia, il numero di collaborazioni e di cooperazioni con l’estero è particolarmente elevato. Per logica di cose, ciò dovrebbe corrispondere a un abbassamento della percentuale di citazioni inward in favore di un innalzamento del numero di citazioni internazionali. Ma questo, purtroppo, non avviene, fornendo una dimostrazione lampante di come le citazioni inward non siano un indicatore attendibile di misurazione della qualità della ricerca scientifica, ma risultino gonfiate artificialmente.
L’articolo porta a concludere che andrebbero cambiate le forme di valutazione della ricerca. Una buona e onesta valutazione non è di secondaria importanza, perché è da questa che discendono le politiche di ricerca e di sviluppo nonché gli incentivi messi in atto dalle istituzioni. Un buon metodo di valutazione potrebbe essere quello di ritornare ai cari e vecchi esperti oppure ancora quello di affiancare, ad altri criteri adeguatamente ponderati e rivisti, il parametro della spendibilità effettiva della ricerca. Il dibattito è più che mai aperto.

Commenti dei lettori


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    X