Piero Bianucci, La Stampa 2/7/2015, 2 luglio 2015
BOLLE SCIENTIFICHE E BOLLE FINANZIARIE
È difficile valutare un quadro, un romanzo, una poesia. Le filosofie estetiche sono tante. Più facile dovrebbe essere valutare la scienza. C’è addirittura una scienza della valutazione della scienza: la scientometria. Peccato che sia controversa.
Il criterio «oggettivo» più diffuso per giudicare un risultato scientifico è quello di prendere in considerazione le reazioni che ha suscitato nella comunità dei ricercatori. Questo metodo rimanda a una sotto-disciplina che si chiama bibliometria, cioè un insieme di regole per pesare le pubblicazioni. L’unità di misura è l’impact factor, ideato nel 1955 dal chimico Eugene Garfield e acquisito dalla Thomson Reuters, originariamente usato dai bibliotecari per decidere quali riviste acquistare.
In pratica, si conta il numero di citazioni che una certa rivista o un dato articolo hanno accumulato in un periodo di tempo prestabilito, per esempio un anno. Più citazioni = più importanza scientifica. L’europea «Nature» e l’americana «Science» da decenni si contendono il primato di impact factor. Senza dubbio sono le due più importanti riviste scientifiche generaliste. Ma un articolo molto specialistico e di grande rilievo potrebbe essere rifiutato da «Science» e «Nature»: è successo a Enrico Fermi e al suo lavoro che avrebbe aperto la strada alla bomba atomica e all’energia nucleare. E’ successo a Giacomo Rizzolatti con la scoperta dei neuroni specchio. E l’elenco sarebbe lungo.
Nel mondo esistono 28 mila riviste scientifiche che in un anno pubblicano circa 2 milioni di articoli. Ovviamente sono quasi tutti molto specialistici e ospitati su riviste specialistiche che per impact factor non possono competere con le riviste maggiori. Inoltre i ricercatori di lingua inglese sono avvantaggiati, quelli che appartengono a gruppi di ricerca vicini si citano tra loro, i gruppi più potenti esprimono spesso valutatori che decidono ciò che si pubblica, e un articolo può suscitare molte citazioni in pochi mesi e poi scomparire per sempre mentre un articolo inizialmente ignorato anni dopo può rivelarsi fondamentale. Aggiungiamo che le discipline umanistiche, pur usando nel loro campo metodi scientifici, sono in pratica estranee all’impact factor. Problemi spinosi con cui il fisico Stefano Fantoni, assumendo nel 2011 la direzione della neonata «Anvur», Agenzia nazionale per la valutazione della ricerca, ha dovuto pungersi le dita.
La Sif, Società italiana di Fisica, di recente è intervenuta in modo critico sulla «impact obsession» che affligge università, centri di ricerca e ricercatori. Tema caldo, discusso a Leida nel convegno «Science and Technology Indicators», donde il «Leiden Manifesto» pubblicato in aprile su «Nature». Questo documento individua 10 principi per evitare un uso scorretto dell’impact factor. Il primo di essi introduce «il giudizio qualitativo di un esperto» per temperare la valutazione quantitativa, il secondo richiede che la misura tenga conto della specifica situazione di ricerca, il terzo salvaguarda il valore della «ricerca locale».
Bene. Ma ancora meglio sarebbe denunciare come il totem dell’impact factor spinga le pubblicazioni a riprodursi stimolando altre pubblicazioni accademiche e generando mode che si autoalimentano – quanto si è scritto su stringhe, buchi neri, materia oscura! – con il risultato di gonfiare «bolle scientifiche» del tutto simili alle bolle speculative dei mercati finanziari, tristemente note per la crisi mondiale che hanno causato.
Anziché misurare il valore di una pubblicazione dalla sua capacità di generare altra carta, non sarebbe meglio prendere in considerazione il rapporto tra finanziamenti e conoscenza acquisita, tra ideazione e applicazioni tecnologiche, tra costi e ricavi re-investibili in ricerca innescando un circuito virtuoso? Non hanno fatto così Apple, Microsoft, Google, Samsung, e prima ancora DuPont, Ibm e Bell Telephone?