Sole 24 Ore (Nòva), 6 aprile 2006 Viaggio al centro della Scienza di Guido Romeo ------------------------------------- La scienza vuole misurare tutto l'Universo, ma non ama misurare sé stessa. Parola di Eugene Garfield, fondatore dell'Isi, l'Istituto per l'informazione scientifica (oggi Thomson Scientific), che da oltre 45 anni registra l'impatto delle pubblicazioni dei ricercatori di tutto il mondo. Conoscere la qualità della ricerca scientifica è un dato importantissimo a moltissimi livelli. Dall'assegnazione di finanziamenti, cattedre e borse di studio all'interno di un singolo ateneo, alle decisioni politiche e strategiche dei governi, ma non è raro imbattersi in graduatorie che usano i sistemi più diversi. L'Università di Shanghai, per esempio, ha recentemente pubblicato una lista delle 500 migliori università del mondo, stilata in base al numero di premi Nobel, il numero di pubblicazioni e il numero di citazioni nei lavori di altri ricercatori. «Non credo - spiega Garfield - che questo sia un metro rigoroso. L'unico parametro universalmente valido è l'analisi del numero di citazioni». Ogni articolo pubblicato nelle riviste scientifiche internazionali termina con una serie di riferimenti bibliografici. Analogamente a come avviene per Google, il noto motore di ricerca online, chi è nominato più spesso finisce in cima alla lista e una lunga lista di citazioni è spesso meglio di una montagna di pubblicazioni. L'americano Kary Mullis, ad esempio, ha pubblicato appena una cinquantina di articoli, ma il. suo lavoro sulla tecnica di Pcr (Polymerase chain reaction) per la replicazione in vitro del Dna ha rivoluzionato la biologia ed è stato citato decine di migliaia di volte. Non solo: grazie a questo lavoro Mullis ha vinto il premio Nobel per la chimica nel 1993. Quando, alla fine degli anni Novanta, la Fondazione Soros decise di sostenere il rilancio della scienza russa, fu principalmente attraverso l'analisi delle citazioni che riusci a identificare i gruppi di ricerca migliori e a erogare subito, in pochi mesi, i fondi necessari per non far chiudere molti laboratori. «Molti ricercatori - osserva Garfield - non amano la cosiddetta "bibliometria", proprio perché dà risposte esatte e ha valore solo se applicata appropriatamente». Analizzando le citazioni, per esempio, è possibile individuare una rosa dei migliori candidati per il Nobel come ogni anno fa Garfield, ma non chi lo otterrà. Allo stesso tempo, scegliere qualcuno al di fuori di quella rosa diventa difficile da motivare su basi puramente scientifiche. Per quanto rigorosa, la "bibliometria" non è però uno strumento perfetto e ha diversi critici. Il Nobel per la medicina Sydney Brenner è uno di questi. Brenner considera le citazioni molto conservatrici, utili più che altro alla sociologia della scienza e inadatte a identificare i lavori più innovativi. «Nel valutare l'interesse di una ricerca spiega Daniela Bellomo, direttrice dell'ufficio per il trasferimento tecnologico del Science Park Raf di Milano - ragioniamo fin dall'inizio in termini di mercato, non solo analizzando la ricerca insieme a un comitato di clinici e specialisti, ma anche facendo analisi di mercato e indagini su cosa esiste già nel settore. Negli ultimi 10 anni questa strategia ci ha permesso di registrare 75 brevetti e darne 19 in licenza. Le valutazioni che precedono ogni registrazione devono però essere estremamente accurate poiché, dopo i primi 30 mesi, mantenerne la protezione a livello internazionale può costare fino a 100mila euro l'anno per ogni brevetto, includendo anche i Paesi asiatici che stanno emergendo a livello scientifico come India, Corea e Cina». Un'altra obiezione è che queste analisi danno solo una visione parziale dello stato della ricerca nel mondo. Il ruolo di Cina, India e Corea del Sud è ad esempio molto più importante di quanto si possa ricavare dalle citazioni che ricevono i loro ricercatori. Il budget sudcoreano per la ricerca è aumentato del 10% l'anno scorso, quello cinese del 16% nel 2004 e Pechino, entro il 2010, promette di eguagliare gli stanziamenti in ricerca e sviluppo degli europei. Intanto, nel 2005 gli stanziamenti indiani sono aumentati addirittura del 25% e il governo di Nuova Delhi progetta inoltre la creazione di una super-agenzia per la ricerca sul modello della National Science Foundation statunitense, con un budget annuale di 250 milioni di dollari. «L'analisi delle citazioni - avverte però Jacopo Meldolesi, direttore del dipartimento di neuroscienze dell'Istituto San Raffaele di Milano e presidente della Federazione italiana delle scienze della vita - rimane comunque uno strumento importantissimo e dovrebbe essere utilizzato più spesso, soprattutto in Italia. Ma con le dovute cautele. Per valutare un giovane ricercatore, ad esempio, va considerata l'originalità del suo lavoro, che può non essere ancora molto citato». In Italia, una delle novità più interessanti è la valutazione scientifica che alcune università italiane hanno avviato su base volontaria, che affida il giudizio a comitati di valutazione esterni. «A Padova spiega Paolo Bernardi, vicepreside della facoltà di medicina, che proprio in questi giorni sta per ricevere il giudizio del comitato di valutazione -la valutazione ha riguardato 20 dipartimenti su 64 e ha tenuto conto solo della capacità di ricerca, non della didattica. I parametri principali della valutazione, affidata a un comitato di esperti esterni italiani e stranie ri presieduti dall'olandese Pieter De Meiyer, erano l'attività scientifica, misurata attraverso pubblicazioni e citazioni degli ultimi cinque anni dell'Isi, ma anche il curriculum dei ricercatori, le risorse finanziarie, i brevetti prodotti e i fondi di ricerca ottenuti da fonti esterne, come la commissione Europea». Ma una volta ottenuto la valutazione, che cosa succederà? «Questa è un'ottima domanda - ammette Bernardi - la valutazione è solo un'opera di "moral suasion": spetterà poi all'amministrazione chiudere il cerchio e cercare di aumentare l'efficienza della ricerca». Magari deliberando qualche nuovo finanziamento.