Los científicos españoles publicamos demasiada morralla
  1. Tecnología
  2. Tribuna
Teknautas

Tribuna

Por

Los científicos españoles publicamos demasiada morralla

La ciencia es España está en la media de los países de nuestro entorno en cuanto a niveles de publicación, pero el problema está en la calidad de esas publicaciones

placeholder Foto: Foto: EFE.
Foto: EFE.

La morralla es un conjunto de peces de escaso valor, principalmente de roca, que sin embargo constituye la base de muchos platos exquisitos. En España podríamos acercar esta definición al mundo de la investigación. Publicamos mucho, pero no nos arriesgamos a explorar en las fronteras del conocimiento, nos quedamos en la roca. Prácticamente no alcanzamos la excelencia y, en consecuencia, apenas transferimos tecnología al tejido industrial. Es hora de aprovechar el caldo para producir algunos platos de alta cocina.

El número mundial de artículos publicados en revistas científicas revisadas por pares crece sin parar. Del año 2000 al 2020, ese número se triplicó. Lo mismo se observa si consideramos solo artículos con autores de afiliación española. Es decir, la ciencia española se mantiene en la carrera por la cantidad de producción científica. Es un montón de artículos, la base para un buen caldo. Pero cantidad no siempre equivale a calidad.

Foto: Zumalacárregui ha pasado los últimos años en la Universidad de Berkeley, en California

¿Cómo sabemos si un artículo es mejor o peor, si su impacto está en la base del montón o cerca de la cima? El número medio de citas anuales que reciben los artículos publicados en una determinada revista -su factor de impacto- suele utilizarse como indicador de calidad entre revistas científicas. En consecuencia, los investigadores buscan publicar preferentemente en revistas de alto factor de impacto. Pero publicar en revistas de factor de impacto alto no es necesariamente garantía de calidad: casi siempre tendrá más originalidad y utilidad un artículo altamente citado, publicado en una revista de menor impacto, que otro artículo menos citado, pero publicado en una revista de mayor impacto. Sí son indicadores de calidad un número elevado de citas recibidas en función del campo científico, los efectos que ese trabajo o conjunto de trabajos hayan tenido en la ciencia, la sociedad o la tecnología, e incluso su impacto en medios de comunicación, redes sociales y público. Pero todo eso resulta más difícil de medir.

Evaluar la excelencia de una contribución científica en base a sus efectos reales en lugar del impacto medio de la revista supone una concepción rompedora y transversal. Es una definición de ciencia excelente como ciencia útil -que no utilitarista-, en el sentido más amplio y genuino de la palabra (que produce provecho, servicio o beneficio). La excelencia se lograría tanto por generar obras que dan un servicio al avance del conocimiento (medible por las citas, por ejemplo) como por la transferencia (aplicaciones, patentes), o su efecto sobre la sociedad (regulaciones, debate público). Esta definición de excelencia estaría al alcance tanto de la ciencia más básica como de la más aplicada.

¿Por qué no hay más contribuciones de excelencia?

Los científicos con un puesto público de carácter indefinido pueden optar cada seis años de manera voluntaria al reconocimiento del famoso “sexenio de investigación”. Para lograrlo, basta con describir cinco aportaciones publicadas en esos seis años, señalando indicadores de (supuesta) calidad tales como la posición relativa y factor de impacto de la revista en su campo, el número de citas recibidas por el trabajo, y por qué consideran importante su contribución. La otra forma periódica de evaluación, también voluntaria, son las convocatorias competitivas de fondos para desarrollar proyectos de investigación, principalmente lo que se conoce como el “Plan Nacional”.

En esas evaluaciones se juzga lo original y relevante de la propuesta, su viabilidad, y los méritos y capacidades del equipo investigador, es decir, otra vez pesan las publicaciones y sus factores de impacto. Si el científico en cuestión pertenece a un grupo de investigación del CSIC o de algunas universidades, es probable que ese grupo, o el instituto/departamento al que pertenece, también sea evaluado periódicamente, casi siempre con indicadores parecidos a los que, en todo caso, suelen añadirse datos sobre consecución de proyectos y contratos, formación de doctores, y divulgación. En definitiva, acostumbramos al investigador a asegurarse evaluaciones positivas apostando por lo seguro, no por el riesgo.

Esto lo describió Alonso Rodríguez Navarro, para quien la presión de las evaluaciones basadas en los factores de impacto y el número de publicaciones empujan al investigador español a especializarse en publicar trabajos poco citados en revistas con alto factor de impacto (el tercio superior del montón), lo que es relativamente fácil en grupos bien establecidos y conlleva menor riesgo de fracaso que investigar en la frontera del conocimiento.

Las consecuencias son dramáticas: aunque producimos más o menos el volumen de ciencia que corresponde a nuestro desarrollo y población, firmamos en proporción menos artículos de excelencia, del 1% más citado, o incluso del 0,2% más citado, que los investigadores de los Países Bajos o del Reino Unido, por ejemplo. En lógica consecuencia, tampoco contamos con premios Nobel en ciencias, recientes (Figura 2). Si lo miramos al revés, producimos entre todos (y nos incluimos) un 99% de ciencia de escaso impacto y con poco potencial para la transferencia tecnológica, la morralla. Citando a Alonso Rodríguez Navarro, “en España hay poca transferencia de conocimientos porque lo que no se genera no se puede transferir”.

Esto tiene remedio

A estas alturas del artículo ya habrá muchos lectores enfadados por no valorar el mérito y la contribución de los artículos modestos al conjunto del montón: sin base no hay montaña y sin morralla no hay caldo, y así es. No se trata de reducir el montón de morralla, pues sería contraproducente, sino de pescar un atún rojo de vez en cuando. Para eso es necesario dar un paso más, buscar que una pequeña parte del montón evolucione a pico, un pico difícil de alcanzar, incluso poco probable, pero que permita dar vista a una ciencia española y europea más rompedora y verdaderamente capaz de actuar como motor tecnológico e industrial.

Entre los muchos errores cometidos en los intentos para estimular la ciencia española está el “sexenio de transferencia”. Esa evaluación mezcla méritos en formación de investigadores, creación de 'startups', comités de evaluación, patentes, contratos y divulgación y acaba, como el de investigación, creando un aliciente relativamente accesible y por tanto ajeno a la excelencia: en su prueba piloto se aprobó el 42% de 16000 solicitudes. Seamos sinceros: los sexenios de investigación o de transferencia sirven para motivar al investigador medio y mantener el tamaño del montón, pero no para fomentar lo retador y excepcional, la excelencia.

No hay varitas mágicas o recetas para alcanzar la ciencia excelente. La meritocracia y su evaluación es fundamental para avanzar en este proceso. En consonancia con lo expuesto, un primer cambio consistiría en basar las evaluaciones de investigadores y grupos más en citas (ponderadas por área) que en el impacto de las revistas, así como en valorar mejor el impacto de las contribuciones en la sociedad y la tecnología. Otra vía plausible consiste en dar tranquilidad -tiempo para pensar- a los investigadores, sobre todo a los jóvenes con mucho potencial. Eso pasaría por no hacerles padecer la presión continua del “publish or perish”, por ejemplo, estableciendo un valor equivalente para una contribución de excelencia (cualquiera que sea el criterio para identificarlas) que para varias publicaciones en revistas de alto impacto.

Tranquilidad también en cuanto a la gestión, ya que desburocratizar la ciencia española es una necesidad imperiosa que no se aborda. Y, por supuesto, tranquilidad en cuanto a financiación de la ciencia. Ponernos el objetivo de alcanzar en 10 años ese 3% de inversión en I+D+i de nuestros principales competidores europeos es, directamente, tirar la toalla, pues para entonces esos competidores ya habrán subido nuevamente su apuesta. Otra vía, no menos importante, pero bastante improbable en nuestro contexto, consiste en favorecer la competencia entre universidades. En EEUU y en el Reino Unido, las universidades compiten entre sí por fichar a los mejores investigadores. Los resultados están a la vista.

*Christian Gortázar y José de la Fuente son investigadores de Sanidad y Biotecnología. Instituto de Investigación en Recursos Cinegéticos IREC, Universidad de Castilla La Mancha y CSIC.

Reino Unido Consejo Superior de Investigaciones Científicas (CSIC)
El redactor recomienda