miércoles, 14 de julio de 2010

La producción científica (I)

¿Qué producen los científicos? ¿Por qué se les paga (aunque poco y mal)? En principio la producción científica es algo tan etéreo como el conocimiento; pero en este mundo de capitalismo y libre mercado se necesita un producto tangible y valorable monetariamente. Así, las empresas e instituciones pagan a los científicos por patentes, fármacos, OMGs,...

Sin embargo, el grueso de la producción científica es el artículo publicado en revistas especializadas. Era este un modo con el que hace años los científicos se comunicaban sus hallazgos entre sí, junto con los congresos y la correspondencia. Pero hoy se ha convertido en la forma en la que se evalua si un científico está haciendo el trabajo por el cual se supone que se le remunera y en qué cuantía lo está haciendo. En muchos casos, los científicos han pasado de ser investigadores a ser redactores.

Y redactar un artículo científico no es la parte fácil del trabajo. Empecemos por que, por lo general, para ser tenido en cuenta, debe ser publicado en una de las revistas que en jerga interna llamamos SCI (Science Citation Index), pero de él hablaremos más adelante. Estas revistas suelen exigir un esquema estándar para los artículos de resumen o abstract, introducción, material y métodos, resultados, discusión y referencias. Cada parte del artículo tiene condicionantes en número de palabras, formatos de fuente, formatos de citas, formatos de figuras, etc, distintos en cada publicación. El esquema no es malo, solo responde a la necesidad de rigor y claridad de la comunicación científica. El resumen debe contener en pocas palabras lo más llamativo de los resultados; la introducción describe el estado del conocimiento respecto al tema del artículo hasta el momento y los objetivos principales del estudio; el material y métodos, una descripción pormenorizada del proceso experimental, sustancias utilizadas, condiciones, variables, análisis estadístico, etc; los resultados enuncian de palabra y gráficamente los datos obtenidos; la discusión contiene comparaciones con resultados de otros estudios, implicaciones más amplias de estos, recomendaciones para próximas investigaciones, etc; y las referencias, el listado completo de la bibliografía citada en el resto del texto. Quizá esta es la primera traba, aunque necesaria, para la publicación: la monotonía. Se repite el esquema una y otra vez, se terminan por copiar párrafos enteros en la introducción que funcionaron antes en artículos publicados de la misma línea de investigación, no hay espacio para la creatividad, la elucubración o las propuestas arriesgadas. Hay propuestas para suavizar la, en ocasiones, insufrible lectura de los artículos. Pero la realidad es que la carrera contrareloj de la publicación no permite muchas licencias de originalidad.

Como mencionaba antes, los artículos deben estar publicadas en las llamadas revistas SCI para ser tenidos en cuenta. El SCI o fue inventado por Eugene Garfield, fundador del entramado del Institute for Scientific Information (ISI) de Thomson Reuters. El SCI no es más que el número de citas que reciben los artículos de una revista respecto al número de artículos totales publicados por esa revista en un periodo de dos años Y, ¿de qué revistas? Pues de un selecto grupo de revistas que, a juicio de Thomson Reuters, son merecedoras de incluirse en el Journal of Citation Reports (JCR). El JCR viene a ser el hit parade de las publicaciones científicas, basado en el factor de impacto, como popularmente se conoce al SCI, de cada una de ellas y, por tanto, una medida de tu calidad como científico: cuanto más alto sea el factor de impacto de la revista en la que publicas, mayor prestigio para ti. Pero no solo eso, sino que además, mayores posibilidades de que tu artículo sea leído y, por tanto, mayor probabilidad de que sea citado. El factor de impacto es, finalmente, la valoración de la producción científica de un investigador; y, como todo valor, es susceptible de ser objeto de especulación.

Veamos. El factor de impacto no es más que una medida de lo popular que eres entre los colegas científicos y no necesariamente una medida de la calidad de tus trabajos, de tu honestidad o de tu brillantez. Es simplemente una proporción entre el número de citas que has recibido respecto al número total de artículos que has publicado. sin embargo, se presupone que esto conlleva una valoración de lo importante que es tu trabajo. Ejemplos hay de que esto último no siempre es así.

Tenemos por un lado la coautoría de los artículos. La investigación es un trabajo colectivo y como tal se refleja en las autorías de los artículos. El orden de autoría suele variar dependiendo de autorías intelectuales. Pero, como he dicho antes, al ser el factor de impacto un valor, la autoría es un campo de especulación para aumentar el prestigio de uno. Así nos encontramos autorías obligadas de investigadores principales de proyecto, de amigos, de equipos enteros de publicación, directores de tesis, departamentos enteros; y en definitiva de gente que no ha colaborado en nada del trabajo o solo en poner su nombre, pero que con un artículo más publicado puede aumentar su factor de impacto. Lo de los coleguitas es otra historia muy provechosa: yo te cito a ti y tú me citas a mí. Te puedes autocitar en tus siguientes artículos.

Todo esto, obviamente, da poca fiabilidad al factor de impacto como medida bruta de originalidad, brillantez y calidad. De hecho, lo que más me ha sorprendido, es que, en ocasiones, se copian listas de citas literalmente de unos artículos a otros. Esto es una práctica nada ética porque se supone que todo lo que citas te lo has leido y con conocimiento de causa; además de incrementar las citas de artículos que a lo mejor vienen de citar a amigos, recibiendo una preponderancia que no les corresponde.

Con todo esto no quiero decir que los índices bibliométricos sean solo basura. Solo quiero decir lo que muchos investigadores ya saben: que medir la calidad investigadora de un científico solo con el factor de impacto es lo mismo que medir la calidad de vida de un pais solo con el PIB. Aún así, seguimos sometidos a esta tiranía que genera y alimenta sus propios vicios.

Continuará...

Lecturas recomendadas



1 comentario:

  1. Ya... y sin embargo, las cosas se ponen aún peor cuando la calidad científica no se mide así. Los concursos de plazas de investigación en los que también se tienen en cuenta publicaciones no indexadas, o incluso no sometidas a revisión por pares, terminan irremisiblemente con la elección del candidato "de la casa". Hay ejemplos muy cercanos (en el tiempo) allí de donde tú y yo venimos...
    Por cierto, cojonudísimo el artículo de las citas y la probabilidad de highly cited articles

    ResponderEliminar