Project details

Uno de los objetivos de todo científico es publicar sus trabajos en importantes y prestigiosas revistas científicas pero, ¿cómo se “mide” la importancia de las revistas científicas? Uno de los recursos más conocidos y utilizados en la actualidad es el llamado factor de impacto, calculado cada año por el Instituto de Información Científica (ISI o Institute for Scientific Information).   Podemos decir que el factor de impacto es una manera de evaluar y contrastar las diferentes publicaciones científicas: nos da una medida de su importancia. Para ello, se basa en el número de citas que han recibido los artículos de una revista en los dos años posteriores a su publicación: el factor de impacto será mayor cuanto mayor sea el número de citas recibidas.

El factor de impacto está aceptado por la comunidad científica, y se utiliza con frecuencia para estudiar la significación de las revistas científicas pero, ¿es realmente un buen indicador? ¿Se puede utilizar sin más? Hay varios aspectos relacionados con el cálculo de este factor que causan controversia. Lo primero destacable es que el ISI calcula el factor de impacto sólo para las revistas a las que hace seguimiento, es decir, para las revistas que tiene en su base de datos. Es cierto que en general se considera que las revistas incluidas en la base de datos del ISI están entre las mejores del mundo de sus respectivas especialidades pero también hay quien recuerda que, en lo que respecta a su cantidad, representan un bajo porcentaje del número total de revistas científicas existentes. Otro punto polémico es el periodo de tiempo estipulado (“ventana” de 2 años posteriores a la publicación de la revista) para realizar el cálculo del factor de impacto. Muchos detractores de este indicador aseguran que no es posible limitar temporalmente la calidad de un documento, además de que no en todas las disciplinas científicas es posible incorporar nuevos avances tan rápidamente, por lo que no debería ser igualmente válido para todas las áreas científicas. La tercera cuestión criticable es el propio sistema de cálculo del factor de impacto, basado en el número de citas. Es sabido que el número de citas habitual utilizado en los artículos de algunas disciplinas científicas es mucho más alto que en otras. Además, es común que las revistas de un área científica citen artículos publicados por revistas de la misma área, por tanto, ¿es justo que se comparen todas las revistas de cualquier disciplina científica de esta forma? Por ejemplo, el número de referencias o citas a otros trabajos en los documentos de matemáticas suele ser bajo, por lo que, en promedio, los artículos publicados en revistas de matemáticas recibirán pocas citas y su factor de impacto será bajo. Sin embargo, en los artículos de otro campo como la bioquímica ocurre lo contrario, ya que es habitual incluir muchas referencias. Esto supone que los trabajos publicados en revistas especializadas en bioquímica recibirán también muchas citas y su factor de impacto será alto. Es fácil darse cuenta de que comparar revistas de matemáticas y de bioquímica (siguiendo el ejemplo) únicamente en base al factor de impacto no sería una buena idea. De hecho, en general nunca no es buena idea utilizar el factor de impacto para comparar revistas de diferentes áreas científicas, ya que cada una tiene sus particularidades.

El creador del factor de impacto, Eugene Garfield, ya advertía que este indicador debe utilizarse de forma conjunta con otros, además de analizar cada caso con detalle. Esto significa que el factor de impacto es “una” ayuda a la hora de medir la importancia de las publicaciones científicas, pero no debe ser “la” única forma de hacerlo. Lamentablemente, es habitual el uso de este indicador como único criterio en este tipo de estudios, además de que es probable que gran parte de sus usuarios ni siquiera sepan en qué se basa su cálculo.