En varias ocasiones he comentado en este espacio los aspectos negativos de la evaluación del trabajo científico basada única o principalmente en el número de las publicaciones. Este ``sistema'' de evaluación fue puesto de moda hace ya más de dos décadas por Eugene Garfield, director del Institute for Scientific Information(ISI), una empresa norteamericana dedicada a explotar comercialmente la información científica. Garfield inventó un ``sistema'' para evaluar el trabajo científico sin tener que leerlo.
El negocio empezó con la publicación de un semanario llamado Current Contents, que al principio era un pequeño folleto en donde se reproducían los contenidos de los últimos números de las principales revistas científicas, lo que resultaba útil para enterarse en un rato de los títulos de los artículos que se estaban publicando sobre distintas áreas, incluyendo la de nuestro interés específico.
Desde el principio el ISI tuvo un éxito fenomenal, porque respondía a una necesidad real de los investigadores, creada por la nueva cultura del ``publica o perece'', que a su vez fue la consecuencia natural de la transformación de la ciencia, de una ocupación privada de un grupo pequeño de académicos ilustrados (como lo fue hasta antes del Sputnik), en una actividad profesional pública y multitudinaria, altamente competitiva y con un creciente presupuesto oficial. Esto ocurrió en EU y en el resto del mundo occidental, y por lo tanto también en nuestro país, aunque como siempre los mexicanos nos incorporamos a la onda de la ciencia y la tecnología con cierto retraso (Sputnik ocurrió en 1957, Conacyt se creó en 1970, y en 1997 la inversión anual de México en ciencia y tecnología todavía no rebasa el 0.4 por ciento del producto interno bruto (PIB), cuando la UNESCO recomienda que los países en desarrollo inviertan el 1.5 por ciento del PIB en ese renglón, y nuestra meta para el año 2000 es alcanzar el 1.0 por ciento).
La publicación del Current Contents se produjo al principio de la explosión en la informática electrónica, que fue aprovechada por Garfield para generar un formidable banco de datos sobre las publicaciones científicas en la mayoría de las revistas periódicas importantes del mundo occidental. Esto le permitió crear otros dos índices (además del número de publicaciones) para evaluar la calidad de los trabajos científicos sin tener que leerlos: el número de citas que se hacen en la literatura académica sobre un artículo, y el ``factor de impacto'', un número que refleja la importancia de la revista en donde se publica y que se calcula con base en la frecuencia con que se citan los trabajos publicados en la revista calificada. De modo que el ``sistema'' de evaluación de Garfield (también conocido como ``análisis bibliométrico'') se basa en tres números: el de las publicaciones, el de las citas a cada una de ellas, y el ``factor de impacto'' de las revistas en donde aparecieron los artículos. No todos los investigadores están satisfechos con la evaluación puramente numérica de la calidad del trabajo científico. Las críticas al ``sistema'' de Garfield han ido en aumento desde hace tiempo; en varios países europeos (Inglaterra, Alemania) fue rechazado desde el principio; en EU ha sido abandonado formalmente por muchas de las más prestigiadas universidades, y tanto en este como en otros espacios otros colegas y yo hemos reiterado nuestro disgusto con su uso indiscriminado.
Una protesta reciente en nuestro medio la hizo el doctor Carlos Larralde, director del Instituto de Investigaciones Biomédicas de la UNAM y un distinguido investigador. En el número de diciembre del año pasado de Biomédicas, noticiario del mencionado Instituto, el doctor Larralde publicó una breve pero elocuente nota, en la que después de dolerse de la desmesurada atención al currículum en lo numérico, y de señalar varias de sus consecuencias negativas (como la fragmentación de los trabajos en varios artículos, la repetición más o menos encubierta de experimentos u observaciones similares, la persecución de verdades casi seguras y por lo tanto casi triviales, o la perpetuación de esta patología científica en los estudiantes, que lo aprenden de sus profesores, entre otras), nos dice: ``La investigación es, en esencia, una aventura del hombre ante el mundo físico que nos rodea y ante nosotros mismos en búsqueda de conocerlo y controlarlo y de conocernos y controlarnos. Por definición, la aventura está en conflicto con la seguridad; así también lo está el asombro del hallazgo con la confirmación de lo previsto. Lo difícil es combinar ambas realidades. La legítima aspiración a una vida cotidiana digna con los riesgos de la auténtica exploración. El doctor Larralde termina señalando que él no tiene una fórmula universalmente válida para resolver el conflicto, y nos invita a reflexionar sobre su posible solución. Mi opinión es que la evaluación de la calidad de la investigación científica no sólo es absolutamente indispensable, sino que además todos los miembros activos del gremio la hacemos, pero no contando el número de las publicaciones sino leyéndolas como se debe: con atención y en forma crítica y respetuosa.