VALENCIA. A los científicos también nos gusta la fama, tanto como al que más. Además, para progresar en la carrera, hay que tener un buen CV, o sea, fama. El problema es que, si hasta ahora el sudor bastaba para pagarla, ahora resulta que además hay que pagar... dinero. Y eso hace que la fama ya no esté al alcance de todos, y en particular de los cuatro idiotas que quedamos intentando hacer ciencia en España.
En un post que cito recurrentemente, titulado "El impacto del papel couché en la ciencia", ya hablé un poco de como se evalúa a los investigadores y del papel que publicar en ciertas revistas tiene en dicha evaluación. En concreto, del papel que juegan Nature, Science, Proceedings of the National Academy of Sciences (PNAS), Cell, Physical Review Letters, y algunas más, que tienen un factor de impacto alto. Qué es esto del factor de impacto, se preguntará usted. Pues bien, es una medida de lo relevantes que son las publicaciones de una revista. Los detalles se recogen en el artículo de Wikipedia citado, pero para nuestro propósito basta saber que es el número medio de veces que los artículos de una cierta revista son citados en un período de dos años.
Este numerito, que privilegia a unas ciertas revistas científicas sobre otras, ha adquirido mucho peso porque ha facilitado la evaluación (apresurada) de los currícula de los investigadores, centrada sobre todo en los artículos que ha publicado. Básicamente, lo que los evaluadores quieren es estimar cómo de buenos son los trabajos del examinado (con cuidado, porque el orden de los autores de cada artículo importa), y como debido a la especialización de la ciencia es muy difícil que puedan apreciar las sutilezas de su investigación, se remiten a parámetros externos.
Uno de ellos viene dado por las citas que los trabajos del examinado han recibido. Eso, desde luego, sí parece que mide de alguna manera cuánta gente ha leído y encuentra relevantes o útiles los artículos en cuestión. Aunque está por ver que realmente las citas seleccionen artículos científicamente importantes o meramente metodológicos, algo que podría discutir otro día viendo los 100 artículos más citados de la historia (el artículo más citado, con más de 300 000 citas, es sobre un método para detectar proteínas en disoluciones de 1951, ya obsoleto, y cuyo primer autor reconoce que no es un gran paper; en comparación, el artículo de Watson y Crick sobre la estructura del ADN "solo" tiene unas 5200 citas). Y el otro es el ver cuántos de esos artículos han aparecido en revistas de alto impacto como las citadas, "el papel couché de la ciencia".
Este último parámetro de evaluación es, simple y llanamente, un completo disparate. No quiero aburrirle mucho con esa discusión, amigo lector, pero si habla inglés le remito a la Declaration on Research Assesment (DORA) (y le animo a firmarla, de paso), en la que se pide un cambio en la manera de evaluar la investigación y se razona por qué el factor de impacto es malo. Otra estupenda discusión del tema aparece en las noticias de la American Physical Society, en concreto en este post sobre el síndrome del factor de impacto alto.
En este último caso, centrado en utilizar las publicaciones en papel couché para evaluar a los investigadores, pone el ejemplo de que es un disparate tan grande como decidir un fichaje de un jugador de fútbol (en su caso, de béisbol) viendo la calidad media del equipo en que juega. Realmente, utilizar estos criterios raya en la estupidez (pero véase la NOTA al final, y además, como ya he dicho más veces, no publicar en revistas de alto impacto tampoco es sinónimo de calidad), pero el caso es que por distintos motivos, se han impuesto, y los seguimos como borreguitos, e intentamos publicar en esas revistas, y que nuestros estudiantes lo hagan para que les vaya bien.
La verdad, es difícil salirse de esta rueda, sobre todo si tenemos en cuenta que es cierto que si uno publica en revistas de alto impacto es más fácil que su trabajo sea citado, y desde luego que los medios se fijen en él (véanse si no las revistas que suelen aparecer citadas en la prensa).
Pero este post ni siquiera va a entrar en que sea bueno o malo utilizar este criterio. Aceptaré pulpo como animal de compañía y asumiré, para el propósito del post y nunca más allá, que los investigadores con publicaciones en revistas de alto impacto son mejores. Bueno, pues como decía al principio, esto está muy bien, excepto porque está empezando a pasar que publicar en el papel couché ya no está al alcance de todo el mundo.
Para explicar este problema, empecemos por recordar que publicar artículos científicos es un negocio estupendo: los investigadores hacen el trabajo de investigar (investigación financiada casi siempre con dinero público), escribir los artículos, ver si están bien revisándolos, hacer de editores para las revistas, y las empresas simplemente recopilan los trabajos aceptados en números de revista, los cuelgan en una web, y cobran un pastizal por acceder a ellos.
En concreto, los cuatro grandes, Elsevier, Informa, Springer y Wiley se forran con sus revistas, hasta el punto de que la comunidad científica ha terminado por cabrearse y se han convocado varios boycotts contra estas empresas. Por su lado, los organismos financiadores han comprendido que la investigación financiada con dinero público debe ser pública, y están exigiendo cada vez más seriamente que se publique en el llamado acceso abierto, es decir, que cualquiera pueda leer los trabajos publicados.
Hecha la ley, hecha la trampa, así que los editores se están pasando poco a poco al acceso abierto... pero en la llamada modalidad gold. En esta modalidad, es el autor del artículo el que paga los supuestos costes de publicación, que dejan de recaer en el lector. Así, los trabajos son accesibles para cualquiera, pero la editorial se sigue forrando a costa del erario público, ya que el autor lógicamente no paga la publicación de su bolsillo sino que la carga a sus proyectos de investigación.
Hay casos, como el de la revista PLOS ONE, que es hoy la que más artículos publica en el mundo, donde los costes de publicación de los artículos ayudan a mantener el resto de revistas de la editorial PLOS (acrónimo de Public Library of Science, que sólo publica revistas en modalidad acceso abierto). Y hay otros casos en los que... bueno, ya se puede usted imaginar dónde va el dinero.
En estas estábamos, cuando el grupo Macmillan, editor de la famosa revista couché Nature, ve como PLOS ONE hace caja sin parar y decide diversificar el negocio, abriendo una nueva revista llamada Scientific Reports (de la que debo decir que soy editor, por el módico salario de un descuento del 20% si publico y una subscripción a Nature), de acceso abierto gold, en la que curiosamente los artículos tienen el mismo precio que en PLOS ONE: 1000 €. Más o menos por la misma época, inaugura otra revista llamada Nature Communications, que no es de acceso abierto en general (aunque existe la opción de pagar para que el artículo sea accesible), y publicar en ella no cuesta. Y tras unos pocos años de vida, Thomson Reuters (empresa que calcula los factores de impacto, de manera no exenta de dudas y suspicacias) empieza a asignar a ambos foros su factor de impacto. Así, Nature Communications recibe un factor de impacto (2013; se calcula cada año sobre los dos anteriores) de 10.742, superior al de algún couché famoso tradicional como PNAS, mientras que Scientific Reports obtiene 5.078, que está bastante bien, la verdad, pero claro, es menor, como el propio Rajoy nos haría ver.
Figura 1. Las diez primeras revistas en la categoría "multidisciplinares", es decir, que publican artículos de muchas o todas las disciplinas. La última columna es el factor de impacto, que se utiliza para ordenarlas.
Llegamos así al momento cumbre de la historia y del post. Vista la situación, Macmillan decide que ha llegado el momento de transformar Nature Communications en acceso abierto gold. Y lo transforma, estableciendo un precio por artículo de... 3700 €. Sí, amigo lector, casi cuatro veces lo que cobra por publicar en Scientific Reports. ¿Y cuál es la justificación de esta diferencia de precio? Ninguna. Si Macmillan edita en acceso abierto una revista a un precio, ya tiene la infraestructura y el conocimiento necesarios para hacerlo, y si tiene que contratar nuevo personal (que no, porque la revista ya tenía su propio personal) lo paga cobrando lo mismo que en Scientific Reports. No, estimado y sufrido lector, no. Por lo que Macmillan le cobra 3700 € es por el factor de impacto, que es la única diferencia entre ambas revistas.
Y claro, si ahora uno quiere hacerse un currículum de los que gustan a los evaluadores con síndrome de revistas de alto impacto, tiene que pasar por caja. Así de sencillo. Tan sencillo como que yo, que no soy inmune al síndrome y que estaba tan contento por haber publicado en Nature Communications el trabajo que comenté aquí, ya no puedo publicar en esa revista. Simplemente, no tengo ese dinero (aparte de que si lo tuviera tampoco lo pagaría, pero eso ya es mi conciencia; piénsese en todo caso que en los viajes a congresos y visitas de investigación que hago al cabo de un año entero suelo gastar menos que esa cantidad).
or tanto, la falta de dinero, no la falta de calidad científica, me estaría impidiendo acceder a uno de los medios de engordar mi currículum. Si recurrir a valorar las publicaciones en revistas de alto impacto era disparatado, ahora con este precedente es, además, injusto dado que no hay igualdad de oportunidades. ¿Qué más tiene que ocurrir para que dejemos de utilizar este criterio en las evaluaciones, y acabemos así con el perverso poder que un puñado de editores tiene sobre la ciencia como ya discutí en su día en el post del papel couché?
En lo que a mí respecta, ya me he quedado sin acceso a publicar en una de las revistas "top". Bueno, al menos, ¡ya tengo excusa!
NOTA: Decía más arriba que fijarse mucho en las revistas de alto impacto raya en la estupidez, y lo mantengo. En ese sentido, es interesante que mientras escribo esto veo que ha aparecido en NeG un post de Jesús discutiendo un currículum en términos de sus publicaciones, y aunque padece un poco del síndrome de revistas de alto impacto, hace una evaluación mucho más seria porque se ha mirado lo que ponen los artículos. Lo que pasa es que hay muchas situaciones en las que no hay más remedio que recurrir a evaluaciones basadas en citas o revistas. Por ejemplo, si uno tiene que mirarse 500 CVs, es humana y materialmente imposible examinar con cuidado todas las publicaciones de los interesados.
En estos casos, una primera criba para dejar la lista en algo razonable, del orden de 10 candidatos, pasa por fijarse en números de publicaciones, citas y otros índices numéricos como el h de Hirsch. La experiencia muestra que esto no suele ser muy pernicioso. Y una vez hecho eso, se entra a fondo en los CVs y en los trabajos de los finalistas, como bien hace Jesús, que por otro lado no hace más que lo que se hace en cualquier sitio medianamente serio, no es que él sea especialmente "friki" (al menos en estas cosas :-).
P.S. Por cierto, amigo lector, si es más masoquista de lo que creo, desde este mes puede tener ración doble de mi calenturienta imaginación, ya que por amable invitación de Investigación y Ciencia (¡propiedad de Macmillan!) he comenzado un blog llamado "Aquí hay dragones" en sus Scilogs. Allí nos veremos, si usted quiere.
________________________________________________
Este artículo es una reproducción autorizada de su original en el blog Nada es Gratis
Actualmente no hay comentarios para esta noticia.
Si quieres dejarnos un comentario rellena el siguiente formulario con tu nombre, tu dirección de correo electrónico y tu comentario.
Tu email nunca será publicado o compartido. Los campos con * son obligatorios. Los comentarios deben ser aprobados por el administrador antes de ser publicados.