11 de enero de 2017

Los artículos científicos rechazados en una revista acaban publicados en otra

Muchas revistas han publicado estudios sobre la vida de los artículos que han rechazado. El resultado indica que la mayoría acaba publicado en otra revista. Muchas veces en revistas de menor índice de impacto, aunque hay contadas excepciones. Muchos científicos quieren amortizar el trabajo dedicado a escribir un artículo publicándolo sea como sea.


Por ejemplo, un reciente estudio de la revista Clinical Otolaryngology sobre 917 manuscritos rechazados entre 2011 y 2013 (entre ellos 18 sin pasar por revisores) ha encontrado que el 55,7% han sido publicados en otras revistas (antes de 2015). El retraso medio en su publicación es de 15,1 meses (con desviación típica de 8,8 meses). De los 511 artículos publicados, solo 41 lo han sido en revistas de mayor impacto. Más aún, 60 se han publicado en revistas que no aparecen en PubMed, pero sí en Google Scholar.

El nuevo artículo es C H Earnshaw, C Edwin, …, S C Leong, “An Analysis of the Fate of 917 Manuscripts Rejected from Clinical Otolaryngology,” Clinical Otolaryngology (29 Dec 2016), doi: 10.1111/coa.12820; me he enterado gracias a “What Happens to Rejected Papers?” Neuroskeptic, 03 Jan 2017.

Por cierto, la mayoría de los expertos en bibliometría recomiendan enviar a otra revista todos los artículos rechazados, incluyendo los cambios sugeridos por los revisores, si los hubiese (por ejemplo, Stephen K. Donovan, “The Importance of Resubmitting Rejected Papers,” Journal of Scholarly Publishing 38: 151-155 (2007), doi: 10.3138/W706-5884-KG84-J282). También lo recomiendan los propios científicos (John P. A. Ioannidis, Athina Tatsioni, Fotini B. Karassa, “Who is afraid of reviewers’ comments? Or, why anything can be published and anything can be cited,” European Journal of Clinical Investigation 40: 285–287 (2010), doi: 10.1111/j.1365-2362.2010.02272.x).


Muchos otros estudios han obtenido resultados similares. Por ejemplo, entre 644 manuscritos rechazados en la revista Cardiovascular Research entre 1995 y 1996, se encontró que 301 (47%) se habían publicado entre 1996 y 1998 en revistas indexadas en la base de datos Ovid (si hoy se buscaran en Google Scholar seguro que se supera el 50%). Por cierto, solo 7 de los 301 artículos se publicaron en revistas de mayor índice de impacto. Más detalles en Tobias Opthof, Fred Furstner, …, Ruben Coronel, “Regrets or no regrets? No regrets! The fate of rejected manuscripts You have access,” Cardiovascular Research 45 (1 Jan 2000), doi: 10.1016/S0008-6363(99)00339-9.


Las megarrevistas científicas (megajournals), como PLoS ONE, Scientific Reports, etc., publican decenas de miles de artículos al año (en 2016, PLoS ONE ha publicado unos 25000 artículos y Scientific Reports, a la saga, unos 21000). Su tasa de aceptación es muy alta, entre el 51% y el 69% de todos los artículos que reciben. Las revistas más prestigiosas aceptan menos del 20% de los artículos (por ejemplo, Nature acepta menos del 7%, aunque redirige muchos artículos rechazados a otras revistas del NPG). Se suele decir que la revisión por pares de las megarrevistas es muy laxa (solo se exige una metodología apropiada, olvidando conceptos como relevancia o impacto potencial). Sin embargo, esta tasa de aceptación no es alarmante si más del 50% de todos los artículos rechazados en revistas con revisión por pares acaban publicados en otras revistas.

El prestigio de una revista está correlacionado con su índice de impacto. Este depende de unos pocos artículos que son muy citados; siendo la inmensa mayoría de sus artículos poco citados, e incluso nunca citados. ¿Influye que la revisión por pares sea laxa en la distribución de citas a artículos? Los estudios realizados hasta ahora parecen indicar que no influye (o no lo hace de forma apreciable). Eso sí, en las evaluaciones de científicos está mal visto que todas sus publicaciones estén en megarrevistas; se recomienda combinar artículos en revistas de alto impacto (aunque sean más lentas) y en megarrevistas (porque son mucho más rápidas). Nunca hay que olvidar que a los científicos los evalúan otros científicos. La figura y más información en Bo-Christer Björk, Paul Catani, “Peer review in megajournals compared with traditional scholarly journals: Does it make a difference?” Learned Publishing 29: 9–12 (01 Jan 2016), doi: 10.1002/leap.1007.

Por cierto, según el Web of Science, solo teniendo en cuenta los artículos publicados en el año 2016, a día de hoy (07 de enero de 2017), el índice-h de la revista Nature es de 30, el de Science es de 28, el de PNAS es de 16, el de Scientific Reports es de 13 y el de PLoS ONE es de 8.

Autor: Francisco R. Villatoro 
Twitter: <@emulenews>
Fuente: <http://francis.naukas.com/>
Publicar un comentario