27 de junio de 2016

Chile -> El Napster de la ciencia

Se llama Sci-Hub y, en lugar de compartir música de manera gratuita, accede a las bases de datos de prestigiosas revistas científicas y piratea sus estudios. Su creadora es Alexandra Elbakyan, quien actualmente enfrenta una demanda en Estados Unidos, y ha impulsado el debate sobre cómo circula la información, además de poner en tela de juicio un negocio que cada año genera 10 mil millones de dólares en ganancias.

Alexandra Elbakyan ha sido comparada con Edward Snowden, el consultor tecnológico estadounidense que trabajó para la CIA y que en 2013 filtró información clasificada sobre las redes de inteligencia de su país. Al igual que él, esta desarrolladora de software e investigadora de 27 años es una heroína o una ladrona, dependiendo a quién se le pregunte, y actualmente está demandada por la justicia de Estados Unidos. A diferencia de Snowden, ella no filtró secretos de seguridad nacional, sino que ha liberado miles de datos y descubrimientos científicos para que estos puedan ser utilizados en el desarrollo de nuevas investigaciones.  

Elbakyan nació en Kazajistán y eso explica buena parte de esta historia. Cuando niña se entusiasmó con la ciencia y la computación y dado que en su país el acceso a internet era limitado, desarrolló un talento inusual para hackear redes y piratear los libros y películas que quería leer y ver. Después de trabajar en Moscú en seguridad informática, juntó dinero y se fue a Alemania a la Universidad Albert-Ludwigs de Freiburg, donde participó en un proyecto sobre interfaces entre cerebro humano y máquinas. Al volver a su país en 2011, quería seguir investigando pero como ya no estaba amparada por una gran universidad empezó a tener problemas para acceder a los estudios de referencia que necesitaba para estar al día en su área.

La mayoría de esos artículos (o papers) se encuentran en revistas científicas de gran renombre, como por ejemplo Nature o The Lancet, que velan porque la información que estos entregan sea seria, confiable y relevante. Gran parte de esas publicaciones son propiedad de conglomerados editoriales como Elsevier de Holanda y Springer de Alemania, que dominan un negocio que genera ganancias anuales de cerca de 10 mil millones de dólares y que, en algunos casos, pueden cobrar cerca de 20 millones de pesos por una suscripción anual a una revista y alrededor de 20 mil pesos por un artículo específico.

Como Elbakyan no tenía presupuesto para pagar eso, empezó a hackear los sitios web de varias publicaciones. A poco andar se dio cuenta de que en todas partes había otros como ella, que en esa misma época usaban Twitter para pedirse ayuda vía el hashtag #IcanhazPDF, creado en 2011 por la investigadora cognitiva Andrea Kuszewski como un “acto de desobediencia civil” y como una forma de alentar a los autores de artículos pagados a compartir copias de los mismos en formato PDF.  El hashtag hasta hoy opera como un código a través del cual alguien le pide al resto de la comunidad un paper específico.
“Los investigadores de muchos países están totalmente al margen del conocimiento científico, porque sus universidades no se suscriben a estas revistas. Incluso en Estados Unidos no todas las instituciones pueden pagar lo que piden las editoriales. Eso sin contar que el público no académico queda completamente fuera, ya sean científicos aficionados, inventores, estudiantes de liceos, periodistas o, simplemente, gente a la que le gustaría aprender más pero no está afiliada a ninguna organización científica”, explica a Tendencias la joven kazaja vía email y desde un lugar que no revela. 
 Alexandra Elbakyan,
durante una conferenci
a
Elbakyan consideró que el hashtag en Twitter no era insuficiente y diseñó Sci-Hub, un sitio web que piratea artículos publicados en las revistas pagadas y los comparte gratuitamente. Este portal es perseguido por la justicia y ha levantado un fuerte debate en torno al acceso al conocimiento científico, más todavía cuando este es financiado con fondos públicos.

Controversia abierta

Hoy Sci-Hub ofrece de forma gratuita más de 50 millones de estudios y cada día se descargan unos 150 mil. Si un usuario pide un artículo que no está en el sistema, Sci-Hub hackea las revistas de Elsevier y otras compañías para encontrarlo, se lo entrega, lo almacena y la base de datos del portal, que funciona con donaciones, sigue creciendo. Un análisis de la revista Science muestra que las descargas en Sci-Hub son globales y que aunque países como Irán o India las lideran, Estados Unidos ocupa el quinto lugar en la lista y un cuarto de las peticiones de estudios provienen de países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). Según la misma revista, por ejemplo, entre septiembre de 2015 y febrero de 2016 se descargaron casi 300 mil artículos en Santiago de Chile.

Ante ese nivel de tráfico, en 2015 Elsevier demandó a Elbakyan ante una corte de Nueva York. La empresa la acusa de infracción a los derechos de autor, fraude informático y de operar una “red internacional de piratería”, una historia que tiene un trágico antecedente en Aaron Swartz. En 2011, este programador estadounidense de 26 años fue acusado de robo de datos y de usar las redes del MIT para hackear el acceso a millones de estudios de la base de datos JSTOR. Aunque no llegó a compartir los documentos, se suicidó antes de su juicio en 2013.

Una extradición está dentro de las posibilidades, pero Elbakyan -quien hoy estudia una maestría en historia de la ciencia- no se rinde y aunque un juez en Estados Unidos ordenó bajar el dominio original del sitio (Sci-Hub.io), ella simplemente cambió su ubicación (Sci-Hub.cc). Al respecto, John Tagler, vicepresidente de la Asociación de Editoriales Americanas que agrupa a varias de las empresas del rubro, afirma tajantemente a Tendencias que Sci-Hub es una “organización pirata involucrada en el robo masivo de material con derecho de autor”.

Su dueña tiene otra opinión y argumenta que el portal impulsa el avance de la ciencia. “El derecho de autor crea incentivos  para que la gente restrinja la distribución de conocimiento con el fin de ganar dinero. Por eso lo veo como una amenaza seria al desarrollo de la investigación y la educación. Robo es lo que hacen las editoriales; ellas hurtan el conocimiento público para obtener ganancias”, dice. Además, apela al artículo 27 de la declaración de Derechos Humanos de Naciones Unidas, que dice que “toda persona tiene derecho a tomar parte libremente en la vida cultural de la comunidad, a gozar de las artes y a participar en el progreso científico y sus beneficios”.

La disputa evidentemente ha llamado la atención de la comunidad involucrada y de los medios. Diarios como The Washington Post han llegado a plantear que Elbakyan está generando una revolución similar a la de Napster, el servicio que permitía intercambiar música de manera gratuita pero ilegal que tuvo que cerrar y pagarles a las discográficas, pero  que por otra parte transformó esa industria. También la han comparado con Robin Hood, paralelo que a Elbakyan no le desagrada. “Él era un buen tipo que ayudaba a los pobres. Normalmente, el gobierno hace el trabajo de Hood a través de los impuestos. La gente rica los paga y ese dinero va a los pobres, para asegurarse que todos los miembros de una sociedad tengan el mismo nivel de oportunidades. Si este sistema no funciona y naces en una familia pobre, sin importar cuánto trabajes seguirás siendo pobre. Cuando eso ocurre, la sociedad necesita Robin Hoods que hagan justicia”, afirma Elbakyan.

Las editoriales se defienden señalando que sus costos se justifican en las inversiones como el entrenamiento y el manejo de las personas y especialistas (pares) que revisan cada estudio que permiten que las revistas sean rigurosas y el manejo de sus bases de datos. “Es cierto que las revistas se vuelven cada vez más caras y que el acceso se torna más restringido. Esto va contra la ética básica de la ciencia, que se basa en compartir datos. Pero es importante recalcar que esto no justifica quebrantar la ley. Es la ley la que hace que gente con distintas opiniones viva en una misma sociedad. Cualquiera que socave las reglas hace más daño que bien. Si Elbakyan cree que sus acciones son justificadas, debería defenderse ante una corte”, dice a Tendencias el ingeniero Steven Aftergood, director de una división de la Federación Estadounidense de Científicos que se dedica a promover el acceso público a la información.

Apoyo científico

Para acceder a los contenidos que después libera, Sci-Hub ocupa una serie de claves que han sido robadas del mismo modo en que los hackers obtienen información financiera de los clientes de los bancos. Pero también tiene varias que han sido donadas por investigadores partidarios de la causa. “Los científicos en general apoyan lo que hace el sitio”, dice Elbakyan y no se equivoca completamente.

Aunque muchos integrantes de la comunidad objetan los métodos ilegales que usa Sci-Hub, sí creen que su popularidad es síntoma de los problemas de fondo en la entrega de la información científica. Entre ellos está Heather Sparks, directora de SPARC –organización que aboga por el acceso abierto a la investigación-, quien desde Estados Unidos aclara que no avala los métodos pero sí entiende la masificación del portal. “Es una espantosa representación del rincón hacia el cual  muchos miembros de la comunidad científica se sienten arrastrados. Ellos simplemente no pueden pagar el alto precio que implica acceder a los artículos que requieren para hacer su trabajo de forma eficiente. No pueden ignorar esos artículos y esperar que su propia investigación sea creíble; es material esencial para sus estudios”, dice y cuenta lo que sucedió cuando en una charla reciente le pidió a un científico que entrara al sitio. “Cuando descubrió que podía obtener sus propios estudios sin pagar se emocionó tanto que empezó a enseñarle a la audiencia cómo usarlo”, dice.

La pregunta es por qué si hay investigadores que apoyan el libre acceso a la investigación, tratan de instalar sus artículos en estas revistas que, además, cobran a los científicos entre uno y dos millones de pesos por publicar sus estudios. Para eso hay que entender que en el mundo académico y de la investigación el prestigio y la obtención de financiamiento pasan por difundir sus estudios en las revistas de mayor reconocimiento, que son en buena parte las que cobran por acceso. Entonces, restarse de ese sistema puede afectar la trayectoria profesional. “Hoy estos ranking de publicaciones y de productividad se han convertido en fetiches. Eso no es bueno porque el investigador se convierte en un esclavo de esa función y todos los fondos que recibe se basan en su capacidad de colocar sus artículos en ciertas revistas”, señala el médico Flavio Salazar, vicerrector de investigación de la Universidad de Chile.

Un elemento que complica más este conflicto es que muchos de los estudios publicados en esas revistas son financiadas con fondos públicos para la investigación que tienen los distintos países, como por ejemplo el Fondecyt chileno. Este escenario explica que en los últimos años hayan tomado fuerza y se estén diversificando las iniciativas de “acceso abierto” que empujan un cambio similar al de Sci-Hub pero legal,  a través de revistas y sitios que ofrecen sus publicaciones gratis o con precios mucho más bajos. Hasta ahora ninguna había logrado darle la visibilidad al debate que le ha dado la polémica en torno a Elbakyan. “Sci-Hub instaló este tópico en la opinión pública”, dice ella y agrega: “En la comunidad dedicada al acceso abierto no todos están muy felices, porque Sci-Hub ha hecho lo que ese grupo ha fracasado en concretar durante años: lograr que la literatura científica sea gratuita”.

Hoy más de 16 mil investigadores de todo el globo tienen una campaña para boicotear las suscripciones que cobra Elsevier (http://thecostofknowledge.com) y dicen que no publicarán ni revisarán papers que vayan a sus revistas. Incluso, la biblioteca de la Universidad de Harvard –que desembolsa más de US$ 3,5 millones al año en este ítem- conminó a sus investigadores a postular sus estudios en revistas de acceso abierto. Estos medios, que hoy suman más de seis mil e incluyen al popular PLOS One, suelen cobrar a los científicos más de 700 mil pesos por publicar cada paper pero los liberan gratuitamente en internet. También existen repositorios internacionales donde se reúnen sin restricciones los trabajos académicos, como la Biblioteca Científica Electrónica en Línea (SciELO.org) que opera en América Latina y el Caribe y de la cual también participa Conicyt en Chile.

Sin embargo, Erwin Krauskopf, director de la Escuela de Ingeniería en Biotecnología de la UNAB y experto en este tema, explica que este segmento no está exento de problemas, ya que han aparecido lo que se conoce como “revistas predatorias” que se han hecho conocidas por aceptar manuscritos sin ser revisados por pares, “tener comités editoriales constituidos por nombres falsos o usar nombres de académicos sin su consentimiento”, lo que obviamente afecta la calidad y rigor de los estudios y la información que circula. Pese a que hay vacíos, los gobiernos se están plegando al movimiento de acceso abierto. Un ejemplo es la Unión Europea que  determinó hace un mes que desde 2020 todos los estudios financiados con dinero público deberán ser de acceso gratuito. “Es un paso adelante, pero existen millones de reportes que ya están publicados y con acceso cerrado y que no serán afectados por esas políticas. Pero Sci-Hub puede conseguirlos”, afirma Elbakyan.

El cuervo característico
de Sci-Hub
Según ella, su “revolución” avanza a paso firme: “La transformación ya ocurrió y ya hay acceso a más de 50 millones de artículos que estaban restringidos. Eso es imposible de revertir”. Sin embargo, ella aspira a más: “Lo ideal sería la destrucción total del derecho de autor. Napster no pudo hacer esto, porque se enfocaba en la música, algo que tendemos a ver como entretención. Y es muy difícil argumentar que el entretenimiento gratuito es bueno. Pero sí podemos plantear que el acceso gratis y sin restricciones al conocimiento es beneficioso”.

Las nuevas alternativas legales

En 2012, Timothy Gowers, un prominente matemático de la Universidad de Cambridge, en Inglaterra, se quejó en su blog de los “exorbitantes” precios que cobraban las editoriales científicas para acceder a los estudios y  juró que dejaría de publicar sus reportes en las revistas de Elsevier. En cosa de días recibió centenares de respuestas en apoyo, por lo que diseñó un proyecto y en marzo de este año lanzó Discrete Analysis (http://discreteanalysisjournal.com).

Se trata de un portal dedicado a las investigaciones en matemáticas y que apunta al mismo objetivo de Sci-Hub, pero de manera legal: es una iniciativa sin fines de lucro y gratuita que es propiedad de un equipo de investigadores. Cuando alguien envía un reporte, el portal usa un software llamado Scholastica que se encarga de coordinar el análisis de un grupo de pares. Luego el autor revisa los comentarios de sus colegas y sube una versión final al portal.

Otro ejemplo en la misma línea es The Winnower (https://thewinnower.com),  portal que lanzó en 2014 Josh Nicholson, un experto en cáncer de la universidad Virginia Tech. “Me desesperaba lo costoso que era leer y publicar literatura científica, lo lento que resultaba, su ineficiencia y, lo peor de todo, lo cerrado que era”, dijo a Chronicle.com.  En su sitio la filosofía es “hágalo usted mismo”. Los autores publican sus borradores, para que los usuarios puedan no sólo leerlos, sino que también revisarlos, e incorporar sus comentarios hasta llegar a una versión final. La página cobra 100 dólares por cada publicación, tarifa que se dedica exclusivamente a mantener el portal.

Una iniciativa importante en esta línea es eLife (https://elifesciences.org), fundado en 2012 por tres importantes organizaciones: el Instituto Max Planck, de Alemania; el Howard Hughes Medical Institute, en Maryland, y el Wellcome Trust, de Londres. El editor de esta revista centrada en ciencias biomédicas y biología es Randy Scheckman, ganador del Nobel de Medicina en 2013, y el sitio da acceso gratuito a las publicaciones. Los autores tampoco tienen que pagar por publicar ahí, y la mejor prueba de que está funcionando es que las tres organizaciones que lo financian acaban de comprometer 26 millones de dólares para sus operaciones.

El costo para el país

Patricia Muñoz, de Conicyt
Chile no está ajeno a este debate y al problema. A través del programa Biblioteca Electrónica de Información Científica (BEIC), el Estado financia el acceso gratuito vía internet a casi seis mil revistas científicas en formato electrónico que abarcan más de cien disciplinas. Para 2016, el presupuesto de este programa, a cargo de Conicyt y que beneficia a universidades e instituciones como el Congreso o el Instituto Antártico, suma poco más de nueve mil millones de pesos, más de 13 millones de dólares.

BEIC facilita el acceso a las publicaciones desde cualquier computador localizado en las instituciones participantes. Patricia Muñoz, directora del programa de información científica de Conicyt, cuenta que uno de los grandes problemas del sistema editorial actual es “que no compras por título. Por ejemplo, te ofrecen grandes volúmenes de revistas y de ellas muchas son en árabe o chino. Hay cosas en esas bases de datos que muchas veces no se usan por un tema de idioma o calidad”.

Muñoz agrega  que si bien lo que hace Sci-Hub es ilegal, la discusión que propicia es razonable y ética: “En el fondo lo que sucede es que el financiamiento público paga por la producción de conocimiento científico y luego también para tener acceso a leerlo. El negocio es bastante poco justo”. Actualmente, de los cerca de 10 mil estudios chilenos que se publican al año casi un tercio se edita en medios de acceso abierto.

Autor: Marcelo Córdova
Fuente: <http://www.latercera.com/>

México - Revista Elementos, más de cien números de divulgar la Ciencia

Revistas Mexicanas de Divulgación
 Científica y Tecnológica
De 535 autores que han participado en los primeros cien números, 95 son de instituciones extranjeras. Tiene casi 163 mil visitas al portal de internet, desde Colombia, España, Argentina, Venezuela, Perú y Estados Unidos

Elementos es una de las 19 publicaciones que integran el Índice de Revistas Mexicanas de Divulgación Científica y Tecnológica, del Consejo Nacional de Ciencia y Tecnología (Conacyt). Adscrita a la BUAP, ha rebasado los cien números en la noble tarea de divulgar la ciencia y la cultura, a lo largo de más de tres décadas.

Si bien las editoriales universitarias y las revistas en general han sufrido problemas en cuanto a lo limitado de su distribución, Elementos –fundada en el año de 1984- ha logrado sortearlos a través de su doble publicación, impresa y web, desde 2001.

Cuatro años más tarde se digitalizaron todos los números con una licencia Creative Commons de tipo CC, que la convirtió en la primera revista del país que dio una licencia total a todo su contenido. La razón obedece a que es “producto de una institución pública y por tanto debe estar disponible para el público en general”, fundamenta en el artículo “¡Cien!”, Enrique Soto Eguíbar, director de Elementos e investigador del Instituto de Fisiología de la BUAP.

La apertura de esta publicación al mundo digital ha permitido su internacionalización, tanto en consultas como en colaboradores: del total de 535 autores que han participado en los primeros cien números, 95 proceden de instituciones extranjeras; y de las 162 mil 809 visitas al portal de internet, cerca del 45 por ciento son de Colombia, España, Argentina, Venezuela, Perú y Estados Unidos.

Aunado a esto, destaca su presencia en plataformas como Latindex, CiteFactor-Directory of International Research Journals y Directory of Open Access Journals, así como su pertenencia a la Federación Iberoamericana de Revistas Culturales.

En diciembre del 2015, Elementos lanzó su número cien, bajo la dirección del doctor Enrique Soto Eguibar, quien desde su ingreso a la revista, en 1990, ha fomentado la inclusión de artículos académicos, no sólo de ciencias naturales y exactas, sino también de ciencias sociales y humanidades. De forma adicional a su propuesta textual, la revista incluye el discurso gráfico en todos los números por medio de la obra de algún realizador visual, principalmente fotografía. Pues como apunta Luis Fernando Reyes Varela, en su artículo “Ciencia y Literatura: una dialéctica comparada”, publicado en el número 84 de Elementos, ciencia y arte tienen en común “la realidad como problema formal, semántico, pragmático, espiritual y lógico”.

No obstante la relativa juventud de la ciencia y su divulgación en México, Elementos se ha consolidado como un espacio de convivencia y diálogo entre voces de distintas disciplinas con el público.

Autor: Omar Hernández
Fuente: <http://desdepuebla.com/>

22 de junio de 2016

If science is going to save the world, we need to make it open

It's in society's interest for everyone
to have a clear view of scientific
research Image: REUTERS/Phil Noble
The last few weeks have been a momentous time in the sciences: not because of a breakthrough in gene therapy or quantum computing, but because world leaders have twice called for scientific papers to be made freely available to all.

On Friday 27 May, EU ministers of science, innovation, trade and industry published a progressive commitment calling for full open access to scientific research by 2020. Then, last week, US Vice President Joe Biden announced the launch of an open-access cancer database – a first of its kind – to allow researchers to better understand the disease and develop more effective treatments. The aim is for researchers to have information at their fingertips. Two petabytes of genomic and clinical data have already been released to the public.

While Carlos Moedas, the EU’s Commissioner for Research, Science and Technology, calls it “life-changing” for Europe and a “major step forward”, Doug Lowy, acting director of the National Cancer Institute in the USA, described it sharing medical data openly and freely as “transformative”.

So why is this model so important?

The gatekeeper approach to scientific publishing

Until the beginning of the millennium, scientific publishers operated a subscription model, whereby they charged universities money for subscriptions. They controlled what research would be impactful and significant enough to warrant publication. In some cases, universities can be charged up to $25,000 a year for a single journal subscription. Taken together, a large institution could therefore pay millions a year for all of the journals in its library. This cost is often borne out by students.

Researchers submitting papers to traditional academic publishers do not get paid and they hand over their copyright. This means that traditional publishers get their articles, their peer reviewing (vetting by other researchers) and even much of their editing for free. Yet the material they publish was commissioned and funded not by them but by taxpayers, through government research grants. Yet the public, under this model, are denied access. Anyone not affiliated with a university must pay the publisher for the privilege for a limited licence to read a single article.

Authors can submit their manuscript only to one journal at a time, feeding into an industry with profit margins of between 30 percent and 40 percent and annual revenues of about $9.4bn in 2011 worldwide, while the science remains behind a firewall.

Digital disruption

But this model is being disrupted. With digital publishing, Academics started moving online, creating their own publishing forums and finding ways to freely disseminate the results of their research. In 2002, the Budapest Open Access Initiative was released, publishing the principles of open access, and the movement finally had its official name. Shortly after followed the publication of the Bethesda Statement on Open Access Publishing and the Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities. A breakthrough was achieved when the second largest charitable foundation in the world, the UK-based Wellcome Trust, required all Wellcome-funded research to be published as open access in 2005.

   
In 2003, the UK's House of Commons science and technology committee released a report recommending that government funding agencies should require open access to publicly funded research. And in 2005, the Research Councils UK (RCUK) introduced a requirement for open access.

In the meantime, the first successful open-access publishers, including BioMed Central and the Public Library of Science (PLOS), developed a new business model in which academic institutions pay for their researchers’ articles to be published online, thereby granting open access to the latest research to anyone with access to the internet.

The state of science publishing today

So, where are we now? Two thirds of the world’s journals offer an open access option, meaning the tipping point has been surpassed.

Unlike traditional publishing, the costs for open-access publishers are far lower as they have no costs for paper or printing distribution, averaging around $2,000 compared to approximately $7,000 for each subscription article published.

Importantly, open-access publishers are innovative, having created a series of digital services that are impacting the way scholarly publishing is evolving. At the Swiss-based open access publisher, Frontiers, for example, we have introduced an online interactive peer-review forum, allowing authors, editors and reviewers to interact in real time to help scientists hone their manuscripts so the best research gets published.

New ways of measuring the significance of any research published, including article-level metrics and author-impact metrics, now allow for science to be evaluated by the community in a much more unbiased and transparent way whilst providing full access to anyone who is online.

This is an important step towards equality within the scientific community, by scratching away at the bias towards US and EU-centric views of our understanding the world, connecting scientific communities and allowing them to exchange data and research findings freely.

Autor: Nina Hall
Twitter: <@nina_rothe>
Fuente: <https://www.weforum.org/>

Libraries and Open Journal Systems: Hosting and facilitating the creation of Open Access scholarship.

Image credit: kate_harbison CC BY-SA
There is a growing availability of free tools and software for academic publishing. How might libraries leverage existing platforms? Anna R. Craft describes one experience of an academic library hosting locally-produced open access journals through Open Journals Systems (OJS). But even “free” software is not without costs in relation to time and expertise. Care should be taken in facilitating a supportive environment to meet an institution’s journal-hosting needs.

Historically, the primary role of libraries has been the collection and preservation of content created by others. Today, many libraries are also emphasizing the facilitation of local content creation. The University Libraries of The University of North Carolina at Greensboro have a multi-faceted strategy for promoting this new direction.

We support publication of open access articles through an Open Access fund for authors. We fund the production of open access classroom materials through grants for Open Educational Resources (OER). We disseminate the university’s scholarly output through NC DOCKS, a locally-developed institutional repository hosted at UNCG and shared with seven other UNC system universities. We provide technology and expertise for the creation of multimedia projects and for 3D printing in our Digital Media Commons. We fund research grants and prizes for students who create content using materials held in our Special Collections and University Archives. We provide Digital Partners grants for faculty who need assistance in creating online databases and websites, as well as other “new media.” And, as we explore further in this post, we host locally-produced open access journals.

In 2010, in response to faculty requests for assistance in the creation and hosting of open access journals, we adopted Open Journal Systems (OJS). Created by the Public Knowledge Project, OJS is an open source publishing and journal management platform that strives to make open access publishing “a viable option for more journals.” OJS expands our role in establishing ties throughout the university and promoting scholarly discourse on campus and beyond.

Now we host ten active journals in OJS, with several others in development. These journals cross the academic spectrum, with content areas including archives, service learning, and mathematics and statistics. This endeavor has been successful in meeting campus journal-hosting needs, while also supporting our initiatives to further scholarly communications and open access on campus, but this project is not without challenges and growing pains. Even “free” software is not without costs in relation to time and expertise. And where do library roles begin and end when it comes to supporting hosted open access journals?

At UNCG, the University Libraries host the OJS software and support its use. We provide:
  • Long-term archiving of journal content
  • A professionally-run server environment
  • An up-to-date, secure version of the OJS software
  • User training and support for use of the software
  • A moderate degree of customization for individual journals
OJS support roles in the University Libraries are focused in three areas: server and software administration and development, user support and training, and general education and outreach. An interdepartmental team handles this work, with each area assigned to a point person who has specialized expertise. OJS duties make up only a small part of the overall work of each team member. Requests for these services fluctuate and can be difficult to predict, but as journal numbers grow, the number of support requests grows as well.

Our hosted journals share one OJS software implementation, meaning that most top-level customizations done by our technical team will affect all journals. So while training and technical support can often be provided on an individualized basis, advanced web customizations generally cannot. We feel that this support model allows us to meet 95% of the needs of our journals. To address the remaining 5% of requests, we would likely need to hire an additional OJS support position. And even with the current support model, if the number of hosted journals continues to increase, the support team will eventually require additional resources.

With library personnel managing the software and training users, journal personnel can focus on recruitment, review, editing, and presentation of content for their publications. Management teams for individual journals are generally comprised of scholars from across the field–not just faculty on our campus. These teams are generally made up of experts in their content areas, but these personnel are not always fully aware of other skill sets they will need–especially those relating to design and technology.

Image credit: By Nikita-kun-i [Public domain or GPL], via Wikimedia Commons
Our support team is proactive in educating users about the variety of skillsets that may be needed in the production of their journals. Journal management teams will find value in having personnel with experience in article layout, graphic design, and web design, as OJS offers options for individual journals to control many elements of content presentation, even in a shared hosting system. As noted above, the University Libraries’ support team does not have the resources to pursue and fulfill all customization requests, especially those related to journal design. When journal personnel request resource-intensive customizations that we are unable to provide, they can pursue customizations themselves, either within the hosted platform or by downloading OJS for free and running it themselves.

Potential users should also be aware of the learning curve associated with the OJS software. OJS is a powerful but intricate online system, and some users have expressed frustration with its complexity. Journal managers who do not wish to learn to use the system sometimes hire graduate students to manage the online platform, but this staffing model can cause difficulties when students graduate, unless sustainability planning is handled well in advance.

At UNCG, we promote sustainability planning for journals, and require that each journal maintain a primary on-campus contact person. If the primary journal manager or initiator leaves the university, he or she must designate a new on-campus contact in order to maintain the journal’s continuity in the UNCG OJS system. If no new sponsor steps forward, then we can either transfer the entire journal to a new home at another institution, or cease to add new content and maintain the extant journal volumes as a backfile. It is possible for journals to move from one OJS instance to another, and the University Libraries have facilitated the transfer of journals in the past. Once a journal leaves our hosted system, we no longer provide support and training services.

This OJS staffing and support model meets current needs at UNCG, but our model will not be the right fit for all institutions, nor for all journals. Providers of OJS hosting have the latitude to consider their own expertise and available resources before determining the level of support that they will offer to end users. At UNCG, OJS helps strengthen relationships between the University Libraries and its constituencies, including campus faculty and scholarly communities, while also facilitating the creation of open access scholarship on campus and beyond.

This post is based on a presentation given by the author titled Help, we started a journal! : adventures in supporting open access publishing using Open Journal Systems [slides]

Autor: Anna R. Craft
Email: <arcraft@uncg.edu>
Fuente: <http://blogs.lse.ac.uk/>

21 de junio de 2016

En Colombia publican artículos científicos que pocos citan

De las 542 revistas científicas que hay
en el país, 277 tuvieron menos de tres
 citas internacionales en los últimos
cinco años.
A partir de agosto Colciencias medirá el impacto de los artículos científicos con una medida nueva llamada el “Índice H” que permite rastrear las menciones en bases de datos electrónicas.

De las 542 revistas científicas que hay en el país, 277 tuvieron menos de tres citas internacionales en los últimos cinco años.

Hace cuatro años, Colombia batió récord en publicaciones científicas: 5.000 fue la cifra que nos convirtió en el quinto país de la región con mayor número de artículos académicos. ¿Pero estas publicaciones son valoradas por la comunidad científica? Los números dicen que no.

Según cifras de Colciencias, Colombia aporta únicamente el 0,2 por ciento de la producción científica internacional, es decir, la publicada en las grandes bases de datos como WOS y ScoPus que juntas albergan más de 150 millones de artículos científicos en el planeta. Sin embargo, en las bases de datos gratuitas, Colombia es líder en publicaciones por encima de países como Brasil, Francia y España.

Sin embargo, a pesar de la gran cantidad de publicaciones colombianas que hay, tanto en las bases de datos internacionales como en las gratuitas, son muy pocas las que son utilizadas por investigadores internacionales. “En el país tenemos mucha cantidad y muy poco impacto, es decir, cuántas veces citan un artículo”, indica Alejandro Olaya, subdirector del Departamento Administrativo de Ciencia Tecnología e Innovación (Colciencias).

Por esta razón, Colciencias está construyendo los nuevos lineamientos del servicio permanente de indexación Publindex, pues se dieron cuenta que debían reaccionar a este panorama, en el que la limitada contribución que está presentando el país en la generación y divulgación de conocimiento en el ámbito mundial, se refleja en el bajo número de publicaciones científicas de autores nacionales y el poco impacto que tienen.

Durante 20 años, el modelo de indexación de las revistas científicas se basó en ciertos requisitos editoriales, por ejemplo, que contaran con un comité de pares evaluadores externos y mantuvieran cierta periodicidad en la publicación de sus números. Sin embargo, estos requerimientos fueron quedándose obsoletos, mientras que las exigencias académicas pedían una mayor rigurosidad en los contenidos.

A pesar que este Publindex permitió que muchas revistas en el país mejoraran su proceso editorial y el nivel de los artículos, actualmente la forma de evaluar la calidad de una revista científica se centra en el impacto que produce en la comunidad, lo cual, según Colciencias se mide exclusivamente por el número de citaciones. Solo para poner un ejemplo, de las 542 revistas científicas que hay en el país, 277 tuvieron menos de 3 citas en los últimos cinco años.

“Las citaciones son una medida universal en las comunidades científicas. Si un artículo es citado es porque se le considera valioso, relevante y con aportes al conocimiento. Así, entre más citaciones tenga, es más reconocido y valorado”, explicó el subdirector Olaya.
Por esta razón se formuló un nuevo modelo de Publindex, que responde a las necesidades del sector y se centra en medir el impacto, según la cantidad de cada publicación.

El nuevo Publindex

A partir de agosto de este año, Colciencias se encargará de medir el impacto de los artículos científicos basándose en los índices de citación, que mantienen un seguimiento sobre los artículos que son citados en otras publicaciones, entre los más reconocidos están el Journal Citation Reports (JCR) y el SCImago Journal Rank (SJR). Sin embargo, la entidad quiso ir más allá e incluyó una medida nueva en el país llamada el “Índice H”, utilizada por Google, que permite calcular la cantidad de citas que tiene el artículo en bases de datos electrónicas en un rango de cinco años.

“Todo esto nos permitirá ser más incluyentes, la revista no tiene que figurar necesariamente en índices bibliográficos, sino que puede estar, por ejemplo, en las páginas de las universidades o en otras bases de datos como SCielo. Se revisará todo lo que esté disponible en la web”, añadió Olaya.

Esta nueva política reconoce, además, las diferencias en las distintas disciplinas en cuanto a su nivel de citación. Se sabe que se cita con mayor frecuencia un artículo de ciencias exactas, comparándolo con uno de humanidades, de ahí que el nuevo modelo diferencia cada área del conocimiento para promediar su nivel de citación.

Con el nuevo método de indexación, Colciencias prevé una depuración del número de revistas, pues según cálculos de la entidad esperan que, una vez aplicado, el número de revistas se reduzca a alrededor de 300 revistas. “Buscamos privilegiar la calidad sobre la cantidad”, dice Olaya. “Hoy, de las 524 revistas, solo 75 se encuentran en los índices de alto impacto. Queremos que ese número suba”.

El nuevo modelo tiene como novedad la inclusión de un novedoso sistema de medición: el índice h. Este es el balance entre el número de publicaciones y las citas a éstas. El índice se diseñó para medir eficazmente la calidad del investigador, a diferencia de sistemas de medición más sencillos como aquellos que cuentan solo las citas o las publicaciones, donde se hace una distinción entre aquellos investigadores que tienen una gran influencia en el mundo científico de aquellos que simplemente publican muchos trabajos.

Sin embargo, este sistema tiene ciertas desventajas. El índice H puede llevar a confusiones en cuanto a la importancia de un científico porque, al estar limitado por el número de publicaciones totales, un científico de corta carrera está en clara desventaja y no se considera la importancia de sus primeros trabajos en una medida correcta.

Lejos de ser un modelo ideal

El docente Wilson López López, editor de la revista Universitas Psychologica de la Universidad Javeriana, considera que el modelo que plantea Colciencias dista mucho de ser ideal. López, junto con el equipo editorial de su revista, acompañó a Colciencias durante cuatro años en la discusión sobre un nuevo modelo, pero mantiene cierta distancia con algunos conceptos que Colciencias consideró claves.

“Hay un problema y es que la calificación dependa exclusivamente de la citación, pues deslegitima el proceso editorial y la calidad. No permite ver todo el esfuerzo editorial”, dice López. Para el editor, este tipo de método puede terminar siendo engañoso, pues puede terminar privilegiando el tema de las citaciones sobre otros importantes como el número de artículos al año que la revista revisa y publica. “Es como comparar el ICFES de dos colegios cuando uno envía diez estudiantes y otro cien”, dice.

Además, otros de los posibles riesgos que López encuentra en el nuevo modelo es la dificultad que van a tener las nuevas publicaciones. “El nuevo Publindex indexará revistas que tengan un número de citaciones considerable, algo que beneficia a las existentes pero termina por ahogar a las nuevas o más pequeñas”. Muchos críticos del Índice H, afirman que se ha observado que el sistema termina privilegiando a la productividad.

El editor considera que Colciencias va por buen camino y valora el trabajo de cambiar un modelo obsoleto, pero también sugiere que la entidad debería considerar otros indicadores además de las citaciones pues “solo muestran una cara de la moneda”.

Autor: Jesús Mesa
Twitter: <@JesusMesa>
Fuente: <http://www.elespectador.com/>

Revistas ‘open access’: la vocación pública frente a “que pague el autor”

En países latinos y centroeuropeos, el acceso
abierto sin costes para lector ni autor es una
práctica común, al menos en el ámbito de las
humanidades y las ciencias sociales.
Imagen: Unhindered by Talent (derivada).
Recibir un premio Nobel científico pasa hoy por publicar en grandes revistas especializadas, como Nature o Science. Ahora, muchas de las más grandes y prestigiosas editoriales privadas ofrecen información en abierto sin coste para el lector: es el autor quien paga. Sin embargo, otras publican en acceso abierto, sin costes para unos ni otros, y consiguen similares índices de impacto para la comunidad científica sin perder de vista la vocación pública.

En el mundo académico los científicos nos topamos a menudo con la controvertida cuestión de dónde publicar. Las revistas científicas siguen siendo el principal altavoz para hacer llegar los avances de investigación al resto de nuestra comunidad y a la sociedad en general. Han alcanzado tanto poder de comunicación que en ocasiones es más importante dónde publicas que lo que publicas. Buen ejemplo de ello son las bienquistas Nature o Science (por citar las más populares), auténticos guardianes del saber y fuente de prestigio. Recibir un premio Nobel pasa hoy, irremediablemente, por hacer públicos los avances científicos en estas u otras revistas del ramo.

Ante una situación tan estratégica, con un considerable poder de influencia y la existencia de conflictos de interés entre autores y compañías editoriales, se abre la puerta a ciertas suspicacias ante una posible falta de imparcialidad. El ejemplo al que comúnmente se alude ilustra el interés de los laboratorios farmacéuticos por favorecer aquellas investigaciones en biomedicina que repercuten de manera positiva en la venta de sus productos. Pero en menos ocasiones se pone el acento en la excesiva concentración de las distintas publicaciones en un grupo reducido de firmas editoriales (lo que constituye un lobby empresarial).

Prestemos atención a una disciplina concreta como la geografía. Existen 78 revistas científicas para el área de geografía de reconocido prestigio (indexadas en los Journal Citation Reports de Thomson Reuters).

Tras la aparente diversidad temática y geográfica se observa que la mayoría de estas revistas pertenecen al sector editorial privado -con base en Reino Unido y Estados Unidos- hasta el punto de que más de la mitad de todos estos títulos están publicados tan solo por dos editoriales (Taylor & Francis y Wiley-Blackwell).

Es si cabe más llamativo que la minoría de revistas que no pertenecen a firmas comerciales (las sacan adelante grupos de investigación, departamentos universitarios, sociedades científicas...) proceden de ámbitos no angloamericanos, permiten la publicación en otros idiomas distintos del inglés y, lo que es más significativo, publican en acceso abierto, sin costes para el lector ni para el autor.

El acceso abierto viene siendo así una seña de identidad y una declaración de intenciones de las editoriales con vocación de servicio público, que ponen a disposición de todo el mundo los resultados científicos de sus autores sin pretender un lucro económico a cambio.

Vocación de servicio

Por un lado es normal: si eres una institución pública puedes publicar, subir o colgar los artículos de manera abierta y gratuita, mientras que si eres una empresa privada te ves en la necesidad de establecer un precio para sufragar los costes. Lo que resulta más extraño es que la mayor parte de las grandes firmas comerciales (las antes señaladas, pero también Elsevier, Spriger, PLOS, BioMed Central...) ahora ofrecen una parte importante de artículos y volúmenes enteros en abierto, con lo que es posible descargar una versión electrónica sin coste alguno. La clave reside en que es el autor (o autores) quien paga por verse publicado.

Imaginemos a un músico que tiene que pagar por dar un concierto, a una arquitecta que tiene que pagar por diseñar un edificio o a un dentista que tiene que pagar por operar la boca de un paciente. Resultaría sorprendente que estas personas deban desembolsar en lugar de cobrar por ofrecer un servicio profesional. Sin embargo, en el mundo de las publicaciones científicas esto se ha convertido en norma. El movimiento Open Access, como se conoce en inglés, surge a principios de la década de 2000 para plantear que, con la universalización de los medios digitales, las contribuciones científicas sean más accesibles, es decir, estén libres de barreras económicas, técnicas o administrativas.

Sin embargo, es en este punto donde creo que hay que hacer matizaciones. Habría que distinguir entre dos formas de entender el acceso abierto, dos perspectivas para un mismo hecho, dependiendo de en qué contexto académico nos encontremos. En el mundo científico angloamericano, el Open Access a menudo da por hecho (eso sí, no siempre) que es el autor el que asume los costes, el que paga. Alguien tiene que hacerlo. A estas fórmulas se las conoce como article processing charge, pay-per-publish, fee-based open-access journals... En el anterior caso del área de geografía, por seguir con un ejemplo ilustrativo, dos de cada tres revistas aplican una tarifa al autor de 2.000-2.500 euros si quieren que su artículo esté en abierto.

Organismos que pagan para que sus autores publiquen

Por lo general el autor que se acoge a esta solución no lo paga de su bolsillo, sino que son sus instituciones (universidades, centros de investigación, etc.) las que corren con estos costos. Por lo tanto, lo que se ahorran estos organismos públicos en las suscripciones anuales de sus bibliotecas repercute por el otro lado en los presupuestos destinados a sufragar gastos de investigación para publicar en abierto. En consecuencia, el posible ahorro queda en entredicho (o el vulgar “desvestir a un santo para vestir a otro”).

De otra parte, en el ámbito no angloamericano (países latinos y centroeuropeos, principalmente) el acceso abierto sin costes para lector ni autor viene siendo una práctica común y generalizada, al menos en el ámbito de las humanidades y las ciencias sociales, desde que muchas editoriales institucionales empezaron a editar sus publicaciones de forma electrónica. Es decir, poder leer y descargar los artículos no tiene repercusiones económicas para nadie, lector o autor. Está claro que la viabilidad económica de esta fórmula implica un coste, pero está asumido como parte de las competencias de los actores involucrados en su ejercicio de servicio público: editores, comité científico, revisores, etc. no cobran honorarios ni regalías, pues su trabajo ya está remunerado en su sueldo ordinario.

Con todo ello no se debe menospreciar el imprescindible papel que juegan las editoriales comerciales en el sostenimiento de una red global de transferencia e intercambio de conocimientos científicos. Siempre han estado allí y hoy son parte del cimiento donde se construye el saber académico.

Sin embargo, son estas revistas las que han recibido tradicionalmente el mayor foco de atención y prestigio, cuando creo que el verdadero mérito está en ese grupo de revistas de primera magnitud pero colocadas una fila por detrás, que consigue similares índices de impacto para la comunidad científica sin perder de vista la vocación pública. Esto se traduce en una garantía de calidad y transparencia que podría verse comprometida desde el sector privado, condicionado por la búsqueda del lucro.

Bajo esta premisa subyace el debate sobre la sostenibilidad económica del sistema editorial científico. Desde el sector comercial siempre se ha defendido que mantener todo el mecanismo que mueve una revista cuesta mucho: revisión, edición, publicación, distribución, comunicación, márquetin, etc. Pero también es cierto que hoy en día existen revistas institucionales, sustentadas con muy pocos fondos, indexadas en las principales bases de datos, a las que acude la comunidad científica por la calidad de su contenido y por ser referentes en sus respectivas disciplinas. Desde luego, los geógrafos podemos contar con ellas.

En un escenario futuro deseable, no habrá que esperar mucho para conocer a premios Nobel que hagan de las publicaciones en acceso abierto -entendido libre y universal para todos los usuarios, también autores- la plataforma con que proyectar al mundo sus conocimientos, sus avances y sus experiencias científicas.

Referencia Bibliográfica:

GARCÍA MARTÍN, MIGUEL: Las revistas de Geografía en el Journal Citation Reports: lucro económico versus acceso abierto. Revista española de Documentación Científica, vol. 38, (4), 2015, e105.

Autor: Miguel García Martín
Email: <mgmartin@us.es>
Fuente: <http://www.agenciasinc.es/>

20 de junio de 2016

Adhesión del Paraguay a la Red CLARA

Acto de Adhesión del Paraguay a la Red CLARA, asociación de redes científicas tecnológicas, de todos los países de América y del mundo, que desarrolla aplicaciones y tecnologías de redes académicas avanzadas, para apoyar el avance de la investigación, la innovación y la educación. Se hará este lunes 20 de junio, desde las 10 hs, en el Crowne Plaza Hotel.

En el contexto mundial, las comunicaciones cumplen un rol muy importante, más aún en el mundo científico. Todas las universidades del mundo, en la actualidad, de cierta forma están conectadas a través de internet, para obtener acceso a las publicaciones científicas, como un medio valido para desarrollar investigaciones.

Años atrás, con la idea de desarrollar redes locales universitarias, para conectar todas las universidades de un país, se constituyó una asociación de redes científicas tecnológicas de los países de América del Sur.

A esa asociación de redes científicas tecnológicas, de todos los países, hoy se le denomina la RedCLARA, Cooperación Latino Americana de Redes Avanzadas, una corporación, sin fines de lucro, que desarrolla aplicaciones y tecnologías de redes académicas avanzadas, para apoyar el desarrollo de la investigación, la innovación y la educación en América Latina.

La RedCLARA es una red de fibra óptica, que integra todas las redes nacionales, científico tecnológicas de América del Sur. En el ámbito mundial, la RedCLARA, que es la red de redes, está integrada y comunicada con las redes de universidades de América del Norte, de Europa y de Asia.
Sin embargo, hasta este año, el Paraguay, junto con Bolivia –los dos países mediterráneos del continente– no formaban parte de esta asociación.

Hoy, gracias a la cooperación de la ITAIPU Binacional, Paraguay forma parte de la RedCLARA, una iniciativa que, desde hace 5 años, está siendo gestionada a través del Consejo Nacional de Ciencia y Tecnología (CONACyT), con ayuda de la Secretaría Nacional de Tecnologías de la Información y Comunicación, SENATICs, que son las instituciones responsables por esta iniciativa, y la red nacional, denominada Red Arandú.

Red Arandú

La Red Arandú, Red académica del Paraguay para la Educación, la Investigación Científica y la Innovación tecnológica, es una red de fibra óptica que pretende conectar todas las universidades de nuestro país, con la misión de crear y administrar una infraestructura tecnológica de redes de alto desempeño.

La red presta servicios de valor agregado para el investigador, mediante, por ejemplo, video conferencias, donde un investigador paraguayo, hoy en día, conectado a su computador, puede estar hablando y mirando a un investigador norteamericano, y, a la vez, muchas personas pueden estar participando de la reunión, una muestra clara de cómo se gestiona y se transfiere conocimiento.
La Entidad estará así abonando el primer año de suscripción, para que después la Red Arandú, que es la red paraguaya de investigación, reciba los fondos del Estado paraguayo para hacerse cargo de esta suscripción.

La Red Clara permitirá que investigaciones científicas paraguayas puedan ser ejecutadas en el menor tiempo posible, la ITAIPU Binacional, con su aporte financiero y de capital humano, una vez más, demuestra su responsabilidad y compromiso social con el país.

Ser parte de la RedCLARA permitirá al país fortalecer el desarrollo de la ciencia, la educación, la cultura y la innovación, en paralelo con los demás países de la región y de los demás continentes, por lo que es un factor clave la utilización de esta plataforma, para los profesionales del país.
A través de la red de fibra óptica, un profesional paraguayo se conectará directo a una computadora de los Estados Unidos.

Con este aporte de la Entidad, podemos visualizar que está cambiando el paradigma de la educación y la capacitación, a través de las redes de fibra óptica.

El rol de la ITAIPU Binacional consiguió, a través de la participación de sus técnicos, fue acelerar los procesos en el país, a través de la cooperación con SENATICs y con CONACyT, para concretar esta incorporación a la red de redes, hecho fundamental para el desarrollo del país.

Fuente: <http://www.newsjs.com/>

Conversatorio sobre la situación de las Revistas Académicas

Programa Radial las voces del libro de la Editorial Universidad del Rosario

Balance del seminario taller sobre Revistas Académicas que se llevó a cabo en Medellín. Todo lo relacionado sobre la nueva clasificación de Revistas y sus nuevos requisitos. Invitada Es la Editora del fondo editorial de Ciencias Humanas de la U. de Antioquia. Diana Patricia Carmona.


Autor: URosarioRadio
Twitter: <@urosarioradio>
Fuente: <https://www.spreaker.com/>

8 de junio de 2016

Journal Citation Reports (JCR): Actualiza su Interfaz y cambia su forma de Acceso

La publicación en revistas científicas de calidad es uno más de los obstáculos que debe superar todo investigador que aspira a tener publicaciones con impacto. Y como sucede con el resto de las barreras con las que se topa en su carrera, el salto requiere de técnica y destreza.

Son muchas las herramientas que ayudan al investigador en esta labor, pero quizás la más solicitada y valorada por los organismos de evaluación en sus diferentes convocatorias es Journal Citation Reports, ahora con el nuevo nombre Incites Journal Citation Reports (más conocido por sus siglas JCR).

Este recurso ofrece un indicador denominado factor de impacto, basado en el número de veces que se cita por término medio un artículo publicado en una determinada revista. Dicho valor se elabora con los datos recopilados en la Web of Science. Ambos son recursos propiedad de Thomson Reuters, que distribuye en España, bajo suscripción, la Fundación Española para la Ciencia y la Tecnología (Fecyt) y nuestra Biblioteca pone a vuestra disposición a través de su página.

Pues bien, desde el mes de mayo JCR ha renovado su interfaz, algo que ya venía anunciando desde hace un par de años. Y como era de esperar, su forma de acceso también ha cambiado.

Y ahora, ¿cómo se accede?

Desde la Biblioteca siempre recomendamos que los accesos a los recursos electrónicos que suscribimos se hagan a través de nuestra página web, independientemente de si se está o no en un ordenador con dirección IP de la Uned. Por ello, os invitamos a consultar las instrucciones de acceso desde aquí.

¿Cuáles son las novedades de esta versión?

Al entrar en la herramienta nos encontramos una interfaz más moderna y dinámica. La información aparece dividida en dos partes. La parte lateral izquierda nos muestra todas las opciones posibles de búsqueda: por una única revista, por categoría, por varias revistas; podemos limitar la búsqueda por año, por la edición, por el cuartil, por el país. Recordemos que en la versión anterior teníamos que retroceder páginas cuando queríamos consultar otro año diferente, o buscar por categorías.

Si buscamos por una revista concreta introduciendo las primeras letras del título, nos sugerirá posibles títulos. De todas maneras, siempre recomendamos buscar las revistas por su ISSN: número identificativo, único e irrepetible. En esta nueva versión, al escribir el ISSN nos aparecerá el título exacto de la revista.

La parte de la derecha nos muestra, por defecto, un listado de todas las revistas ordenadas por el índice de impacto de mayor a menor. Para ver los datos de una revista concreta tendremos que clicar en el título y se nos mostrará el índice de impacto de varios años. Más abajo tendremos que entrar en Rank para ver el cuartil y la posición que ocupa la revista en su categoría.

Estos son los datos más básicos que podemos encontrar sobre una revista, pero hay muchos más: índice de Inmediatez, información sobre tendencia de citas y datos fuente, comparativas y métricas adicionales, etc. Las aplicaciones prácticas que ofrece este recurso también son diversas: un autor puede identificar las revistas que tienen más influencia para decidir dónde publicar o confirmar el status de las revistas donde ya ha publicado; un estudiante o profesor puede descubrir dónde encontrar información actualizada en su área de especialización…

En definitiva, un buen y necesario lavado de cara para sacarle el máximo rendimiento a una herramienta tan necesaria, desde hace unos años, en los procesos de evaluación de calidad de las revistas científicas.

Autor: Yolanda Morcillo
Email: <ymorcillo@pas.uned.es>
Fuente: <http://investigauned.uned.es/>

7 de junio de 2016

La cantidad de títulos publicados al año no es un indicador de fortaleza editorial, ni del nivel de lectura de un país.


No es una novedad que las estadísticas se utilizan para demostrar lo que a cada cual le conviene. No podemos evitar que lo hagan los políticos, como tampoco podemos evitarlos a ellos, pero entre profesionales del sector editorial nos conviene utilizarlas con la mayor responsabilidad que sea posible.

Es habitual que se mencione el número de títulos publicados al año, para mostrar la potencia editorial de un país y su nivel cultural. Pero esta cantidad poco tiene que ver con el estado de salud de la industria editorial ni con los índices de lectura.

El número de títulos publicados es una cifra bastante precisa, desde que todos los libros requieren un número de ISBN (International Standard Book Number), convención internacional que no sólo cataloga sino que es la que genera el código de barras, base del manejo informático de los movimientos físicos de libros en las editoriales y en las librerías. Un libro sin código de barras es invendible en las librerías, porque no se puede registrar. Su aceptación internacional es tan absoluta, que hace confiable la información que ofrece.

Lo que realmente indica el tamaño, la fortaleza o debilidad de un mercado editorial, es cuántos ejemplares en total se publican cada año. Esta es la diferencia fundamental. No considerarlo así nos llevaría a conclusiones muy alejadas de la realidad. Como por ejemplo:
  • España tiene 48 millones de habitantes  y Estados Unidos 320 millones. Sin embargo cada uno publica alrededor de cien mil títulos al año, una cantidad similar. ¿Nos permitiría este dato suponer que la industria editorial española es tan potente como la Estadounidense? ¿O que los españoles leen muchísimo más? De ninguna manera, porque la verdad no está en el número de libros publicados sino en el total de ejemplares puestos en circulación.
  • El tiraje medio por título en España es de aproximadamente 1.700 ejemplares. El de Estados Unidos de 9.800.
  • España: 100.000 títulos x 1.700 ejemplares = 170 millones de libros al año
  • Estados Unidos: 100.000 títulos x 9.800 ejemplares =  980 millones de libros al año
Aunque los dos países publican la misma cantidad de títulos al año, el total de libros puestos en circulación en Estados Unidos es siete veces mayor.

En Argentina, se consideró como una señal del avance de la recuperación económica, el aumento de títulos publicados, que subió de 9.900 en 2002 a 28.000 en 2014, tres veces más. Sin embargo, más significativo fue que el total de ejemplares publicados, aumentó en el mismo período de 34 millones de libros a 129 millones, casi cuatro veces más. El número de ejemplares subió más que el de títulos, es decir que el tiraje medio subió, y esa sí es una buena señal.

Librería El Ateneo, Buenos Aires
Esto no es suficiente para saber qué magnitud tiene la industria editorial Argentina, ya que en los últimos años la importación de libros se redujo un 70%. El aumento de libros publicados ¿se debe a que se ha sustituido importaciones? Podría ser. Sin embargo estas medidas no hicieron a la industria editorial más competitiva, ya que en el mismo período la exportación cayó un 40%. Los editores de todos los países del área castellano hablante, saben que el mercado interno no es suficiente para desarrollar una industria editorial potente. Necesitan de la exportación.

Hay editores independientes que dicen que la exportación cayó, por una decisión estratégica de los grandes grupos: ante la inseguridad cambiaria y el cambio constante de las reglas del juego de los últimos años, derivaron toda la exportación a la casa central.

El libro es un producto cultural además de comercial, por lo tanto las cifras no son suficientes para explicar su importancia. En el caso de Argentina, si la producción local sustituyó a la importación, eso solo es una buena noticia para la industria gráfica, que trabajó más, pero como solo se publican localmente aquellos libros de alta expectativa de venta, las decenas de miles de libros que se importaban en cantidades reducidas,  y que garantizaban variedad y pluralidad, desaparecieron de las librerías. Lo que es bueno para las estadísticas de un país, puede ser grave para la cultura y la formación técnica, científica o profesional.

Libreria La Central, Madrid
Si bien estos datos de aproximan más a la realidad, tampoco es suficiente para una correcta evaluación. ¿Por qué? Porque la diferencia entre los libros publicados y los libros vendidos, suele ser brutal. Hablo de la famosas “devoluciones”. Los libreros de España y todo Latinoamérica reciben libros con derecho a devolver los no vendidos. En España, derecho sin fecha de caducidad. En los últimos años de crisis financiera, las devoluciones llegaron al 50%: de cada dos libros enviados a las librerías uno volvía a la editorial, para no venderse nunca más. Esta barbaridad distorsiona tanto las cosas, que produce fenómenos curiosos: que los libros suban el precio de venta, en países donde no hay inflación ¡Cómo no va a subir, si cada libro que se vende debe soportar el coste de otro igual que no se vendió, más los gastos de envío, devolución y posterior destrucción!

A esta altura me pregunto si todo esto es comprensible, ya que no es mi intención agobiar al improbable lector, sino tratar de trasmitir qué complejo es analizar el mundo del libro y la edición.

Librería El Péndulo, ciudad de México
Una forma que me inventé –poco ortodoxa, diría un actuario— para tratar de entender el volumen real de cada mercado editorial, fue tomar cada país de nuestra lengua y ver la relación entre el volumen de libros vendidos y su población. Discutible, por supuesto, ya que lamentablemente no toda la población compra libros. Pero me pareció interesante para hacer una comparación:
  • En México, con 121 millones de habitantes (mdh), se venden libros por 400 millones de dólares (mdd) al año: U$S 3,30 dólares por habitante.
  • Colombia, con 48 mdh, vende libros por 140 mdd: U$S 2,91 por habitante.
  • Argentina, con 43 mdh, vende libros por 300 mdd: U$S 6,97 por habitante.
  • Chile, con 18 mdh, vende libros por 120 mdd: U$S 6,66 por habitante.
  • Uruguay, un país con solo 3 mdh, vende libros por 38 MDD: U$S 11,51 por habitante.
  • España, con 48 mdh, vende libros por 3.500 mdd: U$S 72,91 por habitante.
De estas cifras –reitero, endebles frente a los especialistas en estadística— no me animo a sacar conclusiones, pero sí por lo menos extraer dos comentarios:
  1. ¿Alguien cree que un español lee 25 veces más que un colombiano? (por poner un ejemplo).
  2. Si los mexicanos “consumieran” USD 11,51 dólares por habitante, como sucede en Uruguay (¿por qué no?), el negocio del libro en México sería de 1.391 mdd en lugar de los 400 mdd de hoy: 3,5 veces más.
Librería Puro Verso, Montevideo
Información proveniente de:
  • El libro blanco de la industria editorial Argentina, Cámara Argentina de Publicaciones, 2015
  • Cámara Argentina del Libro, www.camaradellibro.com.ar
  • Cámara Nacional de la Industria editorial mexicana, www.caniem.org
  • El sector del libro en España. Observatorio de la lectura y el libro. Ministerio de Educación y Cultura, Madrid, 2015
  • Cámara Colombiana del Libro  www.camlibro.com.co
  • Informes internos de editoriales de varios países
Autor: Guillermo Schavelzon
Email: <guillermo@schavelzon.com>
Twitter: <@gschavelzon>
Fuente: <https://elblogdeguillermoschavelzon.wordpress.com/>

Universidades paulistas lideram pesquisa em cosméticos no mundo

As Universidades de São Paulo (USP) e Estadual de Campinas (Unicamp) estão entre as instituições científicas mais produtivas na pesquisa em cosméticos no mundo ocupando, respectivamente, a 1ª e a 8ª colocações.

As constatações são do estudo “State of Innovation 2016”, realizado pela área de negócios de propriedade intelectual e ciência da Thomson Reuters.

USP e Unicamp estão entre as instituições que mais publicam artigos
científicos na área, aponta estudo realizado pela Thomson Reuters
(Foto:Patricia Maia Campos, na FCFRP da USP/Arquivo do pesquisador)
O estudo apontou que a USP publicou 177 artigos científicos indexados na Web of Science relacionados a cosméticos no período entre 2005 e 2015, à frente da Food and Drug Administration (FDA) – a agência regulatória de alimentos e fármacos dos Estados Unidos –, com 108 publicações; da empresa norte-americana de bens de consumo Procter & Gamble (P&G), com 103 artigos; e da Harvard University, com 83 publicações.

Já a Unicamp publicou 78 trabalhos científicos no mesmo período e superou a University of California Los Angeles (70) e a University of California San Francisco (68).

“O Brasil, historicamente, sempre teve uma participação importante no setor de cosméticos globalmente [o país é o terceiro maior mercado consumidor de produtos de higiene pessoal, perfumaria e cosméticos do mundo, atrás apenas dos Estados Unidos e da China]. Isso acaba se refletindo nas pesquisas realizadas na área no país”, disse Ricardo Horiuchi, especialista em inovação, propriedade intelectual e ciência da Thomson Reuters, à Agência FAPESP.

Há dez anos o Brasil não figurava nem entre os dez países com maior participação em congressos científicos internacionais de cosmetologia – a área da ciência farmacêutica dedicada à pesquisa e desenvolvimento de produtos cosméticos –, relembra Patricia Maia Campos, professora da Faculdade de Ciências Farmacêuticas de Ribeirão Preto (FCFRP) da USP.

Esse cenário, contudo, começou a mudar com a instituição de centros de pesquisa na área no país, como o Núcleo de Estudos Avançados em Tecnologia de Cosméticos (Neatec) da FCFRP, fundado em 1998 e do qual Campos é coordenadora, que começaram a interagir mais com empresas do setor, apontou a pesquisadora.

Por meio de parcerias com indústrias de cosméticos e instituições de pesquisa internacionais na área, os pesquisadores da instituição têm realizado uma série de projetos de pesquisa e desenvolvimento de formulações cosméticas inovadoras, estudos de caracterização de pele e de cabelos e de eficácia clínica de formulações, entre outras linhas de pesquisa.

As parcerias resultaram na publicação de 67 artigos em revistas indexadas por pesquisadores do Neatec nos últimos 10 anos e na obtenção de cinco patentes, das quais três estão depositadas no Brasil, uma registrada e em licenciamento e outra depositada no exterior.

“As parcerias com as empresas estimulam a realização de pesquisas aplicadas que podem resultar em inovações”, avaliou Campos.

Uma das inovações desenvolvidas por pesquisadores do Neatec em parceria com a fabricante brasileira de produtos veterinários Ourofino, foi um produto à base de uma microalga (a spirulina), obtida pela empresa por meio de processos biotecnológicos, que consegue manter a hidratação e controlar a oleosidade da pele ao mesmo tempo.

A aplicação resultou em uma patente depositada pela Ourofino nos Estados Unidos e na Europa.

Por meio de um projeto de pesquisa que realiza atualmente com apoio da FAPESP, Campos pretende desenvolver um produto fotoprotetor à base da microalga.

“Isso seria uma nova aplicação para a spirulina e poderia resultar em outra patente”, indicou.

Já por meio de um projeto de pesquisa anterior, também realizado com apoio da FAPESP, a pesquisadora e colaboradores desenvolveram um filtro solar à base de ginkgo biloba e algas marinhas vermelhas que, além de proteger contra os efeitos nocivos da radiação ultravioleta, melhora a textura e elasticidade da pele, estimula a renovação celular, hidrata e diminui as rugas (leia mais em http://agencia.fapesp.br/15079/).

O produto também rendeu uma patente e despertou a atenção de pesquisadores do Centre de Recherches et d’Investigations Épidermiques et Sensorielles da empresa francesa Chanel, com quem acabaram firmando uma parceria.

“Atualmente, além da Chanel e da Ourofino, também temos parcerias com a L’Oréal e outras empresas francesas, além da Nikkol, do Japão, a Galena, no Brasil, e com universidades da França, Alemanha e Portugal”, elencou Campos.

Já a Unicamp também possui parcerias com a L’Oréal e a Natura e tem aumentado o número de licenciamentos de tecnologias oriundas de projetos realizados na universidade com aplicações em cosméticos e diversas outras áreas.

A fim de dar maior visibilidade a essas tecnologias que estão protegidas por meio de patente ou registro em um sistema computacional, a agência de inovação da universidade – a Inova Unicamp – criou um repositório de informações em sua página na internet com informações sobre cada uma das tecnologias, listadas por categoria.

Em cosméticos, por exemplo, a instituição possui um portfólio de 29 tecnologias. Entre elas uma partícula em escala nanométrica (equivalente à bilionésima parte do metro), que possui óleo de buriti e ceramidas em sua composição e promete aumentar a eficácia contra a queda de cabelos.

“Com a disponibilização do nosso portfólio de patentes na internet, conseguimos registrar um recorde de 15 licenciamentos em 2015”, disse Milton Mori, diretor executivo da Inova Unicamp.

Inovação aberta

Essa prática de “inovação aberta” já adotada pela Unicamp e a USP, em que corporações, universidades, órgãos governamentais e institutos de pesquisa firmam parcerias a fim de lançar novos produtos e tecnologias no mercado, tem se tornado cada vez mais comum e impulsionado a inovação no mundo, aponta o estudo da Thomson Reuters.

Na área de cosméticos, por exemplo, a P&G, a USP, o FDA e a Harvard University, por exemplo, firmaram um acordo para melhorar o processo de produção de produtos cosméticos.

Já a Ford, a University of Michigan e o Politecnico di Torino, na Itália, se uniram para desenvolver tecnologias na área automotiva, destaca o estudo.

“Observamos que há um número crescente de patentes em cotitularidade [nas quais uma empresa divide a titularidade com uma universidade ou instituição de pesquisa], o que demonstra uma maior aproximação entre esses dois mundos que antes eram muito distantes”, afirmou Horiuchi. “Além disso, também estamos identificando muitos artigos em que pesquisadores de empresas e de universidades e instituições de pesquisa dividem a autoria”, ressaltou.

O estudo apontou que o volume total de patentes em todo o mundo cresceu 13,7% em 2015. Já o volume total de novas pesquisas científicas em 12 áreas analisadas – aeroespacial e defesa; automotiva; biotecnologia; cosméticos e bem-estar; alimentos, bebidas e tabaco; eletrodomésticos; tecnologia da informação; equipamentos médicos; óleo e gás; farmacêuticos; semicondutores e telecomunicações. – apresentou uma queda de 19% no ano passado e de 27% desde 2009.

O aumento do número de patentes em 2015 foi impulsionado pelos setores aeroespacial e de defesa (15%), dispositivos médicos (27%) e eletrodomésticos (21%).

O setor de biotecnologia foi o único que registrou uma desaceleração no número de patentes, com uma retração de 2% em 2015, apontou o estudo.

O declínio das publicações científicas sugere uma potencial desaceleração da inovação no futuro porque tipicamente precedem descobertas que podem resultar em novas tecnologias e inovações, aponta o estudo.

“As patentes costumam ser oriundas de pesquisa básica, geralmente realizada em universidades e instituições de pesquisa, que vai sendo aprimorada até chegar a um ponto mais maduro em que uma empresa começa a se interessar e a desenvolver tecnologias a partir de seus resultados”, avaliou Horiuchi.

“Se o número de publicações de resultados de pesquisas básicas realizadas na universidade começar a cair, isso pode impactar na geração de inovação no futuro”, apontou o especialista.

Em sua sétima edição, o estudo anual baseia-se em dados globais de propriedade intelectual, tais como depósito de patentes e publicações científicas em todo o mundo como indicadores de inovação em 12 áreas tecnológicas.

Os dados do estudo foram compilados usando as plataformas  Derwent World Patents Index – um banco de dados mundial de patentes – e a Web of Science – conjunto de bases de dados de publicações científicas –, administradas pela Thomson Reuters.

O estudo “The State of Innovation 2016”, da Thomson Reuters, pode ser lido em stateofinnovation.thomsonreuters.com/.

Autor: Elton Alisson
Fuente: <http://agencia.fapesp.br/>

6 de junio de 2016

How to (seriously) read a scientific paper

Adam Ruben’s tongue-in-cheek column about the common difficulties and frustrations of reading a scientific paper broadly resonated among Science Careers readers. Many of you have come to us asking for more (and more serious) advice on how to make sense of the scientific literature, so we’ve asked a dozen scientists at different career stages and in a broad range of fields to tell us how they do it. Although it is clear that reading scientific papers becomes easier with experience, the stumbling blocks are real, and it is up to each scientist to identify and apply the techniques that work best for them. The responses have been edited for clarity and brevity.

Do you have your own tips or other questions you’d like answered? Leave them in the comments section.

How do you approach reading a paper?

I start by reading the abstract. Then, I skim the introduction and flip through the article to look at the figures. I try to identify the most prominent one or two figures, and I really make sure I understand what's going on in them. Then, I read the conclusion/summary. Only when I have done that will I go back into the technical details to clarify any questions I might have.

- Jesse Shanahan, master's candidate in astronomy at Wesleyan University in Middletown, Connecticut

---
I first get a general idea by reading the abstract and conclusions. The conclusions help me understand if the goal summarized in the abstract has been reached, and if the described work can be of interest for my own study. I also always look at plots/figures, as they help me get a first impression of a paper. Then I usually read the entire article from beginning to end, going through the sections in the order they appear so that I can follow the flow of work that the authors want to communicate.

If you want to make it a productive exercise, you need to have a clear idea of which kind of information you need to get in the first place, and then focus on that aspect. It could be to compare your results with the ones presented by the authors, put your own analysis into context, or extend it using the newly published data. Citation lists can help you decide why the paper may be most relevant to you by giving you a first impression of how colleagues that do similar research as you do may have used the paper.

- Cecilia Tubiana, scientist at the Max Planck Institute for Solar System Research in Göttingen, Germany

---
If I’m aiming to just get the main points, I’ll read the abstract, hop to the figures, and scan the discussion for important points. I think the figures are the most important part of the paper, because the abstract and body of the paper can be manipulated and shaped to tell a compelling story. Then anything I’m unclear about, I head to the methodology.

If I want to delve deeper into the paper, I typically read it in its entirety and then also read a few of the previous papers from that group or other articles on the same topic. If there is a reference after a statement that I find particularly interesting or controversial, I also look it up. Should I need more detail, I access any provided data repositories or supplemental information.

Then, if the authors' research is similar to my own, I see if their relevant data match our findings or if there are any inconsistencies. If there are, I think about what could be causing them. Additionally, I think about what would happen in our model if we used the same methods as they did and what we could learn from that. Sometimes, it is also important to pay attention to why the authors decided to conduct an experiment in a certain way. Did the authors use an obscure test instead of a routine assay, and why would they do this?

- Jeremy C. Borniger, doctoral candidate in neuroscience at Ohio State University, Columbus

---
I always start with title and abstract. That tells me whether or not it’s an article I’m interested in and whether I’ll actually be able to understand it—both scientifically and linguistically. I then read the introduction so that I can understand the question being framed, and jump right to the figures and tables so I can get a feel for the data. I then read the discussion to get an idea of how the paper fits into the general body of knowledge.

I pay attention to acknowledgement of limitations and proper inference of data. Some people stretch their claims more than others, and that can be a red flag for me. I also put on my epidemiologist hat so that I can try to make sure the study design is adequate to actually test the hypotheses being examined.

As I go deeper into the argument framing, figures, and discussion, I also think about which pieces are exciting and new, which ones are biologically or logically relevant, and which ones are most supported by the literature. I also consider which pieces fit with my pre-existing hypotheses and research questions.

- Kevin Boehnke, doctoral candidate in environmental health sciences at the University of Michigan, Ann Arbor

---
My reading strategy depends on the paper. Sometimes I start by skimming through to see how much might be relevant. If it is directly applicable to my current topic, I’ll read the paper closely, apart from the introduction that is probably already familiar. But I always try to figure out if there are particular places or figures that I need to pay close attention to, and then I go and read the related information in the results and discussion.

I also check if there are references that I may be interested in. Sometimes I am curious to see who in the field has—or more likely has not—been referenced, to see whether the authors are choosing to ignore certain aspects of the research. I often find that the supplementary figures actually offer the most curious and interesting results, especially if the results relate to parts of the field that the authors did not reference or if they are unclear or unhelpful to their interpretation of the overall story.

- Gary McDowell, postdoctoral fellow in developmental biology at Tufts University in  Medford, Massachusetts, and visiting scholar at Boston College

---
When reading papers, it helps me to have a writing task so that I am being an active reader instead of letting my eyes glaze over mountains of text only to forget everything I just read. So for example, when I read for background information, I will save informative sentences from each article about a specific topic in a Word document. I'll write comments along the way about new ideas I got or questions I need to explore further. Then, in the future, I’ll only need to read this document instead of re-reading all the individual papers.

Likewise, when I want to figure out how to conduct a particular experiment, I create a handy table in Excel summarizing how a variety of research teams went about doing a particular experiment.

- Lina A. Colucci, doctoral candidate at the Harvard-MIT Health Sciences and Technology program

---
I usually start with the abstract, which gives me a brief snapshot of what the study is all about. Then I read the entire article, leaving the methods to the end unless I can't make sense of the results or I'm unfamiliar with the experiments.

The results and methods sections allow you to pull apart a paper to ensure it stands up to scientific rigor. Always think about the type of experiments performed, and whether these are the most appropriate to address the question proposed. Ensure that the authors have included relevant and sufficient numbers of controls. Often, conclusions can also be based on a limited number of samples, which limits their significance.

I like to print out the paper and highlight the most relevant information, so on a quick rescan I can be reminded of the major points. Most relevant points would be things that change your thinking about your research topic or give you new ideas and directions.

- Lachlan Gray, deputy head of the HIV Neuropathogenesis Lab at the Burnet Institute and adjunct research fellow in the Department of Infectious Disease at Monash University in Melbourne, Australia

---
What I choose to read is based on relation to my research areas and things that are generating lots of interest and discussion because they are driving the way we do psychology, or science more widely, in new directions. Most often, what I am trying to get out of the papers is issues of methodology, experimental design, and statistical analysis. And so for me, the most important section is first what the authors did (methods) and second what they found (results).

It can also be interesting to understand why the authors thought they were doing the study (introduction) and what they think the results mean (discussion). When it is an area that I know a lot about, I don't usually care much about these sections because they often reflect the authors' theoretical predilections and one of many ways to think about the method and results. But when it is an area that I know very little about, I read these closely because then I learn a lot about the assumptions and explanatory approaches in that area of research.

- Brian Nosek, professor in the Department of Psychology at the University of Virginia and executive director of the Center for Open Science in Charlottesville

---
First I read very fast: The point of the first reading is simply to see whether the paper is interesting for me. If it is I read it a second time, slower and with more attention to detail.

If the paper is vital to my research—and if it is theoretical—I would reinvent the paper. In such cases, I only take the starting point and then work out everything else on my own, not looking into the paper. Sometimes this is a painfully slow process. Sometimes I get angry about the authors not writing clearly enough, omitting essential points and dwelling on superfluous nonsense. Sometimes I am electrified by a paper.

- Ulf Leonhardt, professor of physics at the Weizmann Institute of Science in Rehovot, Israel

---
I nearly always read the abstract first and only continue on to the paper if the abstract indicates that the paper will be of value to me. Then, if the topic of the paper is one I know well, I generally skim the introduction, reading its last paragraph to make sure I know the specific question being addressed in the paper. Then I look at the figures and tables, either read or skim the results, and lastly skim or read the discussion.

If the topic is not one I know well, I usually read the introduction much more carefully so that the study is placed into context for me. Then I skim the figures and tables and read the results.

- Charles W. Fox, professor in the Department of Entomology at the University of Kentucky in Lexington

---
It is important to realize that shortcuts have to be taken when reading papers so that there is time left to get our other work done, including writing, conducting research, attending meetings, teaching, and grading papers. Starting as a Ph.D. student, I have been reading the conclusions and methods of academic journal articles and chapters rather than entire books.

- Rima Wilkes, professor in the Department of Sociology at the University of British Columbia, Vancouver

---
As editor-in-chief of Science, I have to read and comprehend papers outside of my field all the time. Generally, I start with the corresponding editors’ summaries, which are meant for someone like me: a science generalist who is interested in everything but dives deeply only into one field. Next, I check to see if someone wrote a News article on the paper. Third, I check to see if there is a Perspective by another scientist. The main goal of a Perspective is to broaden the message of the paper, but often the authors do a great job of extracting the essence of the article for non-specialists at the same time.

Then I tackle the abstract, which has been written to broadly communicate to the readership of the journal. Finally, I move on to the paper itself, reading, in order, the intro, conclusions, scanning the figures, and then reading the paper through.

- Marcia K. McNutt, Editor-in-Chief, Science journals 

What do you do when there is something you don’t understand?

I like to read online so that I can easily cut and paste words I don’t know into a browser to check what they mean.

- McNutt

---
If it's only a few things in the article, I'll make a note to look them up later. If I am really struggling to proceed through the paper, I try to look up a review article or a textbook chapter to give me the necessary background to proceed, which I generally find much more efficient.

There are a lot of acronyms and jargon that can be subfield-specific, so I usually don't wade through the details unless it's for my own research. But I always try to take my time to really understand the methods being used.

- Shanahan

---
I will typically pause immediately to look up things I don’t understand. The rest of the reading may not make sense if I don’t understand a key phrase or jargon. This can backfire a bit, though, as I often go down never-ending rabbit holes after looking something up (What is X? Oh, X influences Y. … So what’s Y? etc…). This can be sort of fun as you learn how everything is connected, but if you’re crunched for time this can pull your attention away from the task at hand.

Sometimes, all the jargon in a paper can cloud the whole point of the experiments in the first place. In such cases, it helps to ask yourself, “What question were the authors trying to answer?” Then you can determine whether they succeeded or failed.

- Borniger

---
It depends on how much the non-understandable bits prevent me from following the main ideas. I usually do not try to understand all the details in all the sections the first time I read a paper. If non-understandable parts appear important for my research, I try to ask colleagues or even contact the lead author directly. Going back to the original references to get all the background information is the last resort, because time can be limited and collaborations and personal contacts can be much more efficient in solving specific problems.

- Tubiana

---
Sometimes, you can just read through a paper and any terms you're not familiar with will become clearer by the end. If it is very heavy going, then stopping and seeking additional information is usually the way to go. I do a quick Google search on the topic, theme, method, jargon, etc. If it is a very dense article, sometimes it will require a few read-throughs before it all starts to make sense.

- Gray

---
The question I ask myself is, “Do I need to understand what that means in order to get what I need from this paper?” I now read articles in research areas well outside of my expertise, and I often don't need more than superficial knowledge of the substantive content. If I can't do anything with the paper unless I don't understand that depth, then I do more background research.

- Nosek

---
Lately, I have had to read a number of papers outside my area of expertise with a lot of unfamiliar jargon. In some cases, I am able to directly extract the information I need from the results or figures and tables. In other cases, I use Google searches to define terms and concepts in the paper or read the cited references to better understand the points being made. Occasionally, papers are so incomprehensible (to me, at least) that I don't bother reading them.

- Fox

Do you ever feel overwhelmed reading papers, and how do you deal with that?

All the time. If the paper is relevant to a problem I am trying to solve, you can be sure that there are key things in the paper that I do not understand. That confusion is not a threat; it is an opportunity. I am ignorant; I need to become less ignorant. This paper may help me.

Simultaneously, some papers are written terribly and are not worth the effort. Someone else has surely written about the concepts more clearly so that I can keep my confusion focused on understanding substance rather than poor grammar.

- Nosek

---
I especially get overwhelmed if it's not in my subfield, if it's long, and if it's full of technical jargon. When this happens, I break it down into chunks and will read it over the course of a few days, if possible. For really difficult papers, it also helps to sit down and work through it with a colleague.

- Shanahan

---
Yes, many times. This is why I developed my own reading strategies, by talking to other scientists and by trial and error. I also have thrown up my hands in frustration and tossed the offending papers away, never to read them again.

- Boehnke

---
Yes, and in these cases you have to realize that some papers are the result of years of work by dozens of scientists. Expecting to digest and understand everything in it in one afternoon is a far-fetched idea.

- Borniger

---
I have often felt overwhelmed! But certain sections might not need as deep an understanding as others. You also need to know your own limits: Are there some parts of the paper that you would like to emulate but are not part of your expertise and might become “accessible” through collaborations?

- Tubiana

---
If I feel the paper is very important to what I’m doing, I’ll leave it a while and go back to it again a couple of times. But if it’s too overwhelming, then I have to leave it aside, unless someone among the colleagues I have contacted has been able to interpret it.

- McDowell

Do you have any other tips you’d like to share?

If there is a seminal paper I want to thoroughly understand, I find some way to give a journal club-style presentation about it. Speaking about a particular paper and answering questions is the best way for me to learn the material.

Also, get a good reference manager. Mendeley helps me do my research, read literature, and write papers.

- Colucci

---
At the beginning, new academic readers find it slow because they have no frame of reference for what they are reading. But there are ways to use reading as a system of creating a mental library, and after a few years, it becomes easy to slot papers onto your mental shelves. Then you can quickly skim a paper to know its contribution.

- Wilkes

---
Be patient. Don’t be afraid or ashamed to use Wikipedia or other, more lay-audience sources like blog posts to get a feel for your topic. Ask many, many questions. If you can’t get a clear understanding of the paper, talk with people in your circle. If you are still confused and it's really important to understand the concepts, email the authors.

- Boehnke

---
Don’t hesitate to talk to more experienced scientists. You will be doing THEM a favor by having them explain to you in terms you understand what a complex paper means. All scientists need more experience translating complex concepts into common terms.

- McNutt

---
If at all possible, read often. Try to keep a bibliography file with a summary of the article, any important points, even a figure or two, along with citation information. Pay attention to different ways of structuring an article, and pay attention to different styles of writing. This will help you develop a style that is effective and also unique.

- Shanahan

Autor: Elisabeth Pain
Twitter: <@babettepain>
Fuente: <http://www.sciencemag.org/>