Archivo de la categoría: Investigación

Directrices de OpenAIRE para administradores de los Sistemas de Gestión de la Investigación (CRIS)

rim

OpenAIRE Guidelines for CRIS Managers

https://guidelines.openaire.eu/en/latest/cris/index.html

 

La gestión de la información de investigación (RIM) es la agregación, conservación y utilización de la información sobre la investigación y se está convirtiendo en un área de creciente interés y relevancia en muchas bibliotecas universitarias. Un CRIS, también conocidos como Research Information Management o RIMS (Sistemas de Gestión de la investigación) son sistemas de información que sirven para recoger y difundir toda la información relacionada con las actividades de investigación de una institución.

Las Directrices proporcionan orientación para que los administradores de CRIS expongan sus metadatos de forma compatible con la infraestructura de OpenAIRE. Al implementar las Directrices, los gestores de CRIS apoyan la inclusión y, por tanto, la reutilización de metadatos en sus sistemas dentro de la infraestructura OpenAIRE. Para los desarrolladores de las plataformas CRIS, las Directrices proporcionan orientación para añadir funcionalidades de apoyo a los gestores y usuarios de CRIS. El intercambio de información entre los distintos sistemas CRIS y la infraestructura OpenAIRE es un ejemplo de intercambio de datos punto a punto entre sistemas CRIS, ya que la propia infraestructura de OpenAIRE es un sistema CRIS.

CERIF (Common European Research Information Format) es un modelo de datos estándar para la información sobre la investigación y una recomendación de la Unión Europea a los Estados miembros. La Unión Europea transfirió el cuidado y la custodia del CERIF a euroCRIS (http://www.eurocris.org), una organización sin ánimo de lucro dedicada a la interoperabilidad de los sistemas de información sobre investigación (CRIS). Además de un modelo de dominio y un modelo de datos formal, CERIF incluye un mecanismo para construir perfiles XML (subconjuntos especializados) para escenarios específicos de intercambio de información. El perfil OpenAIRE de CERIF soporta la recolección e importación de metadatos desde los sistemas CRIS.

Cabells Journal Blacklist recoge 12.000 posibles revistas depredadoras

 

mountain-graphic-2-e1570028493514

 

 

Cabells Journal Blacklist

https://www.cabells.com/

Más sobre  

Cabells ha anunciado que ha revisado y añadido la publicación número 12.000 a su lista negra de revistas. Este es un hito significativo, ya que Cabells ha triplicado el número de posibles revistas engañosas y fraudulentas en su Journal Blacklist desde su lanzamiento en 2017.  Junto a ella, la empresa complementa esta lista con la lista de revistas blancas «Cabells Journal Whitelist», una lista curada de más de 11.000 revistas académicas de 18 disciplinas que orienta a los investigadores e instituciones para obtener el máximo impacto de sus investigaciones.

 

Cabells proporciona análisis de calidad de revistas y datos inteligentes a las comunidades académicas y de investigación, permitiendo la toma de decisiones informadas sobre la calidad y legitimidad de las publicaciones académicas. La lista negra del Cabells Journal consta ahora de más de 12.000 informes de revistas individuales -basados en metodologías objetivas y transparentes- que identifican claramente las revistas y proporcionan un registro de cuándo y por qué se han incluido en la lista negra, lo que permite a los usuarios ver de primera mano los comportamientos engañosos y validar su toma de decisiones.

La lista negra del Cabells Journal es la única base de datos disponible para los estudiosos de revistas académicas engañosas y depredadoras. Elaborado por especialistas que analizan las revistas sospechosas en relación con 74 indicadores de comportamiento, la lista negra del Cabells Journal permite a la comunidad académica mantenerse al tanto de las crecientes amenazas, al tiempo que protege a los investigadores e instituciones de las operaciones de explotación. Esta semana Cabells anunció que tiene recogidas 12.000 revistas en su lista negra de revistas fraudulentas o depredadoras. Lo que supone un incremento de 2.000 revistas respecto al año anterior, y el triple de cuando se inicio la lista en 2017.

La lista negra se complementa con la Cabells Journal Whitelist, una lista curada de más de 11.000 revistas académicas de 18 disciplinas que orienta a los investigadores e instituciones para obtener el máximo impacto de sus investigaciones. La inclusión en la lista blanca es sólo por invitación. Las revistas potenciales son identificadas por el personal interno de las revistas a los que se le pide que complete una solicitud y se someta a una auditoría completa de sus políticas y procedimientos. Cada revista es investigada a fondo y revisada en base a un estricto conjunto de criterios para asegurar que sus operaciones, como mínimo, cumplan con los niveles estándar de la industria. Algunas de las principales áreas de investigación son:

  • Relevancia: Las revistas deben estar directamente relacionadas con un campo cubierto por la base de datos.
  • Patrocinio: Aunque no es obligatorio, se da preferencia a las revistas patrocinadas por asociaciones u organizaciones profesionales y organismos gubernamentales.
  • Calidad: Factores como la integridad, la objetividad, el mérito y la utilidad/importancia se examinan detenidamente.
  • Revisión por pares: La evidencia de un sistema riguroso de revisión por pares debe estar presente para ser considerada para su inclusión.
  • Tarifas: Cualquier cuota asociada con la publicación o revisión debe estar claramente indicada y fácilmente localizable en el sitio web de la revista.
  • Políticas: Deben existir políticas escritas claras y completas sobre temas como la ética, el archivo, el acceso abierto, la retractación y la publicidad.
  • Prácticas de publicación: Información de contacto completa de la revista, sitio web e instrucciones de autor claras y detalladas, y ISSN verificado.

 

Anualmente se realizan auditorías de todas las revistas incluidas en la lista blanca para actualizar la información de la base de datos y confirmar que las revistas siguen cumpliendo los criterios de selección. Una vez aceptada, la lista blanca utiliza medidas cuantitativas que incluyen recuentos de citas e impacto social con Altmetric.com para permitir la comparación entre revistas. No existe una medida mágica que pueda medir la legitimidad o el prestigio de una revista. Sin embargo, hay ciertas métricas que, cuando se toman en conjunto, ofrecen una imagen clara de lo que uno puede esperar en términos de calidad de la revista, audiencia y relevancia

El Director de Marketing Internacional y Desarrollo de Cabells, Simon Linacre, dijo: «Parece haber una presión cada vez mayor por parte de editores inescrupulosos, engañosos y depredadores, de engañar a los investigadores académicos para que publiquen artículos en sus revistas. Lo hacen enviando millones de correos electrónicos diarios que incluyen afirmaciones falsas sobre la revisión por pares y los indicadores de calidad de las revistas, a la vez que ofrecen una publicación rápida por unos pocos cientos de dólares.»

La lista negra del Cabells Journal permite a los investigadores validar sus elecciones de revistas y no dejarse tentar por las ofertas editoriales demasiado buenas para ser verdaderas que se les presentan. Ahora hay más de 12.000 razones para que los investigadores utilicen la Journal Blacklist ampliada y estén tranquilos con respecto a una de las decisiones más importantes que tomarán en sus carreras académicas.

 

Integración entre Altmetric.com y Dimensions

 

 

Ver

Los usuarios podrán realizar una consulta de búsqueda de publicaciones en Dimensiones y ver rápidamente los datos de atención social correspondientes directamente en el explorador Altmetric. La búsqueda integrada está ahora disponible para los suscriptores de Dimensiones (Plus o Analytics) y Altmetric Explorer, lo que proporciona una búsqueda sin fisuras en todas las plataformas para un análisis de atención más detallado. 

 

La combinación de estas dos poderosas herramientas permite obtener una comprensión más completa del rico perfil de un investigador y del alcance más amplio de toda su producción de investigación.

En Dimensions, se puede buscar y filtrar resultados de investigación de más de 100 millones de documentos, que con la integración con Altmetric, permitirá analizar la atención en línea de las publicaciones que aparecen en los resultados de su consulta sin interrumpir su flujo de trabajo.

¿Como funciona? En Dimensions Plus y Analytics, ahora podrás ver un botón que dice: “See attention in Altmetric Explorer” Para utilizar esta nueva funcionalidad, comienza por ejecutar una búsqueda de publicaciones, asegurándose de que sólo tiene 25.000 resultados o menos. (Ten en cuenta que si la búsqueda tiene más de 25.000 resultados, el botón aparecerá en gris). Pulsa el botón y aparecerán los datos de atención en medios sociales a lo largo del tiempo.

Usando la nueva funcionalidad, los usuarios pueden:

  • Rastrear los impactos más amplios (como la participación pública o la influencia social de las patentes o las políticas) e identificar a individuos influyentes (o incluso controvertidos) en un campo para fines de reclutamiento, colaboración o investigación.
  • Comparar los datos de Altmetrics para campos muy específicos e instituciones de investigación de todo el mundo – reuniendo valiosos conocimientos para apoyar la evaluación comparativa detallada y el mapeo del panorama competitivo.
  • Llevar a cabo un análisis más profundo de la atención en línea para la investigación financiada mediante la importación de consultas de búsqueda de grupos de financiadores, países financiadores y sistemas de clasificación específicos (como los utilizados por los Institutos Nacionales de Salud (NIH) de Dimensions.

 

 

 

Metodología de la investigación, ¿para qué? La producción de los datos y los diseños

 

1543_tapa

 

Néstor Cohen . Gabiela Gómez Rojas. Manuel Riveiro. Marcela Grinszpun. Gonzalo Seid. Metodología de la investigación, ¿para qué? La producción de los datos y los diseños. Buenos Aires: Clacsco. Teseo. Red Latinoamericana de Metodología de las Ciencias Sociales, 2019

Texto completo

Además

Más de 100 libros sobre Metodología de la Investigación

 

En este libro, resultado de años de trabajo en las aulas y en el campo de la investigación social, se reflexiona y debate, especialmente, sobre dos cuestiones que se consideran trascendentes respecto del conocimiento metodológico: la producción de los datos y los diseños de investigación. La primera de ellas invita a atender el complejo pasaje del hecho al dato, pero, también, pone luz sobre un proceso que, si no es recorrido adecuadamente, transforma los datos en una deformada y falsa representación de la realidad en estudio. Descuidar este trayecto de la investigación condena al siguiente análisis que se haga sobre los datos a una patética expresión del “sinsentido”, aunque se utilicen los más potentes y actualizados métodos y técnicas. En relación con los diseños de investigación, se discute qué se entiende por estrategia teórica y metodológica, y cómo se involucra y complejiza la noción de diseño. A lo largo del texto, se tratan todos los temas considerando la metodología de la investigación como unidad cualicuantitativa

Indicadores de calidad en edición académica

 

sello-calidad-academica-edicion-modelo-aplicable-chile

Anabel Bonilla-Calero, David Carabantes-Alarcón, Miguel Ángel Sastre-Castillo. Indicadores de calidad en edición académica. Métodos de información. Vol. 10, Núm. 18 (2019)

Texto completo

El Sello de Calidad de Edición Académica creado por ANECA, FECYT y UNE tiene como objetivo promover el uso de indicadores en los procesos de evaluación más ajustados a todas las características de las investigaciones de cada disciplina, así como estimular la calidad en la edición académica mediante el reconocimiento de las mejores prácticas dentro de la edición universitaria española y convertirla en un signo distintivo que, tanto las agencias de evaluación de la actividad investigadora como la comunidad académica y científica, puedan identificar fácilmente. Hasta la fecha 39 colecciones de 21 editoriales diferentes han obtenido el Sello en las dos convocatorias celebradas hasta el momento. Estos resultados deben mantenerse actualizados, teniendo en cuenta que el mundo de las monografías es muy dinámico.

Medición del impacto social de la investigación.

ten_reasons_not_to_measure_impact_and_what_to_do_instead_resized

 

Bornmann, Lutz. (2012). Measuring the societal impact of research. EMBO reports. 13. 673-6. 10.1038/embor.2012.99.

Texto completo

Antes de la Segunda Guerra Mundial, los gobiernos habían comenzado a invertir fondos públicos en investigación científica con la esperanza de que se obtuvieran beneficios militares, económicos, médicos y de otro tipo. Esta tendencia continuó durante la guerra y durante todo el período de la Guerra Fría, con crecientes niveles de inversión pública en ciencia. La física nuclear fue el principal benefactor, pero también se apoyaron otras disciplinas a medida que se hizo evidente su potencial militar o comercial. Además, la investigación llegó a ser vista como una empresa valiosa en sí misma, dado el valor del conocimiento generado, incluso si los avances en la comprensión no podían ser aplicados inmediatamente. Vannevar Bush, asesor científico del presidente Franklin D. Roosevelt durante la Segunda Guerra Mundial, estableció el valor inherente de la investigación básica en su informe al presidente, Science, the endless frontier, y se ha convertido en el fundamento subyacente del apoyo público y la financiación de la ciencia.

Sin embargo, el crecimiento de la investigación científica durante las últimas décadas ha superado los recursos públicos disponibles para financiarla. Esto ha conducido a un problema para los organismos de financiación y los políticos: ¿cómo se pueden distribuir los recursos limitados de la manera más eficiente y eficaz entre los investigadores y los proyectos de investigación? Este desafío -identificar investigaciones prometedoras- generó tanto el desarrollo de medidas para evaluar la calidad de la propia investigación científica como para determinar el impacto social de la investigación. Aunque el primer conjunto de medidas ha sido relativamente exitoso y se utiliza ampliamente para determinar la calidad de las revistas, los proyectos de investigación y los grupos de investigación, ha sido mucho más difícil desarrollar medidas fiables y significativas para evaluar el impacto social de la investigación. El impacto de la investigación aplicada, como el desarrollo de medicamentos, la informática o la ingeniería, es obvio, pero los beneficios de la investigación básica son menos evidentes, más difíciles de evaluar y han sido objeto de un escrutinio creciente desde los años noventa.

De hecho, no existe una relación directa entre la ciencia y la tecnología. calidad de un proyecto de investigación y su valor social. Como han señalado Paul Nightingale y Alister Scott, del Centro de Investigación de Políticas de Ciencia y Tecnología de la Universidad de Sussex: «La investigación que es muy citada o publicada en las principales revistas puede ser buena para la disciplina académica, pero no para la sociedad». Además, pueden pasar años, o incluso décadas, antes de que un determinado conjunto de conocimientos produzca nuevos productos o servicios que afecten a la sociedad. A modo de ejemplo, en un editorial sobre el tema en el British Medical Journal, el editor Richard Smith cita la investigación original sobre la apoptosis como un trabajo de alta calidad, pero que no ha tenido «ningún impacto medible en la salud». Él contrasta esto, por ejemplo, con la investigación sobre «la rentabilidad de diferentes tipos de incontinencia almohadillas», que ciertamente no se ve como alta valor por parte de la comunidad científica, pero que ha tenido una inmediata e importante impacto social.

 

Ranking por relevancia y conteos de citas, un estudio comparativo: Google Scholar, Microsoft Academic, WoS y Scopus

 

86606f57ddaaf2c6b1128803ed00c34b

Rovira C, Codina L, ​Guerrero-Solé F, Lopezosa C. Ranking by relevance and citation counts, a comparative study: Google Scholar, Microsoft Academic, WoS and Scopus. Future internet. 2019;11(2):[22 p.]. DOI: 10.3390/fi11090202

Texto completo

 

Search engine optimization (SEO) es el conjunto de métodos diseñados para aumentar la visibilidad y el número de visitas a una página web mediante su posicionamiento en las páginas de resultados de los buscadores. Recientemente, el SEO también se ha aplicado a bases de datos académicas y motores de búsqueda, en una tendencia que está en constante crecimiento. Este nuevo enfoque, conocido como SEO académico (ASEO), ha generado un campo de estudio con un considerable potencial de crecimiento futuro debido al impacto de la ciencia abierta. El estudio que aquí se presenta forma parte de este nuevo campo de análisis. El ranking de resultados es un aspecto clave en cualquier sistema de información, ya que determina la forma en que estos resultados se presentan al usuario. El objetivo de este estudio es analizar y comparar los algoritmos de ranking de relevancia empleados por diversas plataformas académicas para identificar la importancia de las citas recibidas en sus algoritmos. Específicamente, se analizan dos motores de búsqueda y dos bases de datos bibliográficas: Google Scholar y Microsoft Academic, por un lado, y Web of Science y Scopus, por otro. Se emplea una metodología de ingeniería inversa basada en el análisis estadístico de los coeficientes de correlación de Spearman. Los resultados indican que los algoritmos de clasificación utilizados por Google Scholar y Microsoft son los dos más influenciados por las citas recibidas. De hecho, los recuentos de citas son claramente el principal factor de SEO en estos motores de búsqueda académicos. Un hallazgo inesperado es que, en ciertos momentos, Web of Science (WoS) utilizó citas recibidas como un factor clave de clasificación, a pesar del hecho de que los documentos de apoyo de WoS afirman que este factor no interviene.

Ránking de las universidades más innovadoras del mundo 2019.

 

innovacion

Ranking: Reuters Releases World’s Most Innovative Universities 2019 (Top 100)

https://www.reuters.com/innovative-universities-2019

Por quinto año consecutivo, la Universidad de Stanford encabeza el ranking de Reuters de las Universidades más innovadoras del mundo, una lista que identifica y clasifica a las instituciones educativas que hacen más para el avance de la ciencia, inventar nuevas tecnologías y potenciar nuevos mercados e industrias.

Stanford no es la única universidad importante que se aferra a su lugar en el ranking. De hecho, las tres mejores universidades de la lista, la número 2 es MIT y la número 3, Harvard, han ocupado sus puestos durante cinco años consecutivos, en el ránking de Innovación Reuters.

En general, Estados Unidos continúa dominando la lista, con 46 universidades entre las 100 mejores, lo mismo que el año anterior. Alemania es el segundo país con mejor desempeño con nueve universidades. Francia sube a la tercera, con ocho universidades en la lista; Japón, Corea del Sur y el Reino Unido tienen 6 cada uno; China tiene 4; los Países Bajos y Suiza tienen 3; Bélgica, Canadá, Israel y Singapur tienen 2, y Dinamarca tiene 1. Considerado a nivel regional, América del Norte tiene 48 universidades en el top 100, Europa tiene 32 (cinco más que el año pasado), Asia tiene 18 (cinco menos), y Medio Oriente tiene 2. No hay universidades en el top 100 ubicadas en África, Sudamérica u Oceanía.

Herramienta de comparación directa de artículos, clasificación y comparación

Metodología directa completa

Ver también: las universidades más innovadoras de Asia

Ver también: las universidades más innovadoras de Europa

Correspondencia entre conteos de lectores de Mendeley y el impacto de los artículos en Scopus

 

fe4a9d9ffa014eb2c2da701f84c2518a

 

Thelwall, M. «Mendeley Reader Counts for US Computer Science Conference Papers and Journal articles.» arXiv:1909.02954 [cs] vol., n. (2019). pp.:

Texto completo

 

Aunque la bibliometría se aplica normalmente a los artículos de revistas cuando se utilizan para apoyar las evaluaciones de investigación, los artículos de conferencias son al menos igual de importantes en campos relacionados con la informática. Por lo tanto, es importante evaluar las ventajas relativas de las citas y la altmétrica para computar los documentos de conferencias, a fin de tomar una decisión informada sobre cuál, si es que hay alguna, se debe utilizar. Este artículo compara las citas de Scopus con los recuentos de lectores de Mendeley para artículos de conferencias y revistas que fueron publicados entre 1996 y 2018 en 11 campos de la informática y que tenían al menos un autor estadounidense.

Los datos mostraron una alta correlación entre los conteos de citas de Scopus y los conteos de lectores de Mendeley en todos los campos y en la mayoría de los años, pero con pocos lectores de Mendeley para artículos de conferencias más antiguos y pocas citas de Scopus para nuevos artículos de conferencias y revistas. Por lo tanto, los resultados sugieren que los recuentos de lectores de Mendeley tienen una ventaja sustancial sobre los recuentos de citas para los documentos de conferencias recientemente publicados debido a su mayor velocidad, pero no son adecuados para los documentos de conferencias más antiguos.

Las mega-revistas de acceso abierto pierden impulso a medida que madura el modelo de publicación

4luk79ei_400x400

Open-access megajournals lose momentum as the publishing model matures
By Jeffrey Brainard. Science Sep. 10, 2019 , 5:15 PM

Ver original

 

Cuando PLOS ONE debutó en 2006, sus fundadores declararon que transformaría la publicación científica. Fue la primera revista multidisciplinaria, de gran volumen y acceso abierto que publicó ciencia técnicamente sólida sin tener en cuenta la novedad. Cinco años más tarde, Peter Binfield, entonces su editor, pronosticó que para 2016, el 50% de todos los artículos científicos aparecerían en 100 de estas «megorrevistas».

 

Con sede en San Francisco, California, PLOS ONE creció hasta convertirse en la revista más grande del mundo, publicando más de 30.000 artículos en su apogeo en 2013 y generando más de una docena de imitadores, pero las mega-revistas se han quedado muy lejos de los objetivos de Binfield. De 2013 a 2018, la producción de PLOS ONE cayó un 44%. Otro megajournal, Scientific Reports, superó a PLOS ONE en tamaño en 2017, pero su número de artículos disminuyó en un 30% al año siguiente, según datos de la base de datos Scopus del editor Elsevier. El crecimiento de las nuevas mega-revistas no ha compensado los descensos. En 2018, PLOS ONE, Scientific Reports, y 11 mega-revistas más pequeñas publicaron colectivamente alrededor del 3% del total de los documentos mundiales.

PLOS ONE y los informes científicos también han disminuido en otras medidas de rendimiento. La velocidad de publicación, un punto clave al principio, ha caído. Y un estudio publicado en agosto mostró que con ciertas medidas basadas en citas, la conexión de las revistas con la vanguardia de la ciencia se ha desgastado.

«Los editores de Megajournal claramente aún no han persuadido a muchos investigadores de que su enfoque añade un valor significativo al ecosistema de las comunicaciones académicas», escribieron el científico Stephen Pinfield, de la Universidad de Sheffield en el Reino Unido, y sus colegas, en un estudio realizado en julio en la revista Journal of Documentation.

Pero las mega-revistas siguen ocupando un nicho único e importante en la publicación científica, dicen algunos analistas. Debido a que su tasa de aceptación es alta -alrededor del 50% de los manuscritos presentados- y no insisten en la novedad, permiten a los autores publicar hallazgos valiosos, como estudios de replicación y resultados negativos, que de otro modo podrían ser rechazados por las revistas selectivas tradicionales. Siguen siendo pertinentes como una opción para los autores europeos cuyos financiadores tienen previsto exigir que sus trabajos sean de libre lectura en el momento de su publicación. Y las tasas de publicación de las megajournals: 1595 dólares por artículo en PLOS ONE, para ejemplo: se mantienen bajas en comparación con revistas de acceso abierto más selectivas, como Nature Communications y Science, la revista hermana de acceso abierto, Science Advances, que cobra 4.500 dólares.

La caída de la producción se debe a la disminución de los envíos. En Scientific Reports, los autores presentaron menos manuscritos después de una caída en su factor de impacto, una medida de las citas por artículo, dice James Butcher, vicepresidente de revistas de su empresa matriz, Nature Research en Londres. La métrica, que muchos autores siguen de cerca, por lo general disminuye cuando una revista se expande rápidamente, como lo hacían los Scientific Reports hasta hace poco.

Joerg Heber, redactor jefe de PLOS ONE, dice que su disminución en las presentaciones se debe a la creciente competencia de las revistas de acceso abierto más recientes. PLOS ONE ha añadido nuevos servicios para atraer a más autores, incluyendo la publicación de los comentarios de los revisores.

Mientras tanto, las mega-revistas han perdido una fuente de atracción: la publicación rápida. Al principio, PLOS ONE y Scientific Reports publicaron los artículos un promedio de 3 meses después de su presentación, en comparación con el promedio de las revistas tradicionales de alrededor de 5 meses. Pero para 2018, el retraso de PLOS ONE había aumentado a 6 meses y el de Scientific Reports a 5 meses, según un estudio de 2018 en Online Information Review. Tanto Heber como Butcher culpan a las dificultades logísticas de manejar grandes volúmenes y dicen que han mejorado el personal y las operaciones para reducir los retrasos.

Tal vez más preocupante: Según un estudio de Petr Heneberg, de la Universidad Carolina de Praga, a medida que los volúmenes editoriales han disminuido, también lo han hecho las conexiones de las mega-revistas con las fronteras de la ciencia. Examinó la frecuencia con la que los artículos de 11 megajournals citaban los artículos recientemente publicados en cada una de las tres revistas selectivas de alto nivel -Nature, Proceedings of the National Academy of Sciences y Science-. También analizó lo contrario: la frecuencia con que los artículos de las tres revistas selectivas citaban artículos en las mega-revistas. Para PLOS ONE, ambas medidas cayeron significativamente entre 2008 y 2016, acercándose a cero, informó Heneberg en la edición de agosto de Scientometrics. También se desplomaron otras citas de las mega-revistas a las tres revistas de élite.

Heber dice que el estudio de Heneberg es demasiado limitado para ser significativo. Por ejemplo, dice que PLOS ONE ha publicado recientemente más investigaciones clínicas, un tema que no aparece a menudo en las tres revistas más valoradas.

Aunque las mega-revistas fundadoras han perdido impulso, otras más selectivas o especializadas están prosperando. En los últimos años han crecido rápidamente tres mega-revistas centradas en la disciplina: Medicine, de la editorial Wolters Kluwer; BMJ Open; y IEEE Access. Las revistas de acceso abierto como Nature Communications y Science Advances, que consideran la novedad de los artículos, también se han expandido, señala Cassidy Sugimoto, de la Universidad de Indiana en Bloomington, coautora de un próximo estudio de dichas revistas. «Para mí, eso no demuestra que las mega-revistas se están muriendo», dice, sino que sugiere que su carácter pionero ha conducido a una mayor diversidad de opciones de publicación útiles.