Archivo de la etiqueta: Índices de citas

China prohíbe los incentivos en efectivo por publicar artículos

1020nba-superjumbo

 

Smriti Mallapaty. China bans cash rewards for publishing papers. Nature feb 2020

Ver completo

 

La nueva política aborda los incentivos perversos que impulsan la cultura de ‘publicar o perecer’ y podrían alentar prácticas de investigación cuestionables.

 

En una orden emitida la semana pasada, los ministerios de ciencia y educación de China dicen que las instituciones no deben promover ni reclutar investigadores únicamente en función del número de artículos que publican o de sus citas. Los investigadores dan la bienvenida a la política, pero dicen que podría reducir la competitividad científica del país.

En China, uno de los principales indicadores utilizados actualmente para evaluar a los investigadores, asignar fondos y clasificar a las instituciones es la métrica recopilada por Science Citation Index (SCI), una base de datos de artículos y registros de citas de más de 9,000 revistas. Desde 2009, los artículos en estas revistas escritos por autores de instituciones chinas aumentaron de unos 120.000 al año a 450.000 en 2019. Algunas instituciones incluso pagan bonos a los investigadores por publicar en ellos.

Estas prácticas han incentivado a los investigadores a publicar muchos artículos a expensas de la calidad, dice Jin Xuan, ingeniero químico de la Universidad de Loughborough, Reino Unido. La evidencia sugiere que el enfoque en las métricas también ha impulsado un aumento en las prácticas inapropiadas, como los investigadores que presentan documentos plagiados o fraudulentos, o que citan de manera inapropiada el trabajo propio o de un colega para aumentar las citas.

El objetivo de la nueva política no es disuadir a los investigadores chinos de publicar artículos en revistas que figuran en el SCI, sino detener las prácticas inapropiadas de publicación y citas.

Como parte de la nueva política, las evaluaciones de los investigadores ahora necesitarán usar indicadores de la calidad de la investigación, como cuán innovador es el trabajo, si representa un avance científico significativo o su contribución a la resolución de problemas sociales importantes. Estas evaluaciones también deberían basarse más en las opiniones profesionales de pares expertos, y considerar la investigación en revistas publicadas en China, muchas de las cuales no figuran en el SCI.

 

Ciencia a través de Wikipedia: una representación novedosa del conocimiento abierto a través de redes de co-citas

 

20130504_blp510

 

Arroyo-Machado, Wenceslao ; Torres-Salinas, Daniel; Herrera-Viedma, Enrique ; Romero-Frías, Esteban. Science Through Wikipedia: A Novel Representation of Open Knowledge Through Co-Citation Networks. PLoS ONE. DOI: https://doi.org/10.1371/journal.pone.0228713

Texto completo

 

Este estudio proporciona una visión general de la ciencia desde la perspectiva de Wikipedia. Se estableció una metodología para el análisis de cómo los editores de Wikipedia consideran la ciencia a través de sus referencias a artículos científicos.

El método de co-citación se ha adaptado a este contexto para generar redes Pathfinder (PFNET) que resalten las revistas y categorías científicas más relevantes, y sus interacciones para descubrir cómo se consume la literatura científica a través de esta enciclopedia abierta. Además de esto, su obsolescencia ha sido estudiada a través del índice de precios.

Inicialmente se ha tenido en cuenta un total de 1 433 457 referencias disponibles en  Altmetric.com . Después de preprocesarlos y vincularlos a los datos de CiteScore Metrics de Elsevier, la muestra se redujo a 847 512 referencias hechas por 193.802 artículos de Wikipedia a 598.746 artículos científicos pertenecientes a 14 149 revistas indexadas en Scopus.

Como resultados resaltados, se encontró una presencia significativa de artículos de “Medicina” y “Bioquímica, Genética y Biología Molecular” y que las revistas más importantes son de naturaleza multidisciplinaria, lo que sugiere también que las revistas de factores de alto impacto tenían más probabilidades de ser citadas. Además, solo el 13.44% de las citas de Wikipedia corresponden a revistas de acceso abierto.

Adopción del modelo de negocio de acceso abierto en la publicación de revistas científicas – Un estudio transversal

01a780b32e879fd8ce098bf25d5cf998

Björk, B-C., & Korkeamäki, T.. Adoption of the open access business model in scientific journal publishing – A cross-disciplinary study. College & Research Libraries, 2019

Texto completo

En los últimos veinticinco años, las editoriales de revistas científicas se han convertido rápidamente a la difusión predominantemente electrónica, pero el modelo de negocio de “el lector paga” sigue dominando el mercado. La publicación de Acceso Abierto (OA), donde los artículos se pueden leer libremente en la red ha aumentado lentamente su cuota de mercado hasta cerca del 20%, pero no ha logrado cumplir las visiones de rápida proliferación que predijeron muchos de los pioneros del OA. El crecimiento del acceso abierto también ha sido muy desigual en los distintos campos de la ciencia. Se recogen las cuotas de mercado de acceso abierto en dieciocho disciplinas indexadas por Scopus que van desde el 27% (agricultura) hasta el 7% (negocios). Las diferencias son mucho más pronunciadas en las revistas publicadas en los cuatro países, que dominan el ámbito académico comercial. de publicación (EE.UU., Reino Unido, Alemania y los Países Bajos). Se presentan desarrollos contrastados dentro de seis disciplinas académicas. Disponibilidad de fondos para pagar los gastos de publicación, presión de las agencias de investigación en torno a la financiamiento, y la diversidad de culturas de comunicación de la investigación.

Número de revistas y de revistas OA en los principales servicios de indización

Index – No of journals – No of OA journals – OA journal share
WoS 16,257 2,786 17.1 %
Scopus 24,385 4,485 18.4 %
Ullrich’s 82,559 16,224 19.7 %
DOAJ 12,135 100 %
ROAD 16,224 100 %
Cabell’s 10,352 100 %

.

0613a06238e6bef33a8cdc4d779cc78a

¿Los artículos publicados en revistas depredadoras están siendo citados en la literatura científica legítima?

Group of Research Scientists show dislike or unlike thumbs down hand

Predatory Journals in the Legitimate Scientific Literature By Rick Andersonoct Scholary Kitchen 28/10/2019

Ver completo

Para comprobar de que modo se están citando los artículos de revistas depredadoras en la literatura científica, se analizaron siete revistas que habían revelado su naturaleza depredadora cuando, cada una de las cuales había demostrado claramente que la revista en cuestión (a pesar de sus afirmaciones públicas de rigor revisado por pares) publicará a cambio del pago de los cargos de procesamiento de artículos, o asumirá como editor a alguien sin cualificación.

Posteriormente se buscaron las citas de artículos publicados en estas revistas en tres grandes agregadores de artículos científicos:

  • The Web of Science, que afirma indexar más de 90 millones de documentos.
  • La base de datos ScienceDirect de revistas y libros publicados por Elsevier, que afirma incluir más de 15 millones de publicaciones.
  • PLOS ONE, un megaproyecto de acceso abierto que ha publicado unos 200.000 artículos en su historia.

Las búsquedas se realizaron en agosto de 2018 y luego se repitieron en octubre de 2018 como control. En todos los casos, los resultados de octubre fueron iguales o ligeramente superiores.

screen-shot-2019-10-25-at-10.24.44-am

Cuando se buscó  en Web of Science, Science Direct y PLOS ONE citas de artículos publicados en estas siete revistas, dos de las siete revistas depredadoras nunca habían sido citadas por artículos de esas plataformas. De estas plataformas, la que contenía la menor cantidad de citas a revistas depredadoras fue PLOS ONE (en la que no hubo citas a revistas depredadoras excepto a la Revista E, que fue citada en 17 artículos PLOS ONE, aunque ninguno de estos artículos citados fue publicado en la Revista E después de su venta en 2014).

Elsevier ScienceDirect contenía 61 citas a la Revista E en total, 31 de ellas desde la venta. Sin embargo, de esos 31 artículos en las revistas de Elsevier, 26 citaron artículos de pre-venta en la Revista E; en dos casos sólo los resúmenes estaban disponibles en línea, lo que hacía imposible determinar las fechas de publicación de los artículos citados; en tres casos, las citas eran de artículos de post-venta. En otras palabras, sólo 5 artículos en las revistas de Elsevier, como mucho, fueron encontrados citando artículos de la Revista E que fueron publicados después de su venta. El resultado más preocupante fue que Web of Science contenía 40 citas de artículos de postventa publicados en el Journal E.

En cualquier caso, la tabla de arriba representa una buena noticia: las revistas depredadoras bajo examen rara vez han sido citadas en publicaciones legítimas indexadas por estos grandes compendios de literatura académica y científica.

Otro contexto en el que deben considerarse estos datos es el de la propia producción de las revistas depredadoras: por ejemplo, una de ellas tuvo el 36% de sus artículos publicados citados en una literatura académica general; otra tuvo el 25% de sus artículos citados. La Revista E ha tenido sólo el 6% de sus artículos de post-venta citados en la literatura legítima – sin embargo, como muestra la Figura 2, dada la prodigiosa producción de esta revista durante los dos años bajo examen, ese pequeño porcentaje representa el mayor número de artículos citados.

Y es importante tener en cuenta que este estudio examinó sólo siete de las revistas depredadoras de las más de 12,000 publicaciones de este tipo en el mercado.

En conclusión: los datos de este estudio de siete de las revistas más claramente depredadoras demuestran la capacidad de dichas revistas para contaminar el discurso científico y académico. Esto es claramente un problema.

Sin embargo, quedan otras cuestiones importantes por resolver. Estos incluyen

  • ¿Cuál es la magnitud real del problema? ¿Qué porcentaje de los artículos publicados por las aproximadamente 12.000 revistas depredadoras que operan actualmente representan una investigación tan profundamente defectuosa que habría sido rechazada por los editores y revisores competentes?
  • De esos artículos fundamentalmente defectuosos, ¿cuántos se citan en publicaciones legítimas? ¿Cuál es el impacto del problema en el mundo real? ¿Hasta qué punto la mala ciencia, disfrazada de buena ciencia, socava la calidad del discurso científico, la formación de políticas y la atención médica?

Se trata de cuestiones urgentes que requieren una mayor investigación.

 

Ranking por relevancia y conteos de citas, un estudio comparativo: Google Scholar, Microsoft Academic, WoS y Scopus

 

86606f57ddaaf2c6b1128803ed00c34b

Rovira C, Codina L, ​Guerrero-Solé F, Lopezosa C. Ranking by relevance and citation counts, a comparative study: Google Scholar, Microsoft Academic, WoS and Scopus. Future internet. 2019;11(2):[22 p.]. DOI: 10.3390/fi11090202

Texto completo

 

Search engine optimization (SEO) es el conjunto de métodos diseñados para aumentar la visibilidad y el número de visitas a una página web mediante su posicionamiento en las páginas de resultados de los buscadores. Recientemente, el SEO también se ha aplicado a bases de datos académicas y motores de búsqueda, en una tendencia que está en constante crecimiento. Este nuevo enfoque, conocido como SEO académico (ASEO), ha generado un campo de estudio con un considerable potencial de crecimiento futuro debido al impacto de la ciencia abierta. El estudio que aquí se presenta forma parte de este nuevo campo de análisis. El ranking de resultados es un aspecto clave en cualquier sistema de información, ya que determina la forma en que estos resultados se presentan al usuario. El objetivo de este estudio es analizar y comparar los algoritmos de ranking de relevancia empleados por diversas plataformas académicas para identificar la importancia de las citas recibidas en sus algoritmos. Específicamente, se analizan dos motores de búsqueda y dos bases de datos bibliográficas: Google Scholar y Microsoft Academic, por un lado, y Web of Science y Scopus, por otro. Se emplea una metodología de ingeniería inversa basada en el análisis estadístico de los coeficientes de correlación de Spearman. Los resultados indican que los algoritmos de clasificación utilizados por Google Scholar y Microsoft son los dos más influenciados por las citas recibidas. De hecho, los recuentos de citas son claramente el principal factor de SEO en estos motores de búsqueda académicos. Un hallazgo inesperado es que, en ciertos momentos, Web of Science (WoS) utilizó citas recibidas como un factor clave de clasificación, a pesar del hecho de que los documentos de apoyo de WoS afirman que este factor no interviene.

Comparación de fuentes de datos bibliográficos: implicaciones para la solidez de las los rankings universitarios

ranking-1024x1024

 

Chun-Kai (Karl) Huang, Cameron Neylon, Chloe Brookes-Kenworthy, Richard Hosking, Lucy Montgomery, Katie Wilson, Alkim Ozaygen. “Comparison of Bibliographic Data Sources: Implications for the Robustness of University Rankings”. bioRxiv, 2019

Texto completo

 

Las universidades se evalúan cada vez más, tanto interna como externamente en función de sus resultados. A menudo, estos se convierten en rankings simples, y con frecuencia disputados, basadas en el análisis cuantitativo de esos resultados. Estos rankings pueden tener implicaciones sustanciales para el reclutamiento de estudiantes y personal, ingresos por investigación y el prestigio percibido de una universidad. Los análisis internos y externos generalmente se basan en una única fuente de datos para definir el conjunto de resultados asignados a una universidad específica. Aunque se documentan algunas diferencias entre tales bases de datos, pocos estudios las exploraron a escala institucional y examinaron las implicaciones de estas diferencias para las métricas y rankings que se derivan de ellas.

Se aborda esta brecha realizando comparaciones bibliográficas detalladas entre tres bases de datos clave: Web of Science (WoS), Scopus y, el recientemente relanzado Microsoft Academic (MSA). Se analizan las diferencias entre los resultados con DOI identificados de cada fuente para una muestra de 155 universidades y complementamos esto con un análisis manual detallado de las diferencias para quince universidades. Se dan diferencias significativas entre las fuentes a nivel universitario. Las fuentes difieren en el año de publicación de objetos específicos, la integridad de los metadatos, así como en su cobertura de disciplinas, puntos de venta y tipo de publicación.

Se construyeron  dos clasificaciones simples basadas en el recuento de citas y el estado de acceso abierto de los resultados para estas universidades y se aprecian cambios dramáticos en la posición según la elección de las fuentes de datos bibliográficos. Las universidades que experimentan los mayores cambios son con frecuencia las de países que no hablan inglés y las que están fuera de los primeros puestos en el ranking internacional de universidades. En general, MSA tiene una mayor cobertura que Scopus o WoS, pero tiene metadatos de afiliación menos completos. 

Se sugiere que las medidas de evaluación sólidas deben considerar el efecto de la elección de las fuentes de datos y recomendar un enfoque en el que los datos de múltiples fuentes se integren para proporcionar un conjunto de datos más robusto

 

El atractivo del factor de impacto de la revista se mantiene intacto, a pesar de sus defectos

 

1f3da530c88bb69a792d947db7bdb391

 

Jon Brock. The allure of the journal impact factor holds firm, despite its flaws. Nature Index. 29 August 2019

Ver compelto

 

Muchos investigadores todavía ven el factor de impacto de la revista (JIF, por sus siglas en inglés) como una medida clave para el progreso en su carrera académica, a pesar de la preocupación de que se trata de una medida errónea del valor de la investigación.

 

El factor de impacto de una revista indexa el número promedio de citas que reciben los artículos recientemente publicados. Como han señalado los críticos, a menudo se basa en un pequeño número de artículos muy citados, es vulnerable a los avatares de la política editorial y no se calcula de forma transparente. No obstante, sigue siendo parte integrante del proceso de revisión, promoción y permanencia en el cargo (RPT) en muchas instituciones académicas.

Una estudio reciente publicado en BioArxiv dirigido por Meredith Niles, profesora asistente del Departamento de Nutrición y Ciencias de los Alimentos de la Universidad de Vermont encuestó a 338 investigadores de 55 universidades de Estados Unidos y Canadá, poniendo de manifiesto que más de un tercio (36%) considera que el facto de impacto es “muy importante”, y un 27% dijo que era “muy importante” a la hora de decidir dónde enviar artículos.

Se encontró que la edad o condición del encuestado no tenía ninguna relación con como percibían el valor del Factor de Impacto de la revista. Si bien, los investigadores jóvenes y no titulares, para quienes consolidar su carrera académica es más importante, le dan más importancia al JIF a la hora de decidir dónde publicar.

Los encuestados también indicaron que creían que sus colegas le daban más importancia al Factor de Impacto que ellos. Niles describe esto como una forma de “superioridad ilusoria”, en la que la gente tiende a verse a sí misma bajo una luz más favorable que a los demás.

Estos resultado indica la necesidad de “conversaciones honestas” sobre lo que realmente importa a la hora de comunicar la investigación académica,

La encuesta es el resultado de un estudio del mismo proyecto, publicado en eLife el mes pasado, que analizó 864 documentos sobre promoción y permanencia en el cargo de 129 universidades norteamericanas. En total, 30 de las instituciones (23%) se refirieron a factores de impacto o frases relacionadas como “revista de alto impacto” en al menos uno de sus documentos. Esta cifra se elevó al 40% para las instituciones más intensivas en investigación.

De las 30 universidades que mencionaron el factor de impacto, la mayoría (87%) apoyaron su uso. Sólo cuatro (13%) expresaron cautela contra su uso., la continua deferencia al factor de impacto da una idea de cómo los científicos pueden ser altamente críticos en su propio campo temático, pero “crédulos y resistentes a la evidencia” al evaluar su productividad.