Archivo de la etiqueta: Índices de citas

¿Los artículos publicados en revistas depredadoras están siendo citados en la literatura científica legítima?

Group of Research Scientists show dislike or unlike thumbs down hand

Predatory Journals in the Legitimate Scientific Literature By Rick Andersonoct Scholary Kitchen 28/10/2019

Ver completo

Para comprobar de que modo se están citando los artículos de revistas depredadoras en la literatura científica, se analizaron siete revistas que habían revelado su naturaleza depredadora cuando, cada una de las cuales había demostrado claramente que la revista en cuestión (a pesar de sus afirmaciones públicas de rigor revisado por pares) publicará a cambio del pago de los cargos de procesamiento de artículos, o asumirá como editor a alguien sin cualificación.

Posteriormente se buscaron las citas de artículos publicados en estas revistas en tres grandes agregadores de artículos científicos:

  • The Web of Science, que afirma indexar más de 90 millones de documentos.
  • La base de datos ScienceDirect de revistas y libros publicados por Elsevier, que afirma incluir más de 15 millones de publicaciones.
  • PLOS ONE, un megaproyecto de acceso abierto que ha publicado unos 200.000 artículos en su historia.

Las búsquedas se realizaron en agosto de 2018 y luego se repitieron en octubre de 2018 como control. En todos los casos, los resultados de octubre fueron iguales o ligeramente superiores.

screen-shot-2019-10-25-at-10.24.44-am

Cuando se buscó  en Web of Science, Science Direct y PLOS ONE citas de artículos publicados en estas siete revistas, dos de las siete revistas depredadoras nunca habían sido citadas por artículos de esas plataformas. De estas plataformas, la que contenía la menor cantidad de citas a revistas depredadoras fue PLOS ONE (en la que no hubo citas a revistas depredadoras excepto a la Revista E, que fue citada en 17 artículos PLOS ONE, aunque ninguno de estos artículos citados fue publicado en la Revista E después de su venta en 2014).

Elsevier ScienceDirect contenía 61 citas a la Revista E en total, 31 de ellas desde la venta. Sin embargo, de esos 31 artículos en las revistas de Elsevier, 26 citaron artículos de pre-venta en la Revista E; en dos casos sólo los resúmenes estaban disponibles en línea, lo que hacía imposible determinar las fechas de publicación de los artículos citados; en tres casos, las citas eran de artículos de post-venta. En otras palabras, sólo 5 artículos en las revistas de Elsevier, como mucho, fueron encontrados citando artículos de la Revista E que fueron publicados después de su venta. El resultado más preocupante fue que Web of Science contenía 40 citas de artículos de postventa publicados en el Journal E.

En cualquier caso, la tabla de arriba representa una buena noticia: las revistas depredadoras bajo examen rara vez han sido citadas en publicaciones legítimas indexadas por estos grandes compendios de literatura académica y científica.

Otro contexto en el que deben considerarse estos datos es el de la propia producción de las revistas depredadoras: por ejemplo, una de ellas tuvo el 36% de sus artículos publicados citados en una literatura académica general; otra tuvo el 25% de sus artículos citados. La Revista E ha tenido sólo el 6% de sus artículos de post-venta citados en la literatura legítima – sin embargo, como muestra la Figura 2, dada la prodigiosa producción de esta revista durante los dos años bajo examen, ese pequeño porcentaje representa el mayor número de artículos citados.

Y es importante tener en cuenta que este estudio examinó sólo siete de las revistas depredadoras de las más de 12,000 publicaciones de este tipo en el mercado.

En conclusión: los datos de este estudio de siete de las revistas más claramente depredadoras demuestran la capacidad de dichas revistas para contaminar el discurso científico y académico. Esto es claramente un problema.

Sin embargo, quedan otras cuestiones importantes por resolver. Estos incluyen

  • ¿Cuál es la magnitud real del problema? ¿Qué porcentaje de los artículos publicados por las aproximadamente 12.000 revistas depredadoras que operan actualmente representan una investigación tan profundamente defectuosa que habría sido rechazada por los editores y revisores competentes?
  • De esos artículos fundamentalmente defectuosos, ¿cuántos se citan en publicaciones legítimas? ¿Cuál es el impacto del problema en el mundo real? ¿Hasta qué punto la mala ciencia, disfrazada de buena ciencia, socava la calidad del discurso científico, la formación de políticas y la atención médica?

Se trata de cuestiones urgentes que requieren una mayor investigación.

 

Ranking por relevancia y conteos de citas, un estudio comparativo: Google Scholar, Microsoft Academic, WoS y Scopus

 

86606f57ddaaf2c6b1128803ed00c34b

Rovira C, Codina L, ​Guerrero-Solé F, Lopezosa C. Ranking by relevance and citation counts, a comparative study: Google Scholar, Microsoft Academic, WoS and Scopus. Future internet. 2019;11(2):[22 p.]. DOI: 10.3390/fi11090202

Texto completo

 

Search engine optimization (SEO) es el conjunto de métodos diseñados para aumentar la visibilidad y el número de visitas a una página web mediante su posicionamiento en las páginas de resultados de los buscadores. Recientemente, el SEO también se ha aplicado a bases de datos académicas y motores de búsqueda, en una tendencia que está en constante crecimiento. Este nuevo enfoque, conocido como SEO académico (ASEO), ha generado un campo de estudio con un considerable potencial de crecimiento futuro debido al impacto de la ciencia abierta. El estudio que aquí se presenta forma parte de este nuevo campo de análisis. El ranking de resultados es un aspecto clave en cualquier sistema de información, ya que determina la forma en que estos resultados se presentan al usuario. El objetivo de este estudio es analizar y comparar los algoritmos de ranking de relevancia empleados por diversas plataformas académicas para identificar la importancia de las citas recibidas en sus algoritmos. Específicamente, se analizan dos motores de búsqueda y dos bases de datos bibliográficas: Google Scholar y Microsoft Academic, por un lado, y Web of Science y Scopus, por otro. Se emplea una metodología de ingeniería inversa basada en el análisis estadístico de los coeficientes de correlación de Spearman. Los resultados indican que los algoritmos de clasificación utilizados por Google Scholar y Microsoft son los dos más influenciados por las citas recibidas. De hecho, los recuentos de citas son claramente el principal factor de SEO en estos motores de búsqueda académicos. Un hallazgo inesperado es que, en ciertos momentos, Web of Science (WoS) utilizó citas recibidas como un factor clave de clasificación, a pesar del hecho de que los documentos de apoyo de WoS afirman que este factor no interviene.

Comparación de fuentes de datos bibliográficos: implicaciones para la solidez de las los rankings universitarios

ranking-1024x1024

 

Chun-Kai (Karl) Huang, Cameron Neylon, Chloe Brookes-Kenworthy, Richard Hosking, Lucy Montgomery, Katie Wilson, Alkim Ozaygen. “Comparison of Bibliographic Data Sources: Implications for the Robustness of University Rankings”. bioRxiv, 2019

Texto completo

 

Las universidades se evalúan cada vez más, tanto interna como externamente en función de sus resultados. A menudo, estos se convierten en rankings simples, y con frecuencia disputados, basadas en el análisis cuantitativo de esos resultados. Estos rankings pueden tener implicaciones sustanciales para el reclutamiento de estudiantes y personal, ingresos por investigación y el prestigio percibido de una universidad. Los análisis internos y externos generalmente se basan en una única fuente de datos para definir el conjunto de resultados asignados a una universidad específica. Aunque se documentan algunas diferencias entre tales bases de datos, pocos estudios las exploraron a escala institucional y examinaron las implicaciones de estas diferencias para las métricas y rankings que se derivan de ellas.

Se aborda esta brecha realizando comparaciones bibliográficas detalladas entre tres bases de datos clave: Web of Science (WoS), Scopus y, el recientemente relanzado Microsoft Academic (MSA). Se analizan las diferencias entre los resultados con DOI identificados de cada fuente para una muestra de 155 universidades y complementamos esto con un análisis manual detallado de las diferencias para quince universidades. Se dan diferencias significativas entre las fuentes a nivel universitario. Las fuentes difieren en el año de publicación de objetos específicos, la integridad de los metadatos, así como en su cobertura de disciplinas, puntos de venta y tipo de publicación.

Se construyeron  dos clasificaciones simples basadas en el recuento de citas y el estado de acceso abierto de los resultados para estas universidades y se aprecian cambios dramáticos en la posición según la elección de las fuentes de datos bibliográficos. Las universidades que experimentan los mayores cambios son con frecuencia las de países que no hablan inglés y las que están fuera de los primeros puestos en el ranking internacional de universidades. En general, MSA tiene una mayor cobertura que Scopus o WoS, pero tiene metadatos de afiliación menos completos. 

Se sugiere que las medidas de evaluación sólidas deben considerar el efecto de la elección de las fuentes de datos y recomendar un enfoque en el que los datos de múltiples fuentes se integren para proporcionar un conjunto de datos más robusto

 

El atractivo del factor de impacto de la revista se mantiene intacto, a pesar de sus defectos

 

1f3da530c88bb69a792d947db7bdb391

 

Jon Brock. The allure of the journal impact factor holds firm, despite its flaws. Nature Index. 29 August 2019

Ver compelto

 

Muchos investigadores todavía ven el factor de impacto de la revista (JIF, por sus siglas en inglés) como una medida clave para el progreso en su carrera académica, a pesar de la preocupación de que se trata de una medida errónea del valor de la investigación.

 

El factor de impacto de una revista indexa el número promedio de citas que reciben los artículos recientemente publicados. Como han señalado los críticos, a menudo se basa en un pequeño número de artículos muy citados, es vulnerable a los avatares de la política editorial y no se calcula de forma transparente. No obstante, sigue siendo parte integrante del proceso de revisión, promoción y permanencia en el cargo (RPT) en muchas instituciones académicas.

Una estudio reciente publicado en BioArxiv dirigido por Meredith Niles, profesora asistente del Departamento de Nutrición y Ciencias de los Alimentos de la Universidad de Vermont encuestó a 338 investigadores de 55 universidades de Estados Unidos y Canadá, poniendo de manifiesto que más de un tercio (36%) considera que el facto de impacto es “muy importante”, y un 27% dijo que era “muy importante” a la hora de decidir dónde enviar artículos.

Se encontró que la edad o condición del encuestado no tenía ninguna relación con como percibían el valor del Factor de Impacto de la revista. Si bien, los investigadores jóvenes y no titulares, para quienes consolidar su carrera académica es más importante, le dan más importancia al JIF a la hora de decidir dónde publicar.

Los encuestados también indicaron que creían que sus colegas le daban más importancia al Factor de Impacto que ellos. Niles describe esto como una forma de “superioridad ilusoria”, en la que la gente tiende a verse a sí misma bajo una luz más favorable que a los demás.

Estos resultado indica la necesidad de “conversaciones honestas” sobre lo que realmente importa a la hora de comunicar la investigación académica,

La encuesta es el resultado de un estudio del mismo proyecto, publicado en eLife el mes pasado, que analizó 864 documentos sobre promoción y permanencia en el cargo de 129 universidades norteamericanas. En total, 30 de las instituciones (23%) se refirieron a factores de impacto o frases relacionadas como “revista de alto impacto” en al menos uno de sus documentos. Esta cifra se elevó al 40% para las instituciones más intensivas en investigación.

De las 30 universidades que mencionaron el factor de impacto, la mayoría (87%) apoyaron su uso. Sólo cuatro (13%) expresaron cautela contra su uso., la continua deferencia al factor de impacto da una idea de cómo los científicos pueden ser altamente críticos en su propio campo temático, pero “crédulos y resistentes a la evidencia” al evaluar su productividad.

 

Indexación de revistas: normas básicas y por qué son importantes

index

 

Padula, Danielle. “Journal Indexing: Core standards and why they matter“.  LSE, 2019

Texto original

En este artículo, Danielle Padula explica la importancia de una buena indexación de revistas y cómo las revistas que aplican estándares clave pueden aumentar el alcance y el impacto de sus publicaciones.

La forma en que se indexan las revistas en línea es esencial para poder buscarlas y encontrarlas. La inclusión en ciertos índices también está estrechamente vinculada a la evaluación de la calidad, ya que los organismos financiadores de la investigación a menudo exigen a sus investigadores que publiquen en los puntos de venta que figuran en determinados índices.

Si un artículo de investigación se publica sin ser añadido a ningún índice académico, ¿tiene algún impacto? Contrariamente al experimento de pensamiento – “Si un árbol cae en un bosque y no hay nadie alrededor para escucharlo, ¿hace ruido?” – hay una respuesta bastante definitiva a la pregunta anterior. Aparte de los impactos intangibles, es casi seguro que si no aparece en ningún índice  académico, el impacto de un artículo sea bastante limitado.

La indexación es vital para la reputación, el alcance y, en consecuencia, el impacto de los artículos de las revistas. Algunos informes publicados en los últimos años han encontrado que los índices académicos, como Google Scholar, PubMed, MathSciNet y el Directory of Open Access Journals son los principales puntos de partida de la investigación para la mayoría de los investigadores. Además, la mayoría de los académicos priorizan el envío de su investigación a revistas que se incluyen en los principales índices, ya que la indexación es un indicador de la calidad de las revistas.

Toda organización que publique revistas debe priorizar la indexación, para aumentar el alcance de sus artículos y atender mejor las necesidades de los investigadores. Para que los editores de revistas logren el mayor impacto en la indexación, es fundamental cumplir tanto con los estándares básicos de publicación como con los más altos estándares técnicos de indexación.

Normas básicas de indización

Todos los índices académicos requieren que las revistas sigan ciertos estándares básicos de publicación. Para cumplir con los requisitos básicos de indexación, las revistas deben tener:

  • Un número de publicación seriada normalizado internacional (ISSN)
  • Un Identificador de Objeto Digital (DOI)
  • Un programa de publicación establecido
  • Una política de derechos de autor
  • Metadatos básicos a nivel de artículo

A partir de ahí, los índices tendrán diferentes requisitos de inclusión, tales como:

  • Alcance de la publicación: Muchos índices sólo aceptan revistas que publican dentro de áreas temáticas particulares. Por ejemplo, MEDLINE y PubMed Central sólo indexan revistas en biomedicina y ciencias de la vida.
  • Consejo editorial y políticas: A menudo los índices requieren los nombres completos y las afiliaciones de los editores de la revista, así como información sobre las políticas editoriales de la revista, tales como una política de revisión por pares disponible al público y una declaración de ética en la publicación.
  • Nivel de profesionalización editorial: Algunos índices se centran en la profesionalización de la publicación, incluida la legibilidad de los artículos y la calidad de la producción.
  • Política de archivo: Algunos índices exigen que las revistas muestren que sus artículos están siendo archivados por un servicio de preservación digital a largo plazo.

 

Puede encontrar un desglose completo de los estándares de publicación de los índices académicos en el eBook de Scholastica How to publish low-cost, high-quality open access journals online. Las normas de publicación garantizan la uniformidad y la reputación de los índices. En consecuencia, los índices con estándares más altos tienden a ser más confiables para los académicos, lo que mejora la reputación y el alcance de las revistas que los componen.

Algunos ejemplos de los principales índices generales incluyen:

  • Academic Search (EBSCO)
  • Directory of Open Access Journals (DOAJ)
  • JSTOR
  • SciELO
  • Web of Science

 

Alcanzar el máximo potencial de indexación: Por qué las normas técnicas son fundamentales

Una vez que las revistas cumplan con las normas básicas de publicación, como las descritas anteriormente, serán elegibles para los índices relevantes. Pero, para obtener el máximo valor de la indexación, las revistas también deben cumplir con los estándares técnicos más altos.

Existen dos modelos principales para la forma en que los índices recopilan y procesan la información:

  • Web crawlers: Algunos índices, como Google Scholar, indexan artículos de revistas por sí mismos a través de rastreadores web, que son programas de Internet automatizados que “rastrean” sitios web para recopilar información. Para que los rastreadores puedan identificar fácilmente nuevos contenidos, los editores deben aplicar metadatos a los artículos y mantener una estructura de sitio web que cumpla con los requisitos del índice.
  • Depósitos de metadatos/contenido: Muchos índices no tienen rastreadores web y en su lugar requieren que se les envíe información en formatos legibles por máquinas. En este caso, los archivos de metadatos legibles por máquina (a menudo XML) deben depositarse en el índice para que el índice pueda procesar la información del artículo y saber qué devolver en los resultados de búsqueda.

 

Aunque los índices de las arañas web hacen la mayor parte del trabajo para las revistas, hay pasos que los editores deben seguir para asegurar que los artículos puedan ser rastreados. Por ejemplo, para un motor de búsqueda académico como Google Scholar, los pasos técnicos incluyen:

  • Comprobación de los archivos HTML y PDF para asegurarse de que el texto es buscable
  • Configuración de sitios web de revistas para exportar datos bibliográficos en meta tags HTML
  • Asegurarse de que los robots puedan rastrear los sitios web de la revista.

 

Es importante señalar que la mayoría de los índices académicos no tienen rastreadores web y en su lugar requieren que se les envíen metadatos legibles por máquina. Aunque algunos índices tienen formularios para realizar depósitos manuales de metadatos, el depósito directo de archivos de metadatos legibles por máquinas en índices es el estándar técnico más alto y produce los mejores resultados.

Los archivos de metadatos legibles por máquina son más ricos, más uniformes y menos propensos a las inexactitudes en comparación con los metadatos introducidos manualmente. También tienen potencial de minería de datos (o potencial de minería de texto y datos si son archivos de texto completo). Los artículos que permiten la minería de texto y datos pueden ser procesados por scripts en línea y herramientas de aprendizaje automático para analizar la información de los artículos con fines tales como el análisis de lenguaje o citas. Por ejemplo, Scite, un nuevo proveedor de software, está utilizando el aprendizaje automático para escanear citas de artículos para comprobar si los documentos han sido apoyados o denostados.

El estándar de indexación técnica para revistas académicas es XML, o lenguaje de marcado extensible, en formato JATS, que significa Journal Article Tag Suite. Mientras que XML es un lenguaje, JATS es un tipo de sintaxis. Es una forma específica de formatear archivos XML desarrollados por la Organización Nacional de Normas de Información (NISO). El JATS es preferido o requerido por muchos índices académicos, incluyendo todos los índices y motores de búsqueda de la Biblioteca Nacional de Medicina (por ejemplo, PubMed, PubMed Central y MEDLINE). cOAlition S también recomienda encarecidamente que los artículos se formateen en JATS XML en sus directrices de implementación actualizadas de Plan S.

La producción de XML en formato JATS está en el lado más técnico, pero el software puede automatizar gran parte del proceso. El software también se puede utilizar para generar archivos XML de texto completo y evitar pasos como tener que añadir y comprobar manualmente datos de copyright o metadatos de citas, ahorrando tiempo y costes.

Las revistas deben producir al menos archivos XML frontales para todos los artículos con metadatos básicos como el título del artículo, el editor y el DOI. Sin embargo, como se ha señalado, los archivos XML JATS de texto completo son mejores para la minería de texto y datos. También son requeridos por algunos índices como PubMed Central. Los archivos XML JATS de texto completo incluyen todos los metadatos mencionados, así como el texto completo del artículo.

Obtienes lo que aportas

La inclusión de artículos de revistas en índices relevantes puede mejorar enormemente su reputación y alcance, proporcionando un mayor potencial de impacto para las revistas y los académicos que publican en ellas. La inclusión en los principales índices es un indicador de la calidad de las revistas para los académicos y sus instituciones, y los índices son uno de los principales puntos de venta que los académicos utilizan para encontrar artículos, sirviendo como poderosos puntos de descubrimientos. Sin embargo, los beneficios potenciales de los índices dependen de la calidad de los metadatos legibles por máquina y de los archivos de artículos que las revistas ponen en ellos. Para que los editores y autores de revistas obtengan el mayor impacto de la indexación, es fundamental que las revistas tomen medidas para cumplir con los estándares técnicos y de publicación más elevados.

 

 

Nuevo fraude académico: autores que venden y compran la autoría de manuscritos científicos para su publicación en revistas indexadas

 

image-20150817-5098-c5uumo

 

Protecting the integrity of the scientific record from a new kind of academic misconduct by Valentin Bogorov. Clarivate Analytics, jul 23, 2019

Ver original

 

Web of Science Group en Rusia recibió un aviso de la comunidad investigadora local sobre una nueva forma de fraude de publicación que condujo a un sitio web 123mi, http://123mi.ru, creado por operadores sin escrúpulos para servir como un mercado virtual donde los autores pueden comprar o vender su autoría en manuscritos académicos aceptados para su publicación. Este tipo de intercambio entre pares, a “plena luz del día” no es algo que se haya visto nunca.

No hay nombres de autores, o nombres de revistas indicados en el sitio – el nombre de la revista está disponible sólo para los compradores. A veces se ofrecen a la venta hasta cinco autorías en un solo artículo, con precios que varían según el lugar en la lista de autores.

El sitio pretende garantizar la publicación en revistas indexadas en Scopus y/o Web of Science. Un análisis realizado el 15 de julio revela que de los 344 artículos con autoría puestos a la venta, 32 artículos (9%) están supuestamente indexados en la Web of Science, y 303 artículos (88%) están supuestamente indexados en Scopus. Parece ser que los nombres de las revistas se revelan a los clientes del sitio web después de realizar el pago. Los artículos supuestamente a la venta se ofrecen en una gran variedad de disciplinas académicas, desde las ciencias naturales y sociales, a las humanidades.

También hay datos disponibles sobre las últimas transacciones de autoría. De ellos, el 15 de julio había 183 ofertas de autoría en revistas supuestamente indexadas en Scopus, y 11 supuestamente indexadas en la Web of Science. La geografía de las transacciones abarca principalmente la zona postsoviética (Rusia, Kazajstán y Ucrania), pero hay autores vendidos fuera de esa región, en particular a los Emiratos Árabes Unidos, China y el Reino Unido.

El equipo editorial de Web of Science ha establecido 24 criterios de selección específicamente diseñados para mantener el rigor editorial y las mejores prácticas. Los criterios de evaluación de la calidad se aplican no sólo a la selección del nuevo contenido de la Web of Science, sino también al seguimiento de las revistas indexadas actualmente. Aunque se está asegurando que el número de artículos afectados es relativamente pequeño, se intentará identificar cualquier revista que pueda haber sido objeto de comercialización en este sitio.

Web of Science Group ha s enviado una carta de cese y desistimiento al propietario del sitio, han alertado al Comité de Ética de Publicaciones y a Retraction Watch para llamar más la atención sobre este nuevo fraude.

 

Google Scholar Metrics 2019

5ed39285dbb636c123aa03f9ca08eaf1

Acceder a Scholar Metrics 2019

Revistas españolas

Scholar Metrics proporciona una manera fácil para que los autores midan rápidamente la visibilidad y la influencia de los artículos recientes en publicaciones académicas.

La versión 2019 cubre los artículos publicados entre 2014-2018 e incluye citas de todos los artículos que fueron indexados en Google Scholar hasta julio de 2019.

Scholar Metrics incluye revistas de sitios web y conferencias que cumplen con los requisitos establecidos por Google. No se incluyen las publicaciones que publicaron menos de 100 artículos entre 2014 y 2018, ni las publicaciones que no han recibido citas en estos años.

Se puede buscar una revista concreta por palabras clave del título.