Archivo de la etiqueta: Autocitas

Granjas de citas y círculos de autocitación

Hill, Sarah. «Citation Farms and Circles of Self-Citation». The Big Idea, 19 de marzo de 2020,

Texto completo

Las «granjas de citas», consisten en autores que se autocitan o se citan mutuamente de forma rutinaria y masiva para aumentar el impacto de sus publicaciones. Aunque se cree que estas «granjas de citas», también conocidas como «cárteles de citas», son el sello de la mala ciencia, la mayoría de los investigadores están de acuerdo en que hay espacio para la autocitación, pero que es una buena práctica limitarla cuando sea posible.

La autocitación puede ser necesaria, por ejemplo, si usted es la única persona que ha realizado un determinado tipo de investigación antes. Citar su propio trabajo o el de sus coautores puede ser la medida adecuada. «Todo el mundo se autocita porque, tarde o temprano, todo el mundo se basa en hallazgos anteriores», afirma Hadas Shema en el blog Scientific American. Shema cita a R. Costas, et al, en su artículo de 2010, «Self-cities at the meso and individual levels» (Autocitas en los niveles meso e individual): «Dada la naturaleza acumulativa de la producción de nuevos conocimientos, las autocitas constituyen una parte natural del proceso de comunicación».

Hay una forma sencilla de medir el impacto del trabajo de un investigador: utilizando el Factor de Impacto de la Revista (JIF). Un índice h de 20 indica que un investigador ha publicado 20 artículos con al menos 20 citas. Tras 20 años de investigación, un índice h de 20 es bueno, 40 es sobresaliente y 60 es excepcional. La ventaja del índice h es que combina la productividad (el número de publicaciones) y el impacto (número de citas) en un solo número.

Según la revista Nature, en 2017, un profesor tuvo una idea para contabilizar más a fondo las autocitas. Este profesor, ahora en la Universidad de Helsinki, sugirió un índice de autocitación, o índice s, en la línea del indicador de productividad del índice h. Creado por Justin Flatt, Alessandro Blasimme, Effy Vayena, así un científico tiene un índice s si ha publicado s artículos, cada uno de los cuales ha recibido al menos s autocitaciones. Con esta nueva herramienta, un índice s de 10 significaría que un investigador ha publicado 10 artículos con al menos 10 autocitaciones cada uno.

El profesor que ideó este sistema de puntuación afirma que no se trataba de establecer umbrales para lo que era un índice s adecuadamente bajo, ni tampoco de avergonzar a los que se autocitan mucho. Utilizando los datos, se trataba simplemente de otra herramienta para medir el impacto de ciertas teorías y artículos.

Según John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia: «Este [estudio] no debería llevar a vilipendiar a los investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar entre disciplinas y etapas de la carrera». Y añade: «Sólo ofrece información completa y transparente. No debería utilizarse para emitir veredictos como el de decidir que una autocitación demasiado alta equivale a un mal científico».

¿Reduce la autocitación la probabilidad de publicación? Sí, según algunos autores. «Clarivate supervisa las autocitaciones cuando calcula el factor de impacto de una revista, y puede retirar de la lista a una revista cuando las tasas de autocitación son demasiado altas o cambia la clasificación relativa de una revista dentro de su campo», dice el doctor Phil Davis, experto en comunicación científica en el blog The Scholarly Kitchen. «Ningún editor quiere ser conocido como el que puso a la revista en ‘tiempo muerto'».

«La autocitación es necesaria para informar al lector sobre el trabajo previo del autor y proporcionar información de fondo. Un índice bajo de autocitación puede llevar a un revisor a creer que los antecedentes del autor son inadecuados, mientras que un índice alto podría indicar que está ignorando el trabajo de sus colegas. Se recomienda un equilibrio», dice Paul W. Sammarco, en Ethics in Science and Environmental Politics. Así que, buena suerte con el equilibrio, sobre todo para los que trabajan en disciplinas con experimentación novedosa. Siempre que no cite a sus amigos y colegas a propósito para aumentar sus índices h, al final todo debería ser igual.

Los peligros de la alta autocitación y las «granjas de citas»: un investigador recibió el 94% de las citas de si mismo o de sus coautores.

Van Noorden, Richard, y Dalmeet Singh Chawla. «Hundreds of Extreme Self-Citing Scientists Revealed in New Database». Nature, vol. 572, n.o 7771, agosto de 2019, pp. 578-79.

Texto completo

Más sobre Autocitas

Cientos de científicos se autocitan de forma extrema. Algunos investigadores muy citados parecen ser grandes autopromotores, pero los especialistas advierten del peligro de la autocitación.

Los investigadores más citados del mundo, según datos recién publicados, son un grupo curiosamente ecléctico. Premios Nobel y eminentes expertos se codean con nombres menos conocidos, como Sundarapandian Vaidyanathan, de Chennai (India). Lo que salta a la vista sobre Vaidyanathan y otros cientos de investigadores es que muchas de las citas de sus trabajos proceden de sus propios artículos o de los de sus coautores.

Vaidyanathan, informático del Vel Tech R&D Institute of Technology, un instituto de gestión privada, es un ejemplo extremo: ha recibido el 94% de sus citas de sí mismo o de sus coautores hasta 2017, según un estudio publicado este mes en PLoS Biology. No es el único. El conjunto de datos, que enumera a unos 100.000 investigadores, muestra que al menos 250 científicos han acumulado más del 50% de sus citas de sí mismos o de sus coautores, mientras que la tasa media de autocitación es del 12,7%.

El estudio podría ayudar a señalar a posibles autopromotores extremos y, posiblemente, a las «granjas de citas», en las que grupos de científicos se citan mutuamente de forma masiva, dicen los investigadores. «Creo que las granjas de autocitación son mucho más comunes de lo que creemos», afirma John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia -el estudio de cómo se hace la ciencia- y que dirigió el trabajo. «Los que tienen más de un 25% de autocitación no tienen por qué tener un comportamiento poco ético, pero puede ser necesario un examen más minucioso», afirma.

Los datos son, con mucho, la mayor colección de métricas de autocitación jamás publicada. Y llegan en un momento en el que las agencias de financiación, las revistas y otros organismos se están centrando más en los posibles problemas causados por el exceso de autocitación. En julio, el Comité de Ética de las Publicaciones (COPE), un organismo asesor de las editoriales de Londres, destacó la autocitación extrema como una de las principales formas de manipulación de las citas. Este problema se enmarca en una preocupación más amplia por la excesiva dependencia de las métricas de citación para tomar decisiones sobre contratación, ascensos y financiación de la investigación.

«Cuando vinculamos la promoción profesional y prestamos demasiada atención a las métricas basadas en las citas, incentivamos la autocitación», afirma el psicólogo Sanjay Srivastava, de la Universidad de Oregón, en Eugene.

Aunque muchos científicos están de acuerdo en que el exceso de autocitación es un problema, hay poco consenso sobre cuánto es demasiado o sobre qué hacer al respecto. En parte, esto se debe a que los investigadores tienen muchas razones legítimas para citar su propio trabajo o el de sus colegas. Ioannidis advierte que su estudio no debe llevar a denunciar a determinados investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar según las disciplinas y las etapas de la carrera. «Sólo ofrece información completa y transparente. No debe utilizarse para emitir veredictos como el de decidir que una autocitación demasiado elevada equivale a un mal científico», afirma.

Patrones de autocitación de las revistas indexadas en el Journal Citation Reports

Taşkın, Zehra, et al. «Self-Citation Patterns of Journals Indexed in the Journal Citation Reports». Journal of Informetrics, vol. 15, n.o 4, noviembre de 2021, p. 101221.

Texto completo

Se examinaron los patrones de autocitación de 1.104 revistas indexadas en la edición de 2018 del Journal Citation Reports para evaluar la posibilidad de manipulaciones de rango subyacentes. Se comprobó que todas las revistas incluidas en este estudio tenían una tasa de autocitación superior al 25%. La investigación muestra que al excluir las tasas de autocitación, el rango de las revistas con un alto factor de impacto no se ve afectado; sin embargo, para otras revistas, la eliminación de incluso una sola autocita puede causar cambios significativos en el rango. Los patrones de autocitación son típicos de las revistas en idiomas locales, así como de las revistas de los países europeos de renta media-alta. Los factores de impacto utilizados en las evaluaciones del rendimiento de la investigación deberían utilizarse con más cuidado, especialmente cuando variables como el tamaño de la revista, el idioma de publicación, el país de la editorial y el área temática se correlacionan con los índices de autocitación.

Las revistas indexadas en el Journal Citation Reports tienen una tasa de autocitación del 25%

Taşkın, Zehra, et al. «Self-Citation Patterns of Journals Indexed in the Journal Citation Reports». Journal of Informetrics, vol. 15, n.o 4, noviembre de 2021, p. 101221. ScienceDirect, https://doi.org/10.1016/j.joi.2021.101221.

Se examinaron los patrones de autocitación de 1.104 revistas indexadas en la edición de 2018 del Journal Citation Reports para evaluar la posibilidad de manipulaciones de rango subyacentes. Se comprobó que todas las revistas incluidas en este estudio tenían una tasa de autocitación superior al 25%. Nuestra investigación muestra que al excluir las tasas de autocitación, el rango de las revistas con un alto factor de impacto no se ve afectado; sin embargo, para otras revistas, la eliminación de incluso una sola autocitación puede causar cambios significativos en el rango. Los patrones de autocitación son típicos de las revistas en idiomas locales, así como de las revistas de los países europeos de renta media-alta. Los factores de impacto utilizados en las evaluaciones del rendimiento de la investigación deberían utilizarse con más cuidado, especialmente cuando variables como el tamaño de la revista, el idioma de publicación, el país de la editorial y el área temática se correlacionan con los índices de autocitación.

Clarivate suprime 33 revistas de los grandes editores científicos por exceso de autocitas a sí mismas

 

clarivate-logo

 

ClarivateMajor indexing service sounds alarm on self-citations by nearly 50 journals. Retraction Watch,

Texto completo

 

Más de 33 revistas  han sido suprimidas de Journal impact factor, ya que más del 70% de las citas en una revista se hicieron a otros artículos de esa misma revista. Otra publicó un solo artículo que citaba casi otros 200 artículos en la revista.

 

 

Clarivate, la compañía que gestiona el Factor de Impacto, está tomando medidas para combatir ese comportamiento, suprimiendo 33 revistas de su servicio de indexación y sometiendo a 15 más a observacion, todas por una aparente excesiva auto-citación que impulsó a estas revistas en el ranking de las revistas.

La lista incluye algunas de las grandes compañías del mundo de la edición científica: nueve eran revistas publicadas por Elsevier, siete por Springer Nature, seis por Taylor & Francis y cinco por Wiley.

Dada la dependencia de muchas universidades en los rankings de revistas para juzgar el trabajo de sus investigadores como parte de las decisiones de tenencia y promoción, la supresión de una revista de Clarivate significa negarle un Factor de Impacto, que puede tener efectos a largo plazo. Los factores de impacto se basan en citas promedio de artículos en una revista durante un período de tiempo concreto. Muchos organizaciones,  incluidos Retraction Wacht, han argumentado que el Impact Factor no es la mejor manera de juzgar la investigación, por razones que incluyen la relativa facilidad de manipular tales métricas.

Web of Science de Clarivate indexa 21.000 revistas, pero solo 12.000 están incluidas en el Journal Citation Report (JCR) anual y reciben Factores de Impacto. Actualmente hay dos razones para la supresión de la JCR:

La auticitación de la revista y el «apilamiento de citas», comportamiento que a veces se conoce como participar en «colegios invisibles de citas» o «anillos de citas«. Ninguna de las supresiones de este año fueron por el apilamiento de citas. Cuando la empresa retira una revista del JCR, continúa contando sus citas, pero no le asigna un Factor de Impacto.

La compañía ha cambiado la forma en que considera la autocita y revisó su metodología, dijo la editora en jefe de Web of Science, Nandita Quaderi, en respuesta las pautas que se han observado en los últimos años.

Este año, Clarivate también sometió a 15 revistas a exámenes editoriales de preocupación. Tales revistas tenían un pequeño número de artículos con niveles muy altos de citas a artículos en la misma revista que pueden tener un efecto significativo en el Factor de Impacto y en el ránking. Quaderi dijo que juzgar solo los niveles generales de autocitación de las revistas pasaría por alto tales patrones, porque no tomaría en cuenta directamente cómo estas citas se «concentran» en artículos o períodos de tiempo particulares.

Nada cambia para las revistas JCR sujetas a tales indicadores, pero se monitorean de cerca para su reevaluación y pueden perder sus Factores de Impacto en los años siguientes o ser eliminados de la indexación por completo.

Este movimiento marca solo la segunda vez que Clarivate ha emitido análisis de revisión. En 2018, lo hicieron con cinco revistas en el campo óseo, cuatro de las cuales fueron suprimidas al año siguiente. Las cinco actualmente están de nuevo reintegradas en JCR.

Al menos el 25% de las referencias en todas las revistas suprimidas eran autocitas, con el 71% de las citas en una revista. Un artículo en el Journal of Allergy and Clinical Immunology-In Practice citó otros artículos en la misma revista 191 veces.

Cinco de las revistas suprimidas o marcadas eran en cardiología, incluyendo JACC: Cardiovascular Imaging, que tiene un Factor de Impacto por encima de 10, clasificándo la revista entre las 10 mejores revistas en el campo. Otras tres revistas de cardiología de las que Clarivate ha expresado su preocupación tienen factores de impacto superiores a 5.

¿Qué tiene de malo el índice H? según Jorge Hirsch, su inventor

 

web-of-science-h-index-700x350-1

 

Conroy, Gemma. What’s wrong with the H-index, according to its inventor “Severe unintended negative consequences”. Mature Index. 24 March 2020

Texto completo

 

El índice H se ha convertido en una de las métricas más utilizadas en el mundo académico para medir la productividad y el impacto de los investigadores. Pero cuando Jorge Hirsch lo propuso como una medida objetiva del logro científico en 2005, no pensó que se usaría fuera de la física teórica.»Ni siquiera estaba seguro de si publicarlo o no», dice Hirsch, físico de la Universidad de California en San Diego. «No esperaba que tuviera un impacto tan grande».

 

La métrica tiene en cuenta tanto el número de artículos que ha publicado un investigador como la cantidad de citas que recibe. Se ha convertido en una herramienta popular para evaluar a los investigadores.

 

jorgehirsch_200x225_jpg_medium_3

 

También es uno de los temas más polémicos que discuten los científicos, como escribe Hirsch en el boletín de Física y Sociedad de enero.

«Aproximadamente la mitad de la comunidad científica ama el índice H y la mitad lo odia», escribe Hirsch. «El índice H del propio científico es un gran predictor de si pertenece al primer o al segundo grupo».

Si bien Hirsch cree que el índice H sigue siendo una de las mejores medidas objetivas del logro científico, también escribe que puede «fallar espectacularmente y tener graves consecuencias negativas no deseadas».

Una desventaja es que puede disuadir a los investigadores del pensamiento innovador. Por ejemplo, un estudiante que trabaja con un profesor con un alto índice H puede ser reacio a cuestionar los conceptos que se le están enseñando, ya que es probable que asuman que el profesor es un experto en su campo en función de su puntaje.

La búsqueda de un índice H alto también puede alentar a los investigadores a elegir temas de investigación ‘candentes’ que sean más propensos a llamar la atención y tentarlos a publicar un artículo tras otro en un esfuerzo por aumentar su puntaje. «Es demasiado sensible a lo que es popular y de moda en la ciencia», dice Hirsch. Mientras más se cita un artículo, más difícil resulta cuestionar su validez, señala.

Hirsch señala que la métrica no recoge la investigación que se desvía de la corriente principal, algo que ha observado en su propio trabajo sobre la superconductividad.

Un análisis realizado en 2012 sobre 2.307 investigadores muy citados reveló que los índices H varían mucho entre las distintas disciplinas. Los investigadores de Medicina y Química tienen los índices H más altos de promedio, mientras que los matemáticos y los nformáticos y los científicos tienen el más bajo. (Ver gráfico).

 

c4cf27a6c65363b95618b194e9fa1f71

 

«Uno tiene que mirar la naturaleza del trabajo», dice Hirsch. “Si toma decisiones basadas en el índice H de alguien, puede terminar contratando a la persona equivocada o negando una subvención a alguien que es mucho más probable que haga algo importante. Tiene que usarse con cuidado.

El 35% del total de citas recibidas por artículos de investigación son autocitas

istock_000007032716_large

Ramesh, P. and S. Shivendra «Self-citations, a trend prevalent across subject disciplines at the global level: an overview.» Collection Building vol. 36, n. 3 (2017). pp. 115-126. http://www.emeraldinsight.com/doi/abs/10.1108/CB-03-2017-0008

 

El presente estudio tiene como objetivo determinar la tendencia predominante de autocitas en 27 disciplinas principales a nivel global. El estudio también analiza los aspectos como el porcentaje de autorrecursos en cada disciplina individual y el número promedio de autocitas por publicación en diferentes disciplinas. Además el estudio también investiga el porcentaje de autocitación de artículos de investigación publicados de los 20 principales países de investigación del mundo. Los datos de estos hallazgos se basan en datos empíricos realizados sobre datos secundarios obtenidos de SCImago Journal & Country Ranking, se basaen la fuente de datos SCOPUS (SCImago, 2014).

En total, 76.634.557 citas fueron recibidas por 14.946.975 artículos de investigación publicados entre 2008 y 2012 con un promedio de 5.12 citas por artículo. Del total de citas recibidas, 26,404,609 (34,45 por ciento) fueron autocitas, lo que significa que del total de citas recibidas por cada artículo de investigación, 1,76 son autocitas.

En comparación con las disciplinas sujetas a las ciencias sociales y humanísticas, las ciencias puras y aplicadas han mostrado una mayor tendencia a la autocitación. De promedio, se observaron 4.18 autocitas en cada artículo de investigación publicado en disciplinas disciplinarias multidisciplinarias. Del total de citas recibidas por artículos de investigación publicados en la disciplina de Psicología, el 43,69 por ciento son citas propias, las más altas entre todas las disciplinas objeto de estudio. Del total de citas propias recibidas por todas las disciplinas objeto de estudio, el 18,43 por ciento fueron recibidos solos en medicina, el más alto porcentaje entre todas las disciplinas, mientras que las Ciencias Sociales y Humanísticas recibieron menos del 1,00 por ciento de citas propias, el más bajo entre todas las disciplinas .