Archivo de la etiqueta: Análisis de citas

Las citaciones en Google Scholar son manipulables


Ibrahim, Hazem, Fengyuan Liu, Yasir Zaki, y Talal Rahwan. «Google Scholar is manipulatable». arXiv, 7 de febrero de 2024. https://doi.org/10.48550/arXiv.2402.04607.


El documento proporciona evidencia de fraude en la compra de citas en Google Scholar. A través de un análisis de perfiles en Google Scholar y encuestas a profesores de universidades de alto prestigio, se descubre la amplia utilización de esta plataforma en la evaluación de científicos. Los investigadores también revelan la existencia de un servicio para aumentar citas y demuestran que es posible comprar citas en grandes cantidades. Este hallazgo subraya la importancia de no depender exclusivamente de los recuentos de citas en la evaluación académica.

En este estudio, se compiló un conjunto de datos de aproximadamente 1.6 millones de perfiles en Google Scholar para examinar casos de fraude de citas en la plataforma. Se encuestó a profesores de universidades altamente clasificadas, confirmando que Google Scholar se utiliza ampliamente en la evaluación de los científicos. Intrigados por un servicio de aumento de citas descubierto durante la investigación, los investigadores contactaron con el servicio encubiertos como autores ficticios y lograron comprar 50 citas. Estos hallazgos proporcionan evidencia concluyente de que las citas pueden ser compradas en grandes cantidades, resaltando la necesidad de ir más allá de los recuentos de citas.

El fenómeno de los cárteles de citas en la academia: manipulación y desafíos en la evaluación de la investigación


Catanzaro, Michele «Citation Cartels Help Some Mathematicians—and Their Universities—Climb the Rankings». 30 Jan 20243:30 Pm . Accedido 7 de febrero de 2024. https://www.science.org/content/article/citation-cartels-help-some-mathematicians-and-their-universities-climb-rankings.


Los círculos de matemáticos en instituciones de China, Arabia Saudita y otros lugares han estado aumentando artificialmente el número de citas de sus colegas mediante la producción de documentos de baja calidad que hacen referencia repetidamente a su trabajo, según un análisis no publicado, escribe Michele Catanzaro para Science.

Los «cárteles de citas» son grupos de investigadores que se asocian para inflar artificialmente el número de citas a sus trabajos académicos. Esto se logra mediante prácticas como referenciar repetidamente el trabajo de colegas del mismo grupo en sus propias publicaciones, incluso si es irrelevante para el tema en cuestión. El objetivo principal de estos cárteles es aumentar la visibilidad y el prestigio de sus miembros, así como el de las instituciones a las que pertenecen, en los rankings académicos y en la comunidad científica en general.

El artículo pone de relieve una tendencia preocupante en el campo de las matemáticas, donde los cárteles de citas están inflando artificialmente los recuentos de citas de determinados investigadores e instituciones. Esta práctica se ha observado sobre todo en China, Arabia Saudí y Egipto, donde matemáticos menos conocidos de instituciones con poca tradición matemática han estado desproporcionadamente representados en las listas de investigadores muy citados.

Domingo Docampo, matemático de la Universidad de Vigo, realizó un análisis a lo largo de 15 años y descubrió que las instituciones con poca tradición matemática, sobre todo en China y Arabia Saudí, se habían aupado a los primeros puestos de los artículos sobre matemáticas más citados. Este ascenso iba acompañado de pautas que sugerían la existencia de cárteles de citas, ya que éstas procedían a menudo de investigadores de la misma institución que los autores del artículo citado. Además, muchas de estas citas se encontraron en revistas depredadoras, donde las prácticas poco éticas de citación pueden estar más toleradas.

Aunque algunas instituciones, como la Universidad de Medicina de China, niegan estar implicadas en tales prácticas, las pruebas sugieren una manipulación generalizada de las citas. Clarivate, respondió a este problema excluyendo las matemáticas de su influyente lista de investigadores muy citados, alegando la preocupación por la manipulación y la vulnerabilidad del campo debido a su tamaño relativamente pequeño.

Sin embargo, algunos expertos sostienen que la manipulación de las citas no es exclusiva de las matemáticas y puede estar ocurriendo también en otras disciplinas. Sugieren que basarse únicamente en las citas como medida de la calidad científica es erróneo y que se necesita un enfoque más exacto de la evaluación. Docampo está trabajando en el desarrollo de una métrica que tenga en cuenta la calidad de las revistas y las instituciones que citan para abordar esta cuestión.

En general, el artículo pone de relieve los complejos retos que plantea la evaluación de la calidad de la investigación y la necesidad de sistemas sólidos para detectar y prevenir prácticas poco éticas como la manipulación de citas.

Las autocitas en una docena de países son inusualmente altas

Singh Chawla, Dalmeet. 2024. «Self-Citations in around a Dozen Countries Are Unusually High». Nature, enero. https://doi.org/10.1038/d41586-024-00090-z.


Un extenso análisis de 24 años revela que académicos de 12 países están citando de manera desproporcionada sus propios artículos académicos, una tendencia atribuida a políticas que incentivan tales comportamientos. Publicado en PLoS ONE el 29 de diciembre, el estudio evaluó los patrones de citas en 50 países con más de 100,000 publicaciones desde 1996 hasta 2019 utilizando la base de datos de investigación Scopus. Mientras que 38 países experimentaron un descenso en las ‘auto-citas nacionales’, países como Colombia, Italia y Arabia Saudita vieron un aumento. Un estudio anterior de 2019 ya había implicado a Italia en auto-citas excesivas, vinculándolo a una polémica política de 2010 que requería umbrales de productividad para la promoción académica.

Los investigadores midieron el fenómeno utilizando la métrica ‘inwardness’ en 2019, una definición amplia de auto-citas nacionales. En el estudio reciente, se introdujo una nueva métrica, SRII, centrándose en auto-citas nacionales más estrechas dentro de un marco de tiempo específico. Los autores, liderados por Alberto Baccini, un economista de la Universidad de Siena, encontraron que los 12 países que experimentaron un aumento en las auto-citas tenían políticas que incentivaban altas cuentas de citación. Sin embargo, el estudio no examinó las políticas en los otros 38 países debido al desafío de rastrear la legislación.

Jevin West, un científico de la información en la Universidad de Washington, destacó la importancia de analizar las políticas en todos los países para entender su influencia en los patrones de auto-citación. Las limitaciones del estudio incluyen la exclusión de literatura no inglesa y resultados de investigación a nivel mundial. La correlación entre las dos métricas, inwardness y SRII, generalmente se alinea para la mayoría de los países, excepto China, donde inwardness aumenta mientras que SRII disminuye, atribuido a colaboraciones internacionales incrementadas. West afirma que le sorprendería que no hubiera relación entre las autocitas y factores externos, como las políticas de investigación o la formación de los investigadores. Es coautor de un estudio de 20174 en el que se examinan los patrones de citación de más de 1,5 millones de artículos y se concluye que los hombres citan sus propios artículos, de media, un 56% más que las mujeres.

Para West, los análisis que analizan el grado de autocitación y de citación dentro de un mismo país deberían ayudar a detectar cuándo las políticas no «se alinean necesariamente con nuestros objetivos más grandiosos de la ciencia, que serían animar a los científicos a hacer buena ciencia en lugar de una buena manipulación de las citas».

El sociólogo Marco Seeber elogió la solidez metodológica del estudio reciente, destacando su demostración convincente de la relación entre políticas y comportamientos. West, quien coautoró un estudio de 2017 sobre patrones de citación, expresó sorpresa si no hubiera vínculos entre la auto-citación y factores externos como políticas de investigación o antecedentes de los investigadores. Abogó por enfoques alternativos de evaluación que combinen la revisión por pares con métricas para evitar incentivar comportamientos indeseables.

Baccini enfatizó que los hallazgos no implican que solo los doce países tengan incentivos deficientes, reconociendo la extendida cultura de ‘publicar o perecer’ en la academia. West propuso analizar los grados de auto-citación y citación dentro del país para identificar cuándo las políticas se desvían de los objetivos más amplios de la ciencia, fomentando la buena investigación en lugar de la manipulación de citaciones.

Panorama global de la excelencia científica: análisis de los investigadores altamente citados 2023 y el cambio en las dinámicas globales de investigación

Highly Cited Researchers

La distribución de estas designaciones muestra una concentración destacada en ciertos campos. Los Investigadores Altamente Citados provienen de 67 países/regiones, pero el 83.8% procede de solo 10, y el 72.7% de los cinco primeros, evidenciando una concentración significativa de talentos. Estados Unidos lidera con 2,669 investigadores, aunque su cuota mundial ha disminuido desde 2018, a diferencia de China continental, que ha experimentado un aumento del 10%.


Clarivate™ ha anunciado este año 7,125 designaciones de Highly Cited Researchers para 6,849 individuos. El número de designaciones supera al de individuos debido a que algunos investigadores reciben reconocimiento en más de un campo de Essential Science Indicators™ (ESI). Estas designaciones se distribuyen de manera desigual por campos, reflejando el tamaño de cada uno.

Los Investigadores Altamente Citados de 2023 provienen de unos 67 países/regiones, pero el 83.8% proviene de solo 10, y el 72.7% de los cinco primeros, lo que destaca una concentración significativa de talentos.

Estados Unidos sigue teniendo la mayor concentración de investigadores muy citados, con 2,669 en 2023, representando el 37.5% del grupo. China continental mantiene la segunda posición con 1,275 investigadores (17.9%). El Reino Unido ocupa el tercer lugar con 574 investigadores (8.1%). Otros países en el top 10 son Alemania, Australia, Canadá, Países Bajos, Francia, Hong Kong e Italia.

Se destaca el aumento significativo de la proporción de investigadores muy citados en China continental en los últimos años, mientras que Estados Unidos ha experimentado una pérdida de cuota. En 2023, China continental ha aumentado su cuota mundial en un 10% desde 2018, mientras que Estados Unidos ha experimentado una disminución del 5.9%.

En cuanto a las instituciones, Harvard lidera la lista con 237 investigadores muy citados, seguida por la Universidad de Stanford. La Academia China de Ciencias encabeza la lista de instituciones con 270 investigadores muy citados, seguida por los Institutos Nacionales de Salud de EE.UU., la Sociedad Max Planck, el Memorial Sloan Kettering Cancer Center y el Broad Institute.

Dimensions presenta la versión beta de un nuevo Asistente de IA

Dimensions presenta la versión beta de un nuevo Asistente de IA para mejorar la experiencia del usuario, en la que la comunidad investigadora desempeña un papel fundamental para garantizar que nuestra IA ofrezca lo que necesitan.

Dimensions proporciona una extensa base de datos de citas que permite a los investigadores rastrear y analizar las citas de sus trabajos académicos. Esta funcionalidad es fundamental para evaluar el impacto de las investigaciones y comprender cómo están siendo utilizadas y referenciadas por otros investigadores. La mayoría de sus servicios y productos son gratuitos y otros de pago. Un producto innovador en varios aspectos que pretende ser una alternativa a Elsevier y Clarivate.

Dimensions AI Assistant  utiliza capacidades avanzadas de inteligencia artificial (IA) para proporcionar a los usuarios resúmenes semánticamente ricos y resultados contextualizados, superando las búsquedas tradicionales basadas en palabras clave.

Para garantizar que Dimensions AI Assistant satisface las necesidades de su público objetivo, está invitando a un número limitado de usuarios beta de todo el mundo a participar activamente en la configuración de la forma en que la IA ayudará a los usuarios de Dimensions en el futuro. Estos usuarios pertenecerán a diversos sectores, como el académico, las empresas, las editoriales, las agencias gubernamentales y las organizaciones de financiación, que representan la base de clientes clave de Digital Science.

El principal objetivo del lanzamiento de la versión beta cerrada de Dimensions AI Assistant es recabar valiosos comentarios de usuarios beta que representen a diversos segmentos, como académicos, entidades corporativas, editores, agencias gubernamentales y organizaciones de financiación. Este enfoque garantiza que las necesidades e interacciones de los usuarios reciban la máxima importancia a medida que se desarrollan las funciones de la aplicación. «Al dar prioridad al lanzamiento de la versión beta como paso esencial, pretendemos perfeccionar el producto y asegurarnos de que se ajusta a las expectativas y requisitos de su público objetivo», afirma Christian Bode, Jefe de Producto de Dimensions.

Los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia

Yang, Puyu, Ahad Shoaib, Robert West, y Giovanni Colavizza. «Wikipedia and open access». arXiv, 23 de mayo de 2023. https://doi.org/10.48550/arXiv.2305.13945.

Wikipedia es una conocida plataforma de difusión del conocimiento, y las fuentes científicas, como los artículos de revistas, desempeñan un papel fundamental en apoyo de su misión. El movimiento de acceso abierto tiene como objetivo hacer que el conocimiento científico esté disponible abiertamente, e intuitivamente podríamos esperar que el acceso abierto ayude a promover la misión de Wikipedia. Sin embargo, se desconoce en gran medida el alcance de esta relación. Para llenar este vacío, se analizaron un gran conjunto de datos de citas de Wikipedia cuyo objetivo era analizar el papel del acceso abierto en los patrones de citación de Wikipedia.

Se descubrió que los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia. Es más, muestran una probabilidad un 15% mayor de ser citados en Wikipedia en comparación con los artículos de acceso cerrado, después de controlar los factores de confusión. Este efecto de citación del acceso abierto es particularmente fuerte en el caso de los artículos con bajo número de citas, incluidos los publicados recientemente.

Los resultados demuestran que el acceso abierto desempeña un papel clave en la difusión del conocimiento científico, entre otras cosas al proporcionar a los editores de Wikipedia acceso oportuno a resultados novedosos. Estas conclusiones tienen importantes implicaciones para investigadores, responsables políticos y profesionales del campo de la ciencia y la tecnología de la información.

¿Realmente más de la mitad de los artículos académicos siguen sin citarse cinco años después de su publicación?

Está ampliamente aceptado que los artículos académicos rara vez se citan o incluso se leen. ¿Pero qué tipo de datos hay detrás de estas afirmaciones?

El genetista y premio Nobel Oliver Smithies, fallecido el pasado mes de enero a los 91 años, era un inventor modesto y autocomplaciente. Era típico de él contar uno de sus mayores fracasos: un artículo sobre la medición de la presión osmótica publicado en 1953, que, como él decía, tenía «la dudosa distinción de no haber sido citado nunca«. «Nadie lo citó nunca, y nadie utilizó nunca el método», dijo a los estudiantes en una reunión de 2014 en Lindau (Alemania).

La idea de que la literatura está plagada de investigaciones no citadas se remonta a un par de artículos publicados en Science: uno de 1990 y otro de 1991. El de 1990 señalaba que el 55% de los artículos publicados entre 1981 y 1985 no habían sido citados en los 5 años siguientes a su publicación.

Dahlia Remler echa un vistazo a la investigación académica sobre las prácticas de citación y descubre que, aunque está claro que los índices de citación son bajos, sigue habiendo mucha confusión sobre las cifras precisas y los métodos para determinar un análisis de citación preciso.

Un artículo de Lokman Meho en 2007 afirmaba que «El 90% de los trabajos publicados en revistas académicas nunca se citan». Esta estadística condenatoria, extraída de un resumen de 2007 sobre el análisis de citas, recorrió recientemente el ciberespacio. Una estadística similar había circulado en 2010, pero en aquella ocasión se decía que el 60% de los artículos de ciencias sociales y naturales no se citaban. Aunque ninguna de las dos estadísticas venía acompañada de un enlace a documentos de investigación académica que las respaldaran.

Según Sierra Williams, muchos artículos académicos no se citan nunca, aunque no pude encontrar ningún estudio con un resultado tan alto como el 90%. Las tasas de no citación varían enormemente según el campo. «Sólo» el 12% de los artículos de medicina no se citan, frente al 82% de las humanidades. Es del 27% para las ciencias naturales y del 32% para las ciencias sociales (cita). Para todo, excepto las humanidades, estas cifras están lejos del 90%, pero siguen siendo altas: Un tercio de los artículos de ciencias sociales no se citan

Pero esos análisis son engañosos, principalmente porque las publicaciones que contaron incluían documentos como cartas, correcciones, resúmenes de reuniones y otro material editorial, que normalmente no se citan. Si se eliminan estos documentos y se dejan sólo los trabajos de investigación y los artículos de revisión, las tasas de no citación caen en picado. Si se amplía el límite más allá de los cinco años, los índices se reducen aún más.

Con un recorte de diez años sigue habiendo artículos no citados, por supuesto, pero varía de forma interesante según el campo. Los artículos biomédicos tienen un 4% de artículos no citados, la química tiene un 8% de material refractario y la física un 11%. Sin embargo, hay que tener en cuenta que si se eliminan las autocitaciones de los mismos autores, estos índices aumentan, a veces de forma notable. La tasa de no citación en diez años en todas las disciplinas, menos la autocitación, es de alrededor del 18%. Pero otra cosa que han descubierto estos estudios es que esta tasa ha ido disminuyendo durante muchos años. Es de suponer que esto se debe a un mejor acceso y búsqueda en las revistas y a una tendencia relacionada con listas de referencias más largas en general. (En el ámbito de las ciencias, ese aumento comienza en torno a 1980 y se ha acentuado en los últimos años).

Pero aún así… …los artículos en la zona de no citados tienden (como es de esperar) a estar en revistas mucho menos prominentes (aparentemente casi todos los artículos publicados en una revista de la que has oído hablar son citados por alguien). Y eso trae a colación el problema de la «materia oscura»: todas estas cifras proceden de revistas indexadas en la Web of Science, una cohorte grande, pero que (justificadamente) ignora las hordas de revistas que publican cualquier cosa. Hay que imaginar que las tasas de citación son abismales entre las «revistas» que fabrican papeles, y la gran mayoría de ellas son seguramente autocitas. Si contamos estas cosas como «papers», entonces el número de publicaciones sin impacto nunca vistas aumenta de nuevo».

Bibliografía:

Willians. Sierra «Are 90% of Academic Papers Really Never Cited? Reviewing the Literature on Academic Citations.» Impact of Social Sciences, 23 de abril de 2014, https://blogs.lse.ac.uk/impactofsocialsciences/2014/04/23/academic-papers-citation-rates-remler/.

Hamilton, David P. «Publishing by—and for?—the Numbers». Science, vol. 250, n.o 4986, diciembre de 1990, pp. 1331-32. science.org (Atypon), https://doi.org/10.1126/science.2255902.

Derek Lowe. Not So Many Uncited Papers, Actually. Science, 20 feb. 2018. https://www.science.org/content/blog-post/not-so-many-uncited-papers-actually. Accedido 16 de septiembre de 2022.

Meho, Lokman I. «The Rise and Rise of Citation Analysis». Physics World, vol. 20, n.o 1, enero de 2007, pp. 32-36. Institute of Physics, https://doi.org/10.1088/2058-7058/20/1/33.

Tainer, John A., et al. «Science, Citation, and Funding». Science, vol. 251, n.o 5000, 1991, pp. 1408-11. JSTOR, https://www.jstor.org/stable/2875794.

Van Noorden, Richard. «The Science That’s Never Been Cited». Nature, vol. 552, n.o 7684, diciembre de 2017, pp. 162-64. http://www.nature.com, https://doi.org/10.1038/d41586-017-08404-0.

Granjas de citas y círculos de autocitación

Hill, Sarah. «Citation Farms and Circles of Self-Citation». The Big Idea, 19 de marzo de 2020,

Texto completo

Las «granjas de citas», consisten en autores que se autocitan o se citan mutuamente de forma rutinaria y masiva para aumentar el impacto de sus publicaciones. Aunque se cree que estas «granjas de citas», también conocidas como «cárteles de citas», son el sello de la mala ciencia, la mayoría de los investigadores están de acuerdo en que hay espacio para la autocitación, pero que es una buena práctica limitarla cuando sea posible.

La autocitación puede ser necesaria, por ejemplo, si usted es la única persona que ha realizado un determinado tipo de investigación antes. Citar su propio trabajo o el de sus coautores puede ser la medida adecuada. «Todo el mundo se autocita porque, tarde o temprano, todo el mundo se basa en hallazgos anteriores», afirma Hadas Shema en el blog Scientific American. Shema cita a R. Costas, et al, en su artículo de 2010, «Self-cities at the meso and individual levels» (Autocitas en los niveles meso e individual): «Dada la naturaleza acumulativa de la producción de nuevos conocimientos, las autocitas constituyen una parte natural del proceso de comunicación».

Hay una forma sencilla de medir el impacto del trabajo de un investigador: utilizando el Factor de Impacto de la Revista (JIF). Un índice h de 20 indica que un investigador ha publicado 20 artículos con al menos 20 citas. Tras 20 años de investigación, un índice h de 20 es bueno, 40 es sobresaliente y 60 es excepcional. La ventaja del índice h es que combina la productividad (el número de publicaciones) y el impacto (número de citas) en un solo número.

Según la revista Nature, en 2017, un profesor tuvo una idea para contabilizar más a fondo las autocitas. Este profesor, ahora en la Universidad de Helsinki, sugirió un índice de autocitación, o índice s, en la línea del indicador de productividad del índice h. Creado por Justin Flatt, Alessandro Blasimme, Effy Vayena, así un científico tiene un índice s si ha publicado s artículos, cada uno de los cuales ha recibido al menos s autocitaciones. Con esta nueva herramienta, un índice s de 10 significaría que un investigador ha publicado 10 artículos con al menos 10 autocitaciones cada uno.

El profesor que ideó este sistema de puntuación afirma que no se trataba de establecer umbrales para lo que era un índice s adecuadamente bajo, ni tampoco de avergonzar a los que se autocitan mucho. Utilizando los datos, se trataba simplemente de otra herramienta para medir el impacto de ciertas teorías y artículos.

Según John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia: «Este [estudio] no debería llevar a vilipendiar a los investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar entre disciplinas y etapas de la carrera». Y añade: «Sólo ofrece información completa y transparente. No debería utilizarse para emitir veredictos como el de decidir que una autocitación demasiado alta equivale a un mal científico».

¿Reduce la autocitación la probabilidad de publicación? Sí, según algunos autores. «Clarivate supervisa las autocitaciones cuando calcula el factor de impacto de una revista, y puede retirar de la lista a una revista cuando las tasas de autocitación son demasiado altas o cambia la clasificación relativa de una revista dentro de su campo», dice el doctor Phil Davis, experto en comunicación científica en el blog The Scholarly Kitchen. «Ningún editor quiere ser conocido como el que puso a la revista en ‘tiempo muerto'».

«La autocitación es necesaria para informar al lector sobre el trabajo previo del autor y proporcionar información de fondo. Un índice bajo de autocitación puede llevar a un revisor a creer que los antecedentes del autor son inadecuados, mientras que un índice alto podría indicar que está ignorando el trabajo de sus colegas. Se recomienda un equilibrio», dice Paul W. Sammarco, en Ethics in Science and Environmental Politics. Así que, buena suerte con el equilibrio, sobre todo para los que trabajan en disciplinas con experimentación novedosa. Siempre que no cite a sus amigos y colegas a propósito para aumentar sus índices h, al final todo debería ser igual.

Manipulación de citas

«Citation Manipulation». COPE: Committee on Publication Ethics, 2022.
DOI: https://doi.org/10.24318/cope.2019.3.1

Texto completo

El documento de debate de COPE sobre la manipulación de las citas define las cuestiones clave y las soluciones existentes en torno a las prácticas de citación poco éticas. COPE agradece los comentarios que contribuyan a este debate en curso.

La citación manipuladora se caracteriza por comportamientos destinados a incrementar el número de citas para beneficio personal, tales como: autocitación excesiva del propio trabajo de un autor, citación excesiva a la revista que publica el artículo citado y citación excesiva entre revistas de forma coordinada. Se dan ejemplos de autocitación legítima cuando se incluye o se solicita para atender necesidades válidas. COPE recomienda que las revistas desarrollen políticas sobre los niveles apropiados de autocitación, proporcionen educación a los editores y tengan procedimientos claros para responder a la potencial manipulación de las citas.

Puntos clave

  • La manipulación de citas es un problema cuando las referencias no contribuyen al contenido académico del artículo y se incluyen únicamente para aumentar las citas.
  • Cualquier parte que incluya o solicite añadir citas cuando las motivaciones son meramente autopromocionales viola la ética de la publicación.
  • Las sanciones por la manipulación de citas pueden incluir la dimisión de los editores de sus funciones editoriales, o la eliminación o el rechazo de las revistas de los índices de citas.
  • Las revistas deben desarrollar políticas y normas para determinar los umbrales de autocitación, proporcionar recursos educativos para apoyar las mejores prácticas y establecer procedimientos para responder a una posible mala conducta.
  • Puede haber casos en los que la autocitación y las solicitudes de citas sean legítimas

Documentos relacionados

Citation games: mocking research COPE speaker presentation at ISMTE European Virtual Event, 2020

Reviewer requesting addition of multiple citations of their own work, 2019

Citations: link, locate, discover, connect Guest article, August 2018

Self-citation: where’s the line? Forum discussion, November 2017

Los peligros de la alta autocitación y las «granjas de citas»: un investigador recibió el 94% de las citas de si mismo o de sus coautores.

Van Noorden, Richard, y Dalmeet Singh Chawla. «Hundreds of Extreme Self-Citing Scientists Revealed in New Database». Nature, vol. 572, n.o 7771, agosto de 2019, pp. 578-79.

Texto completo

Más sobre Autocitas

Cientos de científicos se autocitan de forma extrema. Algunos investigadores muy citados parecen ser grandes autopromotores, pero los especialistas advierten del peligro de la autocitación.

Los investigadores más citados del mundo, según datos recién publicados, son un grupo curiosamente ecléctico. Premios Nobel y eminentes expertos se codean con nombres menos conocidos, como Sundarapandian Vaidyanathan, de Chennai (India). Lo que salta a la vista sobre Vaidyanathan y otros cientos de investigadores es que muchas de las citas de sus trabajos proceden de sus propios artículos o de los de sus coautores.

Vaidyanathan, informático del Vel Tech R&D Institute of Technology, un instituto de gestión privada, es un ejemplo extremo: ha recibido el 94% de sus citas de sí mismo o de sus coautores hasta 2017, según un estudio publicado este mes en PLoS Biology. No es el único. El conjunto de datos, que enumera a unos 100.000 investigadores, muestra que al menos 250 científicos han acumulado más del 50% de sus citas de sí mismos o de sus coautores, mientras que la tasa media de autocitación es del 12,7%.

El estudio podría ayudar a señalar a posibles autopromotores extremos y, posiblemente, a las «granjas de citas», en las que grupos de científicos se citan mutuamente de forma masiva, dicen los investigadores. «Creo que las granjas de autocitación son mucho más comunes de lo que creemos», afirma John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia -el estudio de cómo se hace la ciencia- y que dirigió el trabajo. «Los que tienen más de un 25% de autocitación no tienen por qué tener un comportamiento poco ético, pero puede ser necesario un examen más minucioso», afirma.

Los datos son, con mucho, la mayor colección de métricas de autocitación jamás publicada. Y llegan en un momento en el que las agencias de financiación, las revistas y otros organismos se están centrando más en los posibles problemas causados por el exceso de autocitación. En julio, el Comité de Ética de las Publicaciones (COPE), un organismo asesor de las editoriales de Londres, destacó la autocitación extrema como una de las principales formas de manipulación de las citas. Este problema se enmarca en una preocupación más amplia por la excesiva dependencia de las métricas de citación para tomar decisiones sobre contratación, ascensos y financiación de la investigación.

«Cuando vinculamos la promoción profesional y prestamos demasiada atención a las métricas basadas en las citas, incentivamos la autocitación», afirma el psicólogo Sanjay Srivastava, de la Universidad de Oregón, en Eugene.

Aunque muchos científicos están de acuerdo en que el exceso de autocitación es un problema, hay poco consenso sobre cuánto es demasiado o sobre qué hacer al respecto. En parte, esto se debe a que los investigadores tienen muchas razones legítimas para citar su propio trabajo o el de sus colegas. Ioannidis advierte que su estudio no debe llevar a denunciar a determinados investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar según las disciplinas y las etapas de la carrera. «Sólo ofrece información completa y transparente. No debe utilizarse para emitir veredictos como el de decidir que una autocitación demasiado elevada equivale a un mal científico», afirma.