Archivo de la etiqueta: Autocitas

Estrategias efectivas para aumentar y gestionar éticamente la frecuencia de citación

Ebrahim, Nader Ale. «Effective Strategies for Increasing and Ethically Managing Citation FrequencySSRN, June 13, 2025. https://www.linkedin.com/pulse/effective-strategies-increasing-ethically-managing-nader-ale-ebrahim-gm2yf/

Las citas son un indicador ampliamente reconocido del impacto académico y la visibilidad de la investigación. Sin embargo, la frecuencia de citas está influenciada por múltiples factores estratégicos, técnicos y éticos. Este artículo presenta una discusión equilibrada sobre estrategias efectivas para aumentar y gestionar éticamente la frecuencia de citas, fundamentadas en principios de visibilidad de la investigación y ética de las citas. Basándose en los trabajos y materiales públicos del Dr. Nader Ale Ebrahim, el estudio detalla medidas prácticas para mejorar la descubribilidad, accesibilidad y alcance académico, advirtiendo a la vez contra la manipulación poco ética de las citas. El artículo ofrece un marco para guiar a los investigadores en la maximización del impacto académico legítimo, manteniendo la integridad en las citas.

1. Introducción
La frecuencia de citas juega un papel central en la evaluación de la influencia académica, la reputación y los rankings institucionales. Aunque una investigación impactante puede no atraer atención inmediata, una difusión estratégica puede mejorar significativamente las métricas de citas. Al mismo tiempo, la comunidad académica enfrenta un escrutinio creciente hacia prácticas poco éticas, como la auto-citación excesiva y los carteles de citas. Este artículo busca presentar estrategias basadas en evidencia para aumentar la frecuencia de citas, enfatizando límites éticos y acciones que, justificadamente, podrían reducirlas.


2. Estrategias para aumentar la frecuencia de citas

2.1 Optimización de metadatos y títulos
La visibilidad de la investigación comienza con títulos, resúmenes y metadatos bien estructurados. Repetir palabras clave relevantes en el resumen y elegir títulos precisos mejora significativamente la indexación en bases de datos. La optimización de metadatos incrementa la probabilidad de que la investigación sea recuperada por motores de búsqueda académicos.

2.2 Publicar en revistas de alta visibilidad
La selección de revistas es un factor determinante para el desempeño en citas. Los artículos en revistas bien indexadas y de alto impacto tienen mayor probabilidad de ser citados debido a su amplia difusión. Se recomienda apuntar a revistas con lectores establecidos y presencia en Scopus, Web of Science y DOAJ.

2.3 Adoptar acceso abierto y autoarchivo
Numerosos estudios muestran que los artículos en acceso abierto reciben más citas. Hacer preprints o postprints disponibles públicamente a través de repositorios institucionales y plataformas como arXiv o SSRN aumenta la descubribilidad. La visibilidad es clave para el impacto.

2.4 Mantener una presencia digital actualizada
Perfiles profesionales en plataformas como Google Scholar, ORCID, ResearchGate y páginas institucionales deben estar siempre actualizados para amplificar el alcance y la indexación del trabajo académico.

2.5 Expandir colaboraciones
La investigación muestra que colaboraciones internacionales e interdisciplinarias se correlacionan positivamente con mayores tasas de citas. Los artículos con múltiples coautores, especialmente de distintas instituciones o países, atraen una audiencia más diversa.

2.6 Utilizar redes sociales y académicas
Difundir la investigación mediante redes sociales (LinkedIn, Twitter/X), plataformas académicas y blogs extiende el alcance más allá de los lectores tradicionales de revistas. Estas actividades son esenciales en las estrategias modernas de difusión.

2.7 Publicar artículos de revisión y encuestas
Los artículos de revisión, meta-análisis y encuestas suelen atraer más citas que la investigación original por su mayor atractivo. Apuntar a revistas de alto impacto con revisiones es una estrategia probada para aumentar citas.

2.8 Compartir datos y preprints
Los investigadores que comparten conjuntos de datos o documentos en proceso suelen recibir más citas. Los datos abiertos mejoran la replicabilidad y la credibilidad, y amplían el uso del trabajo por otros académicos.


3. Estrategias para gestionar éticamente la frecuencia de citas

3.1 Evitar la auto-citación excesiva
Mantener una tasa equilibrada de auto-citación es esencial para la ética académica. Monitorizar las auto-citas con plataformas como Scopus o Google Scholar ayuda a mantener transparencia y credibilidad.

3.2 Asegurar la relevancia en las referencias
Solo se deben incluir citas que apoyen el argumento o proporcionen contexto necesario. El exceso de referencias puede disminuir la calidad del artículo y provocar solicitudes editoriales para reducirlas.

3.3 Prevenir la manipulación de citas
Prácticas poco éticas como peticiones coercitivas de cita, carteles de citas o referencias irrelevantes distorsionan las métricas académicas. Quienes las practiquen arriesgan daños reputacionales y sanciones, incluyendo la exclusión de bases de datos.

3.4 Practicar la transparencia en las citas
Hacer seguimiento de las fuentes de citas y entender las métricas, incluyendo la exclusión de auto-citas, ayuda a los investigadores a rendir cuentas. Promover la ética en las citas es parte fundamental de una investigación responsable.


4. Conclusión
Aumentar la frecuencia de citas requiere combinar investigación de calidad, difusión estratégica y prácticas éticas. El trabajo del Dr. Nader Ale Ebrahim demuestra que no solo el contenido importa, sino también cómo se comparte y accede a él. Mantener la integridad en las citas asegura que las contribuciones académicas sean creíbles y éticamente fundamentadas. Este enfoque equilibrado brinda a los investigadores las herramientas para construir un perfil académico sólido y contribuir responsablemente al ecosistema científico.

References

1.      Ale Ebrahim, N. (Access to Publications). SSRN Author Page. Retrieved from https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1379350

2.      Ale Ebrahim, N. (Teaching Materials). Figshare Author Page. Retrieved from https://figshare.com/authors/Nader_Ale_Ebrahim/100797

3.      Moed, H. F. (2005). Citation analysis in research evaluation. Springer.

4.      Bornmann, L., & Daniel, H.-D. (2008). What do citation counts measure? A review of studies on citing behavior, Journal of Documentation, 64(1), 45–80.

5.      Björk, B.-C., & Solomon, D. (2012). Open access versus subscription journals: A comparison of scientific impact. BMC Medicine, 10(1), 73.

6.      Tahamtan, I., Afshar, A. S., & Ahamdzadeh, K. (2016). Factors affecting the number of citations: A comprehensive review of the literature. Scientometrics, 107(3), 1195–1225.

7.      Harzing, A. W. (2010). The Publish or Perish Book: Your guide to effective and responsible citation analysis. Tarma Software Research.

8.      How to improve your visibility as a researcher, available online at: https://authorservices.taylorandfrancis.com/blog/research-impact/how-to-improve-research-visibility/

9.      Ale Ebrahim, N. (2025). AI-Powered Tools and Strategies to Boost Research Visibility and Impact [Presentation]. Figshare. https://doi.org/10.6084/m9.figshare.28877966.v1

10.  Ale Ebrahim, N. (2025). AI-Driven Research Tools for Literature Search, Writing, Publishing, and Boosting Research Visibility and Impact [Presentation]. Figshare. https://doi.org/10.6084/m9.figshare.28369517.v1

11.  Ale Ebrahim, N. (2025). AI Application for Maximizing Research Visibility and Impact through Open Science [Presentation]. Figshare. https://doi.org/10.6084/m9.figshare.28306838.v1

12. https://chatgpt.com

Las autocitas en una docena de países son inusualmente altas

Singh Chawla, Dalmeet. 2024. «Self-Citations in around a Dozen Countries Are Unusually High». Nature, enero. https://doi.org/10.1038/d41586-024-00090-z.


Un extenso análisis de 24 años revela que académicos de 12 países están citando de manera desproporcionada sus propios artículos académicos, una tendencia atribuida a políticas que incentivan tales comportamientos. Publicado en PLoS ONE el 29 de diciembre, el estudio evaluó los patrones de citas en 50 países con más de 100,000 publicaciones desde 1996 hasta 2019 utilizando la base de datos de investigación Scopus. Mientras que 38 países experimentaron un descenso en las ‘auto-citas nacionales’, países como Colombia, Italia y Arabia Saudita vieron un aumento. Un estudio anterior de 2019 ya había implicado a Italia en auto-citas excesivas, vinculándolo a una polémica política de 2010 que requería umbrales de productividad para la promoción académica.

Los investigadores midieron el fenómeno utilizando la métrica ‘inwardness’ en 2019, una definición amplia de auto-citas nacionales. En el estudio reciente, se introdujo una nueva métrica, SRII, centrándose en auto-citas nacionales más estrechas dentro de un marco de tiempo específico. Los autores, liderados por Alberto Baccini, un economista de la Universidad de Siena, encontraron que los 12 países que experimentaron un aumento en las auto-citas tenían políticas que incentivaban altas cuentas de citación. Sin embargo, el estudio no examinó las políticas en los otros 38 países debido al desafío de rastrear la legislación.

Jevin West, un científico de la información en la Universidad de Washington, destacó la importancia de analizar las políticas en todos los países para entender su influencia en los patrones de auto-citación. Las limitaciones del estudio incluyen la exclusión de literatura no inglesa y resultados de investigación a nivel mundial. La correlación entre las dos métricas, inwardness y SRII, generalmente se alinea para la mayoría de los países, excepto China, donde inwardness aumenta mientras que SRII disminuye, atribuido a colaboraciones internacionales incrementadas. West afirma que le sorprendería que no hubiera relación entre las autocitas y factores externos, como las políticas de investigación o la formación de los investigadores. Es coautor de un estudio de 20174 en el que se examinan los patrones de citación de más de 1,5 millones de artículos y se concluye que los hombres citan sus propios artículos, de media, un 56% más que las mujeres.

Para West, los análisis que analizan el grado de autocitación y de citación dentro de un mismo país deberían ayudar a detectar cuándo las políticas no «se alinean necesariamente con nuestros objetivos más grandiosos de la ciencia, que serían animar a los científicos a hacer buena ciencia en lugar de una buena manipulación de las citas».

El sociólogo Marco Seeber elogió la solidez metodológica del estudio reciente, destacando su demostración convincente de la relación entre políticas y comportamientos. West, quien coautoró un estudio de 2017 sobre patrones de citación, expresó sorpresa si no hubiera vínculos entre la auto-citación y factores externos como políticas de investigación o antecedentes de los investigadores. Abogó por enfoques alternativos de evaluación que combinen la revisión por pares con métricas para evitar incentivar comportamientos indeseables.

Baccini enfatizó que los hallazgos no implican que solo los doce países tengan incentivos deficientes, reconociendo la extendida cultura de ‘publicar o perecer’ en la academia. West propuso analizar los grados de auto-citación y citación dentro del país para identificar cuándo las políticas se desvían de los objetivos más amplios de la ciencia, fomentando la buena investigación en lugar de la manipulación de citaciones.

Granjas de citas y círculos de autocitación

Hill, Sarah. «Citation Farms and Circles of Self-Citation». The Big Idea, 19 de marzo de 2020,

Texto completo

Las «granjas de citas», consisten en autores que se autocitan o se citan mutuamente de forma rutinaria y masiva para aumentar el impacto de sus publicaciones. Aunque se cree que estas «granjas de citas», también conocidas como «cárteles de citas», son el sello de la mala ciencia, la mayoría de los investigadores están de acuerdo en que hay espacio para la autocitación, pero que es una buena práctica limitarla cuando sea posible.

La autocitación puede ser necesaria, por ejemplo, si usted es la única persona que ha realizado un determinado tipo de investigación antes. Citar su propio trabajo o el de sus coautores puede ser la medida adecuada. «Todo el mundo se autocita porque, tarde o temprano, todo el mundo se basa en hallazgos anteriores», afirma Hadas Shema en el blog Scientific American. Shema cita a R. Costas, et al, en su artículo de 2010, «Self-cities at the meso and individual levels» (Autocitas en los niveles meso e individual): «Dada la naturaleza acumulativa de la producción de nuevos conocimientos, las autocitas constituyen una parte natural del proceso de comunicación».

Hay una forma sencilla de medir el impacto del trabajo de un investigador: utilizando el Factor de Impacto de la Revista (JIF). Un índice h de 20 indica que un investigador ha publicado 20 artículos con al menos 20 citas. Tras 20 años de investigación, un índice h de 20 es bueno, 40 es sobresaliente y 60 es excepcional. La ventaja del índice h es que combina la productividad (el número de publicaciones) y el impacto (número de citas) en un solo número.

Según la revista Nature, en 2017, un profesor tuvo una idea para contabilizar más a fondo las autocitas. Este profesor, ahora en la Universidad de Helsinki, sugirió un índice de autocitación, o índice s, en la línea del indicador de productividad del índice h. Creado por Justin Flatt, Alessandro Blasimme, Effy Vayena, así un científico tiene un índice s si ha publicado s artículos, cada uno de los cuales ha recibido al menos s autocitaciones. Con esta nueva herramienta, un índice s de 10 significaría que un investigador ha publicado 10 artículos con al menos 10 autocitaciones cada uno.

El profesor que ideó este sistema de puntuación afirma que no se trataba de establecer umbrales para lo que era un índice s adecuadamente bajo, ni tampoco de avergonzar a los que se autocitan mucho. Utilizando los datos, se trataba simplemente de otra herramienta para medir el impacto de ciertas teorías y artículos.

Según John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia: «Este [estudio] no debería llevar a vilipendiar a los investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar entre disciplinas y etapas de la carrera». Y añade: «Sólo ofrece información completa y transparente. No debería utilizarse para emitir veredictos como el de decidir que una autocitación demasiado alta equivale a un mal científico».

¿Reduce la autocitación la probabilidad de publicación? Sí, según algunos autores. «Clarivate supervisa las autocitaciones cuando calcula el factor de impacto de una revista, y puede retirar de la lista a una revista cuando las tasas de autocitación son demasiado altas o cambia la clasificación relativa de una revista dentro de su campo», dice el doctor Phil Davis, experto en comunicación científica en el blog The Scholarly Kitchen. «Ningún editor quiere ser conocido como el que puso a la revista en ‘tiempo muerto'».

«La autocitación es necesaria para informar al lector sobre el trabajo previo del autor y proporcionar información de fondo. Un índice bajo de autocitación puede llevar a un revisor a creer que los antecedentes del autor son inadecuados, mientras que un índice alto podría indicar que está ignorando el trabajo de sus colegas. Se recomienda un equilibrio», dice Paul W. Sammarco, en Ethics in Science and Environmental Politics. Así que, buena suerte con el equilibrio, sobre todo para los que trabajan en disciplinas con experimentación novedosa. Siempre que no cite a sus amigos y colegas a propósito para aumentar sus índices h, al final todo debería ser igual.

Los peligros de la alta autocitación y las «granjas de citas»: un investigador recibió el 94% de las citas de si mismo o de sus coautores.

Van Noorden, Richard, y Dalmeet Singh Chawla. «Hundreds of Extreme Self-Citing Scientists Revealed in New Database». Nature, vol. 572, n.o 7771, agosto de 2019, pp. 578-79.

Texto completo

Más sobre Autocitas

Cientos de científicos se autocitan de forma extrema. Algunos investigadores muy citados parecen ser grandes autopromotores, pero los especialistas advierten del peligro de la autocitación.

Los investigadores más citados del mundo, según datos recién publicados, son un grupo curiosamente ecléctico. Premios Nobel y eminentes expertos se codean con nombres menos conocidos, como Sundarapandian Vaidyanathan, de Chennai (India). Lo que salta a la vista sobre Vaidyanathan y otros cientos de investigadores es que muchas de las citas de sus trabajos proceden de sus propios artículos o de los de sus coautores.

Vaidyanathan, informático del Vel Tech R&D Institute of Technology, un instituto de gestión privada, es un ejemplo extremo: ha recibido el 94% de sus citas de sí mismo o de sus coautores hasta 2017, según un estudio publicado este mes en PLoS Biology. No es el único. El conjunto de datos, que enumera a unos 100.000 investigadores, muestra que al menos 250 científicos han acumulado más del 50% de sus citas de sí mismos o de sus coautores, mientras que la tasa media de autocitación es del 12,7%.

El estudio podría ayudar a señalar a posibles autopromotores extremos y, posiblemente, a las «granjas de citas», en las que grupos de científicos se citan mutuamente de forma masiva, dicen los investigadores. «Creo que las granjas de autocitación son mucho más comunes de lo que creemos», afirma John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia -el estudio de cómo se hace la ciencia- y que dirigió el trabajo. «Los que tienen más de un 25% de autocitación no tienen por qué tener un comportamiento poco ético, pero puede ser necesario un examen más minucioso», afirma.

Los datos son, con mucho, la mayor colección de métricas de autocitación jamás publicada. Y llegan en un momento en el que las agencias de financiación, las revistas y otros organismos se están centrando más en los posibles problemas causados por el exceso de autocitación. En julio, el Comité de Ética de las Publicaciones (COPE), un organismo asesor de las editoriales de Londres, destacó la autocitación extrema como una de las principales formas de manipulación de las citas. Este problema se enmarca en una preocupación más amplia por la excesiva dependencia de las métricas de citación para tomar decisiones sobre contratación, ascensos y financiación de la investigación.

«Cuando vinculamos la promoción profesional y prestamos demasiada atención a las métricas basadas en las citas, incentivamos la autocitación», afirma el psicólogo Sanjay Srivastava, de la Universidad de Oregón, en Eugene.

Aunque muchos científicos están de acuerdo en que el exceso de autocitación es un problema, hay poco consenso sobre cuánto es demasiado o sobre qué hacer al respecto. En parte, esto se debe a que los investigadores tienen muchas razones legítimas para citar su propio trabajo o el de sus colegas. Ioannidis advierte que su estudio no debe llevar a denunciar a determinados investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar según las disciplinas y las etapas de la carrera. «Sólo ofrece información completa y transparente. No debe utilizarse para emitir veredictos como el de decidir que una autocitación demasiado elevada equivale a un mal científico», afirma.

Patrones de autocitación de las revistas indexadas en el Journal Citation Reports

Taşkın, Zehra, et al. «Self-Citation Patterns of Journals Indexed in the Journal Citation Reports». Journal of Informetrics, vol. 15, n.o 4, noviembre de 2021, p. 101221.

Texto completo

Se examinaron los patrones de autocitación de 1.104 revistas indexadas en la edición de 2018 del Journal Citation Reports para evaluar la posibilidad de manipulaciones de rango subyacentes. Se comprobó que todas las revistas incluidas en este estudio tenían una tasa de autocitación superior al 25%. La investigación muestra que al excluir las tasas de autocitación, el rango de las revistas con un alto factor de impacto no se ve afectado; sin embargo, para otras revistas, la eliminación de incluso una sola autocita puede causar cambios significativos en el rango. Los patrones de autocitación son típicos de las revistas en idiomas locales, así como de las revistas de los países europeos de renta media-alta. Los factores de impacto utilizados en las evaluaciones del rendimiento de la investigación deberían utilizarse con más cuidado, especialmente cuando variables como el tamaño de la revista, el idioma de publicación, el país de la editorial y el área temática se correlacionan con los índices de autocitación.

Las revistas indexadas en el Journal Citation Reports tienen una tasa de autocitación del 25%

Taşkın, Zehra, et al. «Self-Citation Patterns of Journals Indexed in the Journal Citation Reports». Journal of Informetrics, vol. 15, n.o 4, noviembre de 2021, p. 101221. ScienceDirect, https://doi.org/10.1016/j.joi.2021.101221.

Se examinaron los patrones de autocitación de 1.104 revistas indexadas en la edición de 2018 del Journal Citation Reports para evaluar la posibilidad de manipulaciones de rango subyacentes. Se comprobó que todas las revistas incluidas en este estudio tenían una tasa de autocitación superior al 25%. Nuestra investigación muestra que al excluir las tasas de autocitación, el rango de las revistas con un alto factor de impacto no se ve afectado; sin embargo, para otras revistas, la eliminación de incluso una sola autocitación puede causar cambios significativos en el rango. Los patrones de autocitación son típicos de las revistas en idiomas locales, así como de las revistas de los países europeos de renta media-alta. Los factores de impacto utilizados en las evaluaciones del rendimiento de la investigación deberían utilizarse con más cuidado, especialmente cuando variables como el tamaño de la revista, el idioma de publicación, el país de la editorial y el área temática se correlacionan con los índices de autocitación.

Clarivate suprime 33 revistas de los grandes editores científicos por exceso de autocitas a sí mismas

 

clarivate-logo

 

ClarivateMajor indexing service sounds alarm on self-citations by nearly 50 journals. Retraction Watch,

Texto completo

 

Más de 33 revistas  han sido suprimidas de Journal impact factor, ya que más del 70% de las citas en una revista se hicieron a otros artículos de esa misma revista. Otra publicó un solo artículo que citaba casi otros 200 artículos en la revista.

 

 

Clarivate, la compañía que gestiona el Factor de Impacto, está tomando medidas para combatir ese comportamiento, suprimiendo 33 revistas de su servicio de indexación y sometiendo a 15 más a observacion, todas por una aparente excesiva auto-citación que impulsó a estas revistas en el ranking de las revistas.

La lista incluye algunas de las grandes compañías del mundo de la edición científica: nueve eran revistas publicadas por Elsevier, siete por Springer Nature, seis por Taylor & Francis y cinco por Wiley.

Dada la dependencia de muchas universidades en los rankings de revistas para juzgar el trabajo de sus investigadores como parte de las decisiones de tenencia y promoción, la supresión de una revista de Clarivate significa negarle un Factor de Impacto, que puede tener efectos a largo plazo. Los factores de impacto se basan en citas promedio de artículos en una revista durante un período de tiempo concreto. Muchos organizaciones,  incluidos Retraction Wacht, han argumentado que el Impact Factor no es la mejor manera de juzgar la investigación, por razones que incluyen la relativa facilidad de manipular tales métricas.

Web of Science de Clarivate indexa 21.000 revistas, pero solo 12.000 están incluidas en el Journal Citation Report (JCR) anual y reciben Factores de Impacto. Actualmente hay dos razones para la supresión de la JCR:

La auticitación de la revista y el «apilamiento de citas», comportamiento que a veces se conoce como participar en «colegios invisibles de citas» o «anillos de citas«. Ninguna de las supresiones de este año fueron por el apilamiento de citas. Cuando la empresa retira una revista del JCR, continúa contando sus citas, pero no le asigna un Factor de Impacto.

La compañía ha cambiado la forma en que considera la autocita y revisó su metodología, dijo la editora en jefe de Web of Science, Nandita Quaderi, en respuesta las pautas que se han observado en los últimos años.

Este año, Clarivate también sometió a 15 revistas a exámenes editoriales de preocupación. Tales revistas tenían un pequeño número de artículos con niveles muy altos de citas a artículos en la misma revista que pueden tener un efecto significativo en el Factor de Impacto y en el ránking. Quaderi dijo que juzgar solo los niveles generales de autocitación de las revistas pasaría por alto tales patrones, porque no tomaría en cuenta directamente cómo estas citas se «concentran» en artículos o períodos de tiempo particulares.

Nada cambia para las revistas JCR sujetas a tales indicadores, pero se monitorean de cerca para su reevaluación y pueden perder sus Factores de Impacto en los años siguientes o ser eliminados de la indexación por completo.

Este movimiento marca solo la segunda vez que Clarivate ha emitido análisis de revisión. En 2018, lo hicieron con cinco revistas en el campo óseo, cuatro de las cuales fueron suprimidas al año siguiente. Las cinco actualmente están de nuevo reintegradas en JCR.

Al menos el 25% de las referencias en todas las revistas suprimidas eran autocitas, con el 71% de las citas en una revista. Un artículo en el Journal of Allergy and Clinical Immunology-In Practice citó otros artículos en la misma revista 191 veces.

Cinco de las revistas suprimidas o marcadas eran en cardiología, incluyendo JACC: Cardiovascular Imaging, que tiene un Factor de Impacto por encima de 10, clasificándo la revista entre las 10 mejores revistas en el campo. Otras tres revistas de cardiología de las que Clarivate ha expresado su preocupación tienen factores de impacto superiores a 5.

¿Qué tiene de malo el índice H? según Jorge Hirsch, su inventor

 

web-of-science-h-index-700x350-1

 

Conroy, Gemma. What’s wrong with the H-index, according to its inventor “Severe unintended negative consequences”. Mature Index. 24 March 2020

Texto completo

 

El índice H se ha convertido en una de las métricas más utilizadas en el mundo académico para medir la productividad y el impacto de los investigadores. Pero cuando Jorge Hirsch lo propuso como una medida objetiva del logro científico en 2005, no pensó que se usaría fuera de la física teórica.»Ni siquiera estaba seguro de si publicarlo o no», dice Hirsch, físico de la Universidad de California en San Diego. «No esperaba que tuviera un impacto tan grande».

 

La métrica tiene en cuenta tanto el número de artículos que ha publicado un investigador como la cantidad de citas que recibe. Se ha convertido en una herramienta popular para evaluar a los investigadores.

 

jorgehirsch_200x225_jpg_medium_3

 

También es uno de los temas más polémicos que discuten los científicos, como escribe Hirsch en el boletín de Física y Sociedad de enero.

«Aproximadamente la mitad de la comunidad científica ama el índice H y la mitad lo odia», escribe Hirsch. «El índice H del propio científico es un gran predictor de si pertenece al primer o al segundo grupo».

Si bien Hirsch cree que el índice H sigue siendo una de las mejores medidas objetivas del logro científico, también escribe que puede «fallar espectacularmente y tener graves consecuencias negativas no deseadas».

Una desventaja es que puede disuadir a los investigadores del pensamiento innovador. Por ejemplo, un estudiante que trabaja con un profesor con un alto índice H puede ser reacio a cuestionar los conceptos que se le están enseñando, ya que es probable que asuman que el profesor es un experto en su campo en función de su puntaje.

La búsqueda de un índice H alto también puede alentar a los investigadores a elegir temas de investigación ‘candentes’ que sean más propensos a llamar la atención y tentarlos a publicar un artículo tras otro en un esfuerzo por aumentar su puntaje. «Es demasiado sensible a lo que es popular y de moda en la ciencia», dice Hirsch. Mientras más se cita un artículo, más difícil resulta cuestionar su validez, señala.

Hirsch señala que la métrica no recoge la investigación que se desvía de la corriente principal, algo que ha observado en su propio trabajo sobre la superconductividad.

Un análisis realizado en 2012 sobre 2.307 investigadores muy citados reveló que los índices H varían mucho entre las distintas disciplinas. Los investigadores de Medicina y Química tienen los índices H más altos de promedio, mientras que los matemáticos y los nformáticos y los científicos tienen el más bajo. (Ver gráfico).

 

c4cf27a6c65363b95618b194e9fa1f71

 

«Uno tiene que mirar la naturaleza del trabajo», dice Hirsch. “Si toma decisiones basadas en el índice H de alguien, puede terminar contratando a la persona equivocada o negando una subvención a alguien que es mucho más probable que haga algo importante. Tiene que usarse con cuidado.

El 35% del total de citas recibidas por artículos de investigación son autocitas

istock_000007032716_large

Ramesh, P. and S. Shivendra «Self-citations, a trend prevalent across subject disciplines at the global level: an overview.» Collection Building vol. 36, n. 3 (2017). pp. 115-126. http://www.emeraldinsight.com/doi/abs/10.1108/CB-03-2017-0008

 

El presente estudio tiene como objetivo determinar la tendencia predominante de autocitas en 27 disciplinas principales a nivel global. El estudio también analiza los aspectos como el porcentaje de autorrecursos en cada disciplina individual y el número promedio de autocitas por publicación en diferentes disciplinas. Además el estudio también investiga el porcentaje de autocitación de artículos de investigación publicados de los 20 principales países de investigación del mundo. Los datos de estos hallazgos se basan en datos empíricos realizados sobre datos secundarios obtenidos de SCImago Journal & Country Ranking, se basaen la fuente de datos SCOPUS (SCImago, 2014).

En total, 76.634.557 citas fueron recibidas por 14.946.975 artículos de investigación publicados entre 2008 y 2012 con un promedio de 5.12 citas por artículo. Del total de citas recibidas, 26,404,609 (34,45 por ciento) fueron autocitas, lo que significa que del total de citas recibidas por cada artículo de investigación, 1,76 son autocitas.

En comparación con las disciplinas sujetas a las ciencias sociales y humanísticas, las ciencias puras y aplicadas han mostrado una mayor tendencia a la autocitación. De promedio, se observaron 4.18 autocitas en cada artículo de investigación publicado en disciplinas disciplinarias multidisciplinarias. Del total de citas recibidas por artículos de investigación publicados en la disciplina de Psicología, el 43,69 por ciento son citas propias, las más altas entre todas las disciplinas objeto de estudio. Del total de citas propias recibidas por todas las disciplinas objeto de estudio, el 18,43 por ciento fueron recibidos solos en medicina, el más alto porcentaje entre todas las disciplinas, mientras que las Ciencias Sociales y Humanísticas recibieron menos del 1,00 por ciento de citas propias, el más bajo entre todas las disciplinas .