Archivo de la etiqueta: Análisis de citas

Los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia

Yang, Puyu, Ahad Shoaib, Robert West, y Giovanni Colavizza. «Wikipedia and open access». arXiv, 23 de mayo de 2023. https://doi.org/10.48550/arXiv.2305.13945.

Wikipedia es una conocida plataforma de difusión del conocimiento, y las fuentes científicas, como los artículos de revistas, desempeñan un papel fundamental en apoyo de su misión. El movimiento de acceso abierto tiene como objetivo hacer que el conocimiento científico esté disponible abiertamente, e intuitivamente podríamos esperar que el acceso abierto ayude a promover la misión de Wikipedia. Sin embargo, se desconoce en gran medida el alcance de esta relación. Para llenar este vacío, se analizaron un gran conjunto de datos de citas de Wikipedia cuyo objetivo era analizar el papel del acceso abierto en los patrones de citación de Wikipedia.

Se descubrió que los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia. Es más, muestran una probabilidad un 15% mayor de ser citados en Wikipedia en comparación con los artículos de acceso cerrado, después de controlar los factores de confusión. Este efecto de citación del acceso abierto es particularmente fuerte en el caso de los artículos con bajo número de citas, incluidos los publicados recientemente.

Los resultados demuestran que el acceso abierto desempeña un papel clave en la difusión del conocimiento científico, entre otras cosas al proporcionar a los editores de Wikipedia acceso oportuno a resultados novedosos. Estas conclusiones tienen importantes implicaciones para investigadores, responsables políticos y profesionales del campo de la ciencia y la tecnología de la información.

¿Realmente más de la mitad de los artículos académicos siguen sin citarse cinco años después de su publicación?

Está ampliamente aceptado que los artículos académicos rara vez se citan o incluso se leen. ¿Pero qué tipo de datos hay detrás de estas afirmaciones?

El genetista y premio Nobel Oliver Smithies, fallecido el pasado mes de enero a los 91 años, era un inventor modesto y autocomplaciente. Era típico de él contar uno de sus mayores fracasos: un artículo sobre la medición de la presión osmótica publicado en 1953, que, como él decía, tenía «la dudosa distinción de no haber sido citado nunca«. «Nadie lo citó nunca, y nadie utilizó nunca el método», dijo a los estudiantes en una reunión de 2014 en Lindau (Alemania).

La idea de que la literatura está plagada de investigaciones no citadas se remonta a un par de artículos publicados en Science: uno de 1990 y otro de 1991. El de 1990 señalaba que el 55% de los artículos publicados entre 1981 y 1985 no habían sido citados en los 5 años siguientes a su publicación.

Dahlia Remler echa un vistazo a la investigación académica sobre las prácticas de citación y descubre que, aunque está claro que los índices de citación son bajos, sigue habiendo mucha confusión sobre las cifras precisas y los métodos para determinar un análisis de citación preciso.

Un artículo de Lokman Meho en 2007 afirmaba que «El 90% de los trabajos publicados en revistas académicas nunca se citan». Esta estadística condenatoria, extraída de un resumen de 2007 sobre el análisis de citas, recorrió recientemente el ciberespacio. Una estadística similar había circulado en 2010, pero en aquella ocasión se decía que el 60% de los artículos de ciencias sociales y naturales no se citaban. Aunque ninguna de las dos estadísticas venía acompañada de un enlace a documentos de investigación académica que las respaldaran.

Según Sierra Williams, muchos artículos académicos no se citan nunca, aunque no pude encontrar ningún estudio con un resultado tan alto como el 90%. Las tasas de no citación varían enormemente según el campo. «Sólo» el 12% de los artículos de medicina no se citan, frente al 82% de las humanidades. Es del 27% para las ciencias naturales y del 32% para las ciencias sociales (cita). Para todo, excepto las humanidades, estas cifras están lejos del 90%, pero siguen siendo altas: Un tercio de los artículos de ciencias sociales no se citan

Pero esos análisis son engañosos, principalmente porque las publicaciones que contaron incluían documentos como cartas, correcciones, resúmenes de reuniones y otro material editorial, que normalmente no se citan. Si se eliminan estos documentos y se dejan sólo los trabajos de investigación y los artículos de revisión, las tasas de no citación caen en picado. Si se amplía el límite más allá de los cinco años, los índices se reducen aún más.

Con un recorte de diez años sigue habiendo artículos no citados, por supuesto, pero varía de forma interesante según el campo. Los artículos biomédicos tienen un 4% de artículos no citados, la química tiene un 8% de material refractario y la física un 11%. Sin embargo, hay que tener en cuenta que si se eliminan las autocitaciones de los mismos autores, estos índices aumentan, a veces de forma notable. La tasa de no citación en diez años en todas las disciplinas, menos la autocitación, es de alrededor del 18%. Pero otra cosa que han descubierto estos estudios es que esta tasa ha ido disminuyendo durante muchos años. Es de suponer que esto se debe a un mejor acceso y búsqueda en las revistas y a una tendencia relacionada con listas de referencias más largas en general. (En el ámbito de las ciencias, ese aumento comienza en torno a 1980 y se ha acentuado en los últimos años).

Pero aún así… …los artículos en la zona de no citados tienden (como es de esperar) a estar en revistas mucho menos prominentes (aparentemente casi todos los artículos publicados en una revista de la que has oído hablar son citados por alguien). Y eso trae a colación el problema de la «materia oscura»: todas estas cifras proceden de revistas indexadas en la Web of Science, una cohorte grande, pero que (justificadamente) ignora las hordas de revistas que publican cualquier cosa. Hay que imaginar que las tasas de citación son abismales entre las «revistas» que fabrican papeles, y la gran mayoría de ellas son seguramente autocitas. Si contamos estas cosas como «papers», entonces el número de publicaciones sin impacto nunca vistas aumenta de nuevo».

Bibliografía:

Willians. Sierra «Are 90% of Academic Papers Really Never Cited? Reviewing the Literature on Academic Citations.» Impact of Social Sciences, 23 de abril de 2014, https://blogs.lse.ac.uk/impactofsocialsciences/2014/04/23/academic-papers-citation-rates-remler/.

Hamilton, David P. «Publishing by—and for?—the Numbers». Science, vol. 250, n.o 4986, diciembre de 1990, pp. 1331-32. science.org (Atypon), https://doi.org/10.1126/science.2255902.

Derek Lowe. Not So Many Uncited Papers, Actually. Science, 20 feb. 2018. https://www.science.org/content/blog-post/not-so-many-uncited-papers-actually. Accedido 16 de septiembre de 2022.

Meho, Lokman I. «The Rise and Rise of Citation Analysis». Physics World, vol. 20, n.o 1, enero de 2007, pp. 32-36. Institute of Physics, https://doi.org/10.1088/2058-7058/20/1/33.

Tainer, John A., et al. «Science, Citation, and Funding». Science, vol. 251, n.o 5000, 1991, pp. 1408-11. JSTOR, https://www.jstor.org/stable/2875794.

Van Noorden, Richard. «The Science That’s Never Been Cited». Nature, vol. 552, n.o 7684, diciembre de 2017, pp. 162-64. http://www.nature.com, https://doi.org/10.1038/d41586-017-08404-0.

Granjas de citas y círculos de autocitación

Hill, Sarah. «Citation Farms and Circles of Self-Citation». The Big Idea, 19 de marzo de 2020,

Texto completo

Las «granjas de citas», consisten en autores que se autocitan o se citan mutuamente de forma rutinaria y masiva para aumentar el impacto de sus publicaciones. Aunque se cree que estas «granjas de citas», también conocidas como «cárteles de citas», son el sello de la mala ciencia, la mayoría de los investigadores están de acuerdo en que hay espacio para la autocitación, pero que es una buena práctica limitarla cuando sea posible.

La autocitación puede ser necesaria, por ejemplo, si usted es la única persona que ha realizado un determinado tipo de investigación antes. Citar su propio trabajo o el de sus coautores puede ser la medida adecuada. «Todo el mundo se autocita porque, tarde o temprano, todo el mundo se basa en hallazgos anteriores», afirma Hadas Shema en el blog Scientific American. Shema cita a R. Costas, et al, en su artículo de 2010, «Self-cities at the meso and individual levels» (Autocitas en los niveles meso e individual): «Dada la naturaleza acumulativa de la producción de nuevos conocimientos, las autocitas constituyen una parte natural del proceso de comunicación».

Hay una forma sencilla de medir el impacto del trabajo de un investigador: utilizando el Factor de Impacto de la Revista (JIF). Un índice h de 20 indica que un investigador ha publicado 20 artículos con al menos 20 citas. Tras 20 años de investigación, un índice h de 20 es bueno, 40 es sobresaliente y 60 es excepcional. La ventaja del índice h es que combina la productividad (el número de publicaciones) y el impacto (número de citas) en un solo número.

Según la revista Nature, en 2017, un profesor tuvo una idea para contabilizar más a fondo las autocitas. Este profesor, ahora en la Universidad de Helsinki, sugirió un índice de autocitación, o índice s, en la línea del indicador de productividad del índice h. Creado por Justin Flatt, Alessandro Blasimme, Effy Vayena, así un científico tiene un índice s si ha publicado s artículos, cada uno de los cuales ha recibido al menos s autocitaciones. Con esta nueva herramienta, un índice s de 10 significaría que un investigador ha publicado 10 artículos con al menos 10 autocitaciones cada uno.

El profesor que ideó este sistema de puntuación afirma que no se trataba de establecer umbrales para lo que era un índice s adecuadamente bajo, ni tampoco de avergonzar a los que se autocitan mucho. Utilizando los datos, se trataba simplemente de otra herramienta para medir el impacto de ciertas teorías y artículos.

Según John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia: «Este [estudio] no debería llevar a vilipendiar a los investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar entre disciplinas y etapas de la carrera». Y añade: «Sólo ofrece información completa y transparente. No debería utilizarse para emitir veredictos como el de decidir que una autocitación demasiado alta equivale a un mal científico».

¿Reduce la autocitación la probabilidad de publicación? Sí, según algunos autores. «Clarivate supervisa las autocitaciones cuando calcula el factor de impacto de una revista, y puede retirar de la lista a una revista cuando las tasas de autocitación son demasiado altas o cambia la clasificación relativa de una revista dentro de su campo», dice el doctor Phil Davis, experto en comunicación científica en el blog The Scholarly Kitchen. «Ningún editor quiere ser conocido como el que puso a la revista en ‘tiempo muerto'».

«La autocitación es necesaria para informar al lector sobre el trabajo previo del autor y proporcionar información de fondo. Un índice bajo de autocitación puede llevar a un revisor a creer que los antecedentes del autor son inadecuados, mientras que un índice alto podría indicar que está ignorando el trabajo de sus colegas. Se recomienda un equilibrio», dice Paul W. Sammarco, en Ethics in Science and Environmental Politics. Así que, buena suerte con el equilibrio, sobre todo para los que trabajan en disciplinas con experimentación novedosa. Siempre que no cite a sus amigos y colegas a propósito para aumentar sus índices h, al final todo debería ser igual.

Manipulación de citas

«Citation Manipulation». COPE: Committee on Publication Ethics, 2022.
DOI: https://doi.org/10.24318/cope.2019.3.1

Texto completo

El documento de debate de COPE sobre la manipulación de las citas define las cuestiones clave y las soluciones existentes en torno a las prácticas de citación poco éticas. COPE agradece los comentarios que contribuyan a este debate en curso.

La citación manipuladora se caracteriza por comportamientos destinados a incrementar el número de citas para beneficio personal, tales como: autocitación excesiva del propio trabajo de un autor, citación excesiva a la revista que publica el artículo citado y citación excesiva entre revistas de forma coordinada. Se dan ejemplos de autocitación legítima cuando se incluye o se solicita para atender necesidades válidas. COPE recomienda que las revistas desarrollen políticas sobre los niveles apropiados de autocitación, proporcionen educación a los editores y tengan procedimientos claros para responder a la potencial manipulación de las citas.

Puntos clave

  • La manipulación de citas es un problema cuando las referencias no contribuyen al contenido académico del artículo y se incluyen únicamente para aumentar las citas.
  • Cualquier parte que incluya o solicite añadir citas cuando las motivaciones son meramente autopromocionales viola la ética de la publicación.
  • Las sanciones por la manipulación de citas pueden incluir la dimisión de los editores de sus funciones editoriales, o la eliminación o el rechazo de las revistas de los índices de citas.
  • Las revistas deben desarrollar políticas y normas para determinar los umbrales de autocitación, proporcionar recursos educativos para apoyar las mejores prácticas y establecer procedimientos para responder a una posible mala conducta.
  • Puede haber casos en los que la autocitación y las solicitudes de citas sean legítimas

Documentos relacionados

Citation games: mocking research COPE speaker presentation at ISMTE European Virtual Event, 2020

Reviewer requesting addition of multiple citations of their own work, 2019

Citations: link, locate, discover, connect Guest article, August 2018

Self-citation: where’s the line? Forum discussion, November 2017

Los peligros de la alta autocitación y las «granjas de citas»: un investigador recibió el 94% de las citas de si mismo o de sus coautores.

Van Noorden, Richard, y Dalmeet Singh Chawla. «Hundreds of Extreme Self-Citing Scientists Revealed in New Database». Nature, vol. 572, n.o 7771, agosto de 2019, pp. 578-79.

Texto completo

Más sobre Autocitas

Cientos de científicos se autocitan de forma extrema. Algunos investigadores muy citados parecen ser grandes autopromotores, pero los especialistas advierten del peligro de la autocitación.

Los investigadores más citados del mundo, según datos recién publicados, son un grupo curiosamente ecléctico. Premios Nobel y eminentes expertos se codean con nombres menos conocidos, como Sundarapandian Vaidyanathan, de Chennai (India). Lo que salta a la vista sobre Vaidyanathan y otros cientos de investigadores es que muchas de las citas de sus trabajos proceden de sus propios artículos o de los de sus coautores.

Vaidyanathan, informático del Vel Tech R&D Institute of Technology, un instituto de gestión privada, es un ejemplo extremo: ha recibido el 94% de sus citas de sí mismo o de sus coautores hasta 2017, según un estudio publicado este mes en PLoS Biology. No es el único. El conjunto de datos, que enumera a unos 100.000 investigadores, muestra que al menos 250 científicos han acumulado más del 50% de sus citas de sí mismos o de sus coautores, mientras que la tasa media de autocitación es del 12,7%.

El estudio podría ayudar a señalar a posibles autopromotores extremos y, posiblemente, a las «granjas de citas», en las que grupos de científicos se citan mutuamente de forma masiva, dicen los investigadores. «Creo que las granjas de autocitación son mucho más comunes de lo que creemos», afirma John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia -el estudio de cómo se hace la ciencia- y que dirigió el trabajo. «Los que tienen más de un 25% de autocitación no tienen por qué tener un comportamiento poco ético, pero puede ser necesario un examen más minucioso», afirma.

Los datos son, con mucho, la mayor colección de métricas de autocitación jamás publicada. Y llegan en un momento en el que las agencias de financiación, las revistas y otros organismos se están centrando más en los posibles problemas causados por el exceso de autocitación. En julio, el Comité de Ética de las Publicaciones (COPE), un organismo asesor de las editoriales de Londres, destacó la autocitación extrema como una de las principales formas de manipulación de las citas. Este problema se enmarca en una preocupación más amplia por la excesiva dependencia de las métricas de citación para tomar decisiones sobre contratación, ascensos y financiación de la investigación.

«Cuando vinculamos la promoción profesional y prestamos demasiada atención a las métricas basadas en las citas, incentivamos la autocitación», afirma el psicólogo Sanjay Srivastava, de la Universidad de Oregón, en Eugene.

Aunque muchos científicos están de acuerdo en que el exceso de autocitación es un problema, hay poco consenso sobre cuánto es demasiado o sobre qué hacer al respecto. En parte, esto se debe a que los investigadores tienen muchas razones legítimas para citar su propio trabajo o el de sus colegas. Ioannidis advierte que su estudio no debe llevar a denunciar a determinados investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar según las disciplinas y las etapas de la carrera. «Sólo ofrece información completa y transparente. No debe utilizarse para emitir veredictos como el de decidir que una autocitación demasiado elevada equivale a un mal científico», afirma.

Rankings de investigación de universidades

Bornmann, L. «On the function of university rankings.» Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014). pp. 428-429. http://dx.doi.org/10.1002/asi.23019

La ciencia moderna es una ciencia que se evalúa. La calidad de la investigación no puede garantizarse sin una evaluación. Según el fundador de la moderna sociología de la ciencia, Robert K. Merton (1973), una de las normas de la ciencia es el «escepticismo organizado». A partir del siglo XVII, al principio se utilizó casi exclusivamente el proceso de revisión por pares, aunque desde los años ochenta y noventa se llevan a cabo evaluaciones basadas en indicadores o se utilizan métodos multietapa para la evaluación de la investigación y la enseñanza (Daniel, Mittag y Bornmann, 2007). La primera clasificación internacional de universidades, llamada Ranking de Shanghai, se publicó en 2003. A continuación, se realizaron otras evaluaciones a gran escala de las universidades basadas en indicadores, que se publicaron como ranking (instituciones individuales clasificadas según determinados criterios) o como calificación (instituciones individuales evaluadas según determinados criterios). La importancia de los rankings o clasificaciones en la actualidad queda patente al comprobar que la ausencia de una universidad alemana entre las 20 o 50 mejores universidades en las clasificaciones internacionales fue una de las razones más importantes para crear Excellence Initiative in Germany (Hazelkorn, 2011).

Aunque a menudo se afirma que la evaluación basada en indicadores en los rankings o clasificaciones puede ser utilizada por las direcciones de las universidades para un análisis significativo de los puntos fuertes y débiles de sus instituciones, los rankings o clasificaciones proporcionan principalmente:

(a) información sobre el rendimiento de las universidades para los estudiantes y los científicos noveles;

(b) una evaluación comparativa de las universidades, a nivel nacional e internacional; y

(3) una cuenta de las universidades, a las que se les está dando cada vez más autonomía (Hazelkorn, 2012).

Así lo demuestra una encuesta sobre las direcciones de las universidades que recoge Hazelkorn (2011). Después de los estudiantes y los padres, se considera que los políticos son el grupo más influenciado por los rankings. Los estudios han podido determinar una correlación entre «la calidad de las instalaciones del campus y la capacidad de atraer estudiantes (internacionales)» (Hazelkorn, 2011, p. 103). Las direcciones de las universidades asumen que «las clasificaciones altas pueden impulsar la «posición competitiva de una institución en relación con el gobierno»» (Hazelkorn, 2011, p. 91).

Los gobiernos desean disponer de información independiente y objetiva sobre la situación general de la investigación de un país y de cada una de las instituciones de investigación. La transparencia creada por las cifras también tiene el efecto secundario deseado de que se estimula la competencia entre las instituciones (por la financiación relacionada con la investigación y el personal) (Hazelkorn, 2012), y cabe esperar un aumento del rendimiento de las instituciones.

Las universidades y las instituciones de investigación no universitarias apenas necesitan rankings o clasificaciones para sus decisiones estratégicas o para la optimización interna de su rendimiento. Para ello, las instituciones llevan a cabo evaluaciones en varias etapas (normalmente basadas en la revisión por pares con conocimiento de causa), que son organizadas por la propia institución o por agencias de evaluación (Bornmann, Mittag y Daniel, 2006; Daniel et al., 2007). Los Institutos Max Planck de la Sociedad Max Planck cuentan con Consejos Científicos Asesores; por ejemplo, la TU Darmstadt y la Universidad de Zúrich tienen incluso su propia oficina de evaluación. Las universidades de Baja Sajonia son evaluadas por la Agencia Central de Evaluación y Acreditación (ZEvA) y las del norte de Alemania por la Asociación de Universidades del Norte de Alemania (Bornmann et al., 2006). Dado que estas evaluaciones requieren mucho trabajo y tiempo, son difícilmente practicables para un gran número de instituciones de investigación y sólo pueden llevarse a cabo con eficacia en un ambiente de absoluta discreción, no son adecuadas para una comparación a gran escala de las instituciones de investigación. En su lugar, se han establecido rankings o clasificaciones con este fin. Se dirigen principalmente al público en general y no a los académicos o a la dirección de las universidades. Por lo tanto, los rankings o clasificaciones son importantes para las universidades no como un análisis de los puntos fuertes y débiles que pueda utilizarse internamente, sino como una demostración del rendimiento ante las partes externas (para los estudiantes y científicos noveles del futuro o para los políticos). Aunque hay una serie de «cosas que hay que hacer y no hacer» a la hora de diseñar rankings o clasificaciones, probablemente nunca habrá uno que haga justicia a la heterogeneidad de las instituciones abarcadas y que sea capaz de producir una imagen válida del rendimiento de todas las instituciones.

References

  • Bornmann, L., Mittag, S., & Daniel, H.-D. (2006). Quality assurance in higher education—Meta-evaluation of multi-stage evaluation procedures in Germany. Higher Education, 52(4), 687– 709.CrossrefWeb of Science®Google Scholar
  • Daniel, H.-D., Mittag, S., & Bornmann, L. (2007). The potential and problems of peer evaluation in higher education and research. In A. Cavalli (Ed.), Quality assessment for higher education in Europe (pp. 71– 82). London: Portland Press.Google Scholar
  • Hazelkorn, E. (2011). Rankings and the reshaping of higher education. The battle for world-class excellence. New York: Palgrave Macmillan.CrossrefWeb of Science®Google Scholar
  • Hazelkorn, E. (2012). Being fit-for-purpose. Assessing university-based research: advocating best practice. Wissenschaftsmanagement 5, 30– 33.Google Scholar
  • Merton, R.K. (1973). The sociology of science: Theoretical and empirical investigations. Chicago: University of Chicago Press.Google Scholar

Otros Rankings

World University Rankings THE (Times Higher Education

QS World University Rankings

CWTS Leiden Ranking

Best Global Universities Rankings

The Aggregate Ranking of Top Universities (ARTU)

The Center for World University Rankings (CWUR)

Performance Ranking of Scientific Papers for World Universities

Reuters World’s Top 100 Innovative Universities

Round University Ranking

SCImago Institutions Rankings

Webometrics

¿Por qué los artículos de las colaboraciones internacionales reciben más citas?

Diagrama de caja de las citas de colaboración locales, nacionales e internacionales.

Velez-Estevez, A., P. García-Sánchez, J. A. Moral-Munoz, y M. J. Cobo. «Why Do Papers from International Collaborations Get More Citations? A Bibliometric Analysis of Library and Information Science Papers». Scientometrics, 22 de agosto de 2022. https://doi.org/10.1007/s11192-022-04486-4.

La actividad científica se ha vuelto cada vez más compleja en los últimos años. Por ello, la necesidad de colaboración internacional en materia de investigación se ha convertido en una pauta común en la ciencia. En este panorama actual, los países se enfrentan al problema de mantener su competitividad y, al mismo tiempo, cooperar con otros países para conseguir resultados de investigación relevantes. En este contexto internacional, las publicaciones procedentes de colaboraciones internacionales tienden a lograr un mayor impacto científico que las nacionales. Para diseñar políticas que mejoren la competitividad de los países y organizaciones, se hace necesario, por tanto, comprender los factores y mecanismos que influyen en los beneficios y el impacto de la investigación internacional. En este sentido, el objetivo de este estudio es confirmar si las diferencias de impacto entre las colaboraciones internacionales y domésticas se ven afectadas por sus temas y estructura.

Para realizar este estudio, examinamos la categoría Library and Information Science de la base de datos Web of Science entre 2015 y 2019. Se utilizó un enfoque de análisis de mapas científicos para extraer los temas y su estructura según el tipo de colaboración y en toda la categoría (2015-2019). También se buscaron diferencias en estos aspectos temáticos en los países principales y en las comunidades de países colaboradores. Los resultados mostraron que el factor temático influye en el impacto de la investigación internacional, ya que los temas de este tipo de colaboración se encuentran en la vanguardia de la categoría de Biblioteconomía y Documentación (por ejemplo, tecnologías como la inteligencia artificial y los medios sociales se encuentran en la categoría), mientras que las colaboraciones nacionales se han centrado en temas más consolidados (por ejemplo, bibliotecas académicas y bibliometría). Por tanto, las organizaciones, los países y las comunidades de países deben tener en cuenta este factor temático a la hora de diseñar estrategias para mejorar su competitividad y colaborar.

Patrones de autocitación de las revistas indexadas en el Journal Citation Reports

Taşkın, Zehra, et al. «Self-Citation Patterns of Journals Indexed in the Journal Citation Reports». Journal of Informetrics, vol. 15, n.o 4, noviembre de 2021, p. 101221.

Texto completo

Se examinaron los patrones de autocitación de 1.104 revistas indexadas en la edición de 2018 del Journal Citation Reports para evaluar la posibilidad de manipulaciones de rango subyacentes. Se comprobó que todas las revistas incluidas en este estudio tenían una tasa de autocitación superior al 25%. La investigación muestra que al excluir las tasas de autocitación, el rango de las revistas con un alto factor de impacto no se ve afectado; sin embargo, para otras revistas, la eliminación de incluso una sola autocita puede causar cambios significativos en el rango. Los patrones de autocitación son típicos de las revistas en idiomas locales, así como de las revistas de los países europeos de renta media-alta. Los factores de impacto utilizados en las evaluaciones del rendimiento de la investigación deberían utilizarse con más cuidado, especialmente cuando variables como el tamaño de la revista, el idioma de publicación, el país de la editorial y el área temática se correlacionan con los índices de autocitación.

Análisis relacional de citas para la identificación de dominios científicos

Grácio, Maria Cláudia Cabrini. Análises relacionais de citação para a identificação de domínios científicos : uma aplicação no campo dos Estudos Métricos da Informação no Brasil. SciELO Books – Editora UNESP, 2020

Texto completo

En todos los campos del conocimiento, la producción científica se basa en el hecho de que un investigador construye su trabajo a partir de publicaciones anteriores. En este contexto, el registro de la lista de referencias de un trabajo científico expresa el diálogo establecido por el investigador con sus pares, así como el proceso de construcción de su conocimiento, ya que muestra qué referencias teóricas y metodológicas constituyeron la base durante el desarrollo de la investigación. En esta coyuntura, las referencias registradas en los artículos científicos definen la ciencia legitimada y reconocida como relevante para el desarrollo conceptual, teórico y metodológico de un tema, un campo, una disciplina o un ámbito de conocimiento. En este escenario, aunque un artículo científico no se mencione en la lista de referencias de una publicación posterior, su inserción y visibilidad en el entorno científico está garantizada; sin embargo, el reconocimiento de su contribución al avance de la ciencia queda atestiguado, especialmente, por las citas de otros científicos.

¿Los nuevos temas de investigación atraen más citas? Una comparación entre 25 categorías temáticas de Scopus

E

Mike Thelwall, Pardeep Sud. Do New Research Issues Attract More Citations? A Comparison Between 25 Scopus Subject Categories. Journal of the Association for Information Science and Technology
DOI: 10.1002/asi.24401

Texto completo

Encontrar nuevas formas de ayudar a los investigadores y gestores a comprender los campos académicos es una tarea importante para los científicos de la información. Dada la importancia de la investigación interdisciplinaria, es esencial ser consciente de las diferencias disciplinarias en aspectos de la erudición, como la importancia de los cambios recientes en un campo del conocimiento. 

Este documento identifica cambios potenciales en 25 categorías de temas mediante una comparación de términos de palabras en títulos de artículos, palabras clave y resúmenes en 1 año en comparación con los 4 años anteriores. 

La influencia académica de los nuevos temas de investigación se evalúa indirectamente con un análisis de citas de artículos que coinciden con cada término de tendencia. Si bien las palabras relacionadas con el tema dominan los términos principales, el estilo, el enfoque y los cambios de idioma también son evidentes. 

Así, como se refleja en Scopus, los campos evolucionan a lo largo de múltiples dimensiones. Además, mientras que los artículos que explotan nuevos temas suelen ser más citados en algunos campos, como la Química Orgánica, normalmente se citan menos en otros, incluida la Historia. Las posibles causas de los nuevos problemas que se citan menos incluyen factores temporales impulsados ​​desde el exterior, como brotes de enfermedades, y decisiones temporales impulsadas internamente, como un énfasis deliberado en un solo tema (por ejemplo, a través de un número especial de una revista)