Archivo de la etiqueta: Impacto

Cómo las bibliotecas de investigación facilitan la innovación, la creatividad y las competencias de resolución de problemas entre sus usuarios

Minson, Valrie, Laura I. Spears; Adrian Del Monte; Margaret Portillo; Jason Meneely; Sara Gonzalez; and Jean Bossart. Library Impact Research Report: Facilitating Innovative Research, Creative Thinking, and Problem Solving. Washington, DC: Association of Research Libraries, September 16, 2022.

Texto completo

Como parte de la iniciativa del Research Library Impact Framework de la ARL, Marston Science Library (MSL) de la University of Florida (UF) George A. Smathers Libraries se asoció con el UF Department of Interior Design (IND) de la UF para explorar cómo las bibliotecas de investigación facilitan la innovación, la creatividad y las competencias de resolución de problemas entre sus usuarios. El equipo MSL-IND exploró una hipótesis de tres niveles que incluía: (1) el uso de los espacios de la biblioteca por parte de los estudiantes puede contribuir a la construcción de conocimientos y aplicaciones prácticas para la renovación del espacio de la biblioteca; (2) las percepciones de los estudiantes sobre la deseabilidad del espacio, medidas por el Place-based Semantic Differential, pueden utilizarse para indicar las lagunas en la facilitación de la creatividad en el espacio de la biblioteca; y (3) el proceso de pensamiento creativo requiere espacios que sean diversos, flexibles y bajo un cierto control de los estudiantes. El equipo de investigación desarrolló un estudio de método mixto que incluía un análisis espacial, una encuesta que utilizaba una lista de comprobación de adjetivos y varios grupos de discusión diseñados para validar la lista de comprobación de adjetivos. El análisis del equipo de investigación de los datos resultantes identificó recomendaciones relacionadas con la creación de un sentido del lugar, la solución del grupo atendiendo al individuo, la oferta de una paleta de posturas, el aumento de la biofilia y la oferta de elección y control.

¿Realmente más de la mitad de los artículos académicos siguen sin citarse cinco años después de su publicación?

Está ampliamente aceptado que los artículos académicos rara vez se citan o incluso se leen. ¿Pero qué tipo de datos hay detrás de estas afirmaciones?

El genetista y premio Nobel Oliver Smithies, fallecido el pasado mes de enero a los 91 años, era un inventor modesto y autocomplaciente. Era típico de él contar uno de sus mayores fracasos: un artículo sobre la medición de la presión osmótica publicado en 1953, que, como él decía, tenía «la dudosa distinción de no haber sido citado nunca«. «Nadie lo citó nunca, y nadie utilizó nunca el método», dijo a los estudiantes en una reunión de 2014 en Lindau (Alemania).

La idea de que la literatura está plagada de investigaciones no citadas se remonta a un par de artículos publicados en Science: uno de 1990 y otro de 1991. El de 1990 señalaba que el 55% de los artículos publicados entre 1981 y 1985 no habían sido citados en los 5 años siguientes a su publicación.

Dahlia Remler echa un vistazo a la investigación académica sobre las prácticas de citación y descubre que, aunque está claro que los índices de citación son bajos, sigue habiendo mucha confusión sobre las cifras precisas y los métodos para determinar un análisis de citación preciso.

Un artículo de Lokman Meho en 2007 afirmaba que «El 90% de los trabajos publicados en revistas académicas nunca se citan». Esta estadística condenatoria, extraída de un resumen de 2007 sobre el análisis de citas, recorrió recientemente el ciberespacio. Una estadística similar había circulado en 2010, pero en aquella ocasión se decía que el 60% de los artículos de ciencias sociales y naturales no se citaban. Aunque ninguna de las dos estadísticas venía acompañada de un enlace a documentos de investigación académica que las respaldaran.

Según Sierra Williams, muchos artículos académicos no se citan nunca, aunque no pude encontrar ningún estudio con un resultado tan alto como el 90%. Las tasas de no citación varían enormemente según el campo. «Sólo» el 12% de los artículos de medicina no se citan, frente al 82% de las humanidades. Es del 27% para las ciencias naturales y del 32% para las ciencias sociales (cita). Para todo, excepto las humanidades, estas cifras están lejos del 90%, pero siguen siendo altas: Un tercio de los artículos de ciencias sociales no se citan

Pero esos análisis son engañosos, principalmente porque las publicaciones que contaron incluían documentos como cartas, correcciones, resúmenes de reuniones y otro material editorial, que normalmente no se citan. Si se eliminan estos documentos y se dejan sólo los trabajos de investigación y los artículos de revisión, las tasas de no citación caen en picado. Si se amplía el límite más allá de los cinco años, los índices se reducen aún más.

Con un recorte de diez años sigue habiendo artículos no citados, por supuesto, pero varía de forma interesante según el campo. Los artículos biomédicos tienen un 4% de artículos no citados, la química tiene un 8% de material refractario y la física un 11%. Sin embargo, hay que tener en cuenta que si se eliminan las autocitaciones de los mismos autores, estos índices aumentan, a veces de forma notable. La tasa de no citación en diez años en todas las disciplinas, menos la autocitación, es de alrededor del 18%. Pero otra cosa que han descubierto estos estudios es que esta tasa ha ido disminuyendo durante muchos años. Es de suponer que esto se debe a un mejor acceso y búsqueda en las revistas y a una tendencia relacionada con listas de referencias más largas en general. (En el ámbito de las ciencias, ese aumento comienza en torno a 1980 y se ha acentuado en los últimos años).

Pero aún así… …los artículos en la zona de no citados tienden (como es de esperar) a estar en revistas mucho menos prominentes (aparentemente casi todos los artículos publicados en una revista de la que has oído hablar son citados por alguien). Y eso trae a colación el problema de la «materia oscura»: todas estas cifras proceden de revistas indexadas en la Web of Science, una cohorte grande, pero que (justificadamente) ignora las hordas de revistas que publican cualquier cosa. Hay que imaginar que las tasas de citación son abismales entre las «revistas» que fabrican papeles, y la gran mayoría de ellas son seguramente autocitas. Si contamos estas cosas como «papers», entonces el número de publicaciones sin impacto nunca vistas aumenta de nuevo».

Bibliografía:

Willians. Sierra «Are 90% of Academic Papers Really Never Cited? Reviewing the Literature on Academic Citations.» Impact of Social Sciences, 23 de abril de 2014, https://blogs.lse.ac.uk/impactofsocialsciences/2014/04/23/academic-papers-citation-rates-remler/.

Hamilton, David P. «Publishing by—and for?—the Numbers». Science, vol. 250, n.o 4986, diciembre de 1990, pp. 1331-32. science.org (Atypon), https://doi.org/10.1126/science.2255902.

Derek Lowe. Not So Many Uncited Papers, Actually. Science, 20 feb. 2018. https://www.science.org/content/blog-post/not-so-many-uncited-papers-actually. Accedido 16 de septiembre de 2022.

Meho, Lokman I. «The Rise and Rise of Citation Analysis». Physics World, vol. 20, n.o 1, enero de 2007, pp. 32-36. Institute of Physics, https://doi.org/10.1088/2058-7058/20/1/33.

Tainer, John A., et al. «Science, Citation, and Funding». Science, vol. 251, n.o 5000, 1991, pp. 1408-11. JSTOR, https://www.jstor.org/stable/2875794.

Van Noorden, Richard. «The Science That’s Never Been Cited». Nature, vol. 552, n.o 7684, diciembre de 2017, pp. 162-64. http://www.nature.com, https://doi.org/10.1038/d41586-017-08404-0.

Granjas de citas y círculos de autocitación

Hill, Sarah. «Citation Farms and Circles of Self-Citation». The Big Idea, 19 de marzo de 2020,

Texto completo

Las «granjas de citas», consisten en autores que se autocitan o se citan mutuamente de forma rutinaria y masiva para aumentar el impacto de sus publicaciones. Aunque se cree que estas «granjas de citas», también conocidas como «cárteles de citas», son el sello de la mala ciencia, la mayoría de los investigadores están de acuerdo en que hay espacio para la autocitación, pero que es una buena práctica limitarla cuando sea posible.

La autocitación puede ser necesaria, por ejemplo, si usted es la única persona que ha realizado un determinado tipo de investigación antes. Citar su propio trabajo o el de sus coautores puede ser la medida adecuada. «Todo el mundo se autocita porque, tarde o temprano, todo el mundo se basa en hallazgos anteriores», afirma Hadas Shema en el blog Scientific American. Shema cita a R. Costas, et al, en su artículo de 2010, «Self-cities at the meso and individual levels» (Autocitas en los niveles meso e individual): «Dada la naturaleza acumulativa de la producción de nuevos conocimientos, las autocitas constituyen una parte natural del proceso de comunicación».

Hay una forma sencilla de medir el impacto del trabajo de un investigador: utilizando el Factor de Impacto de la Revista (JIF). Un índice h de 20 indica que un investigador ha publicado 20 artículos con al menos 20 citas. Tras 20 años de investigación, un índice h de 20 es bueno, 40 es sobresaliente y 60 es excepcional. La ventaja del índice h es que combina la productividad (el número de publicaciones) y el impacto (número de citas) en un solo número.

Según la revista Nature, en 2017, un profesor tuvo una idea para contabilizar más a fondo las autocitas. Este profesor, ahora en la Universidad de Helsinki, sugirió un índice de autocitación, o índice s, en la línea del indicador de productividad del índice h. Creado por Justin Flatt, Alessandro Blasimme, Effy Vayena, así un científico tiene un índice s si ha publicado s artículos, cada uno de los cuales ha recibido al menos s autocitaciones. Con esta nueva herramienta, un índice s de 10 significaría que un investigador ha publicado 10 artículos con al menos 10 autocitaciones cada uno.

El profesor que ideó este sistema de puntuación afirma que no se trataba de establecer umbrales para lo que era un índice s adecuadamente bajo, ni tampoco de avergonzar a los que se autocitan mucho. Utilizando los datos, se trataba simplemente de otra herramienta para medir el impacto de ciertas teorías y artículos.

Según John Ioannidis, médico de la Universidad de Stanford (California) especializado en metaciencia: «Este [estudio] no debería llevar a vilipendiar a los investigadores por sus índices de autocitación, entre otras cosas porque éstos pueden variar entre disciplinas y etapas de la carrera». Y añade: «Sólo ofrece información completa y transparente. No debería utilizarse para emitir veredictos como el de decidir que una autocitación demasiado alta equivale a un mal científico».

¿Reduce la autocitación la probabilidad de publicación? Sí, según algunos autores. «Clarivate supervisa las autocitaciones cuando calcula el factor de impacto de una revista, y puede retirar de la lista a una revista cuando las tasas de autocitación son demasiado altas o cambia la clasificación relativa de una revista dentro de su campo», dice el doctor Phil Davis, experto en comunicación científica en el blog The Scholarly Kitchen. «Ningún editor quiere ser conocido como el que puso a la revista en ‘tiempo muerto'».

«La autocitación es necesaria para informar al lector sobre el trabajo previo del autor y proporcionar información de fondo. Un índice bajo de autocitación puede llevar a un revisor a creer que los antecedentes del autor son inadecuados, mientras que un índice alto podría indicar que está ignorando el trabajo de sus colegas. Se recomienda un equilibrio», dice Paul W. Sammarco, en Ethics in Science and Environmental Politics. Así que, buena suerte con el equilibrio, sobre todo para los que trabajan en disciplinas con experimentación novedosa. Siempre que no cite a sus amigos y colegas a propósito para aumentar sus índices h, al final todo debería ser igual.

Variedad, alcance e impacto de las revistas de acceso abierto de la ruta diamante en varias disciplinas y regiones

Korean Council of Science Editors «Charting variety, scope, and impact of open access diamond journals in various disciplines and regions: a survey-based observational study.» Sci Ed vol. 9, n. 2 (2022). pp. 120-135. https://doi.org/10.6087/kcse.277
http://www.escienceediting.org/journal/view.php?number=283

Se estimó el número total de revistas de la ruta diamante, incluyendo las que están fuera de Directory of Open Access Journals (DOAJ). Se describió la distribución por regiones, disciplinas y tipos de editoriales. Se investigó el alcance de las revistas en términos de autoría y número de lectores. Se recogió información sobre la diversidad lingüística, la dinámica y el ciclo de vida de las revistas y su visibilidad en las bases de datos académicas.

Se estima que el número de revistas diamante OA es de 29.000. Se estima que las revistas OA de la ruta diamante publican 356.000 artículos al año. El sector del diamante OA es diverso en términos de regiones (45% en Europa, 25% en América Latina, 16% en Asia y 5% en Estados Unidos/Canadá) y disciplinas (60% humanidades y ciencias sociales, 22% ciencias y 17% medicina). Más del 70% de las revistas OA diamante son publicadas por editoriales de propiedad universitaria, incluyendo ediciones universitarias. La mayoría de las revistas OA diamante son pequeñas, publicando menos de 25 artículos al año. El inglés (1.210), el español (492) y el francés (342) son los idiomas más comunes de los textos principales. De las 1.619 revistas, 1.025 (63,3%) están indexadas en DOAJ, 492 (30,4%) en Scopus y 321 (19,8%) en Web of Science.

Conclusión: Los patrones y las tendencias que se describen en este documento proporcionan una visión de la diversidad y la importancia del panorama de las revistas diamante OA y de las oportunidades y los retos que conlleva el apoyo a este modelo de publicación.

Rankings de investigación de universidades

Bornmann, L. «On the function of university rankings.» Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014). pp. 428-429. http://dx.doi.org/10.1002/asi.23019

La ciencia moderna es una ciencia que se evalúa. La calidad de la investigación no puede garantizarse sin una evaluación. Según el fundador de la moderna sociología de la ciencia, Robert K. Merton (1973), una de las normas de la ciencia es el «escepticismo organizado». A partir del siglo XVII, al principio se utilizó casi exclusivamente el proceso de revisión por pares, aunque desde los años ochenta y noventa se llevan a cabo evaluaciones basadas en indicadores o se utilizan métodos multietapa para la evaluación de la investigación y la enseñanza (Daniel, Mittag y Bornmann, 2007). La primera clasificación internacional de universidades, llamada Ranking de Shanghai, se publicó en 2003. A continuación, se realizaron otras evaluaciones a gran escala de las universidades basadas en indicadores, que se publicaron como ranking (instituciones individuales clasificadas según determinados criterios) o como calificación (instituciones individuales evaluadas según determinados criterios). La importancia de los rankings o clasificaciones en la actualidad queda patente al comprobar que la ausencia de una universidad alemana entre las 20 o 50 mejores universidades en las clasificaciones internacionales fue una de las razones más importantes para crear Excellence Initiative in Germany (Hazelkorn, 2011).

Aunque a menudo se afirma que la evaluación basada en indicadores en los rankings o clasificaciones puede ser utilizada por las direcciones de las universidades para un análisis significativo de los puntos fuertes y débiles de sus instituciones, los rankings o clasificaciones proporcionan principalmente:

(a) información sobre el rendimiento de las universidades para los estudiantes y los científicos noveles;

(b) una evaluación comparativa de las universidades, a nivel nacional e internacional; y

(3) una cuenta de las universidades, a las que se les está dando cada vez más autonomía (Hazelkorn, 2012).

Así lo demuestra una encuesta sobre las direcciones de las universidades que recoge Hazelkorn (2011). Después de los estudiantes y los padres, se considera que los políticos son el grupo más influenciado por los rankings. Los estudios han podido determinar una correlación entre «la calidad de las instalaciones del campus y la capacidad de atraer estudiantes (internacionales)» (Hazelkorn, 2011, p. 103). Las direcciones de las universidades asumen que «las clasificaciones altas pueden impulsar la «posición competitiva de una institución en relación con el gobierno»» (Hazelkorn, 2011, p. 91).

Los gobiernos desean disponer de información independiente y objetiva sobre la situación general de la investigación de un país y de cada una de las instituciones de investigación. La transparencia creada por las cifras también tiene el efecto secundario deseado de que se estimula la competencia entre las instituciones (por la financiación relacionada con la investigación y el personal) (Hazelkorn, 2012), y cabe esperar un aumento del rendimiento de las instituciones.

Las universidades y las instituciones de investigación no universitarias apenas necesitan rankings o clasificaciones para sus decisiones estratégicas o para la optimización interna de su rendimiento. Para ello, las instituciones llevan a cabo evaluaciones en varias etapas (normalmente basadas en la revisión por pares con conocimiento de causa), que son organizadas por la propia institución o por agencias de evaluación (Bornmann, Mittag y Daniel, 2006; Daniel et al., 2007). Los Institutos Max Planck de la Sociedad Max Planck cuentan con Consejos Científicos Asesores; por ejemplo, la TU Darmstadt y la Universidad de Zúrich tienen incluso su propia oficina de evaluación. Las universidades de Baja Sajonia son evaluadas por la Agencia Central de Evaluación y Acreditación (ZEvA) y las del norte de Alemania por la Asociación de Universidades del Norte de Alemania (Bornmann et al., 2006). Dado que estas evaluaciones requieren mucho trabajo y tiempo, son difícilmente practicables para un gran número de instituciones de investigación y sólo pueden llevarse a cabo con eficacia en un ambiente de absoluta discreción, no son adecuadas para una comparación a gran escala de las instituciones de investigación. En su lugar, se han establecido rankings o clasificaciones con este fin. Se dirigen principalmente al público en general y no a los académicos o a la dirección de las universidades. Por lo tanto, los rankings o clasificaciones son importantes para las universidades no como un análisis de los puntos fuertes y débiles que pueda utilizarse internamente, sino como una demostración del rendimiento ante las partes externas (para los estudiantes y científicos noveles del futuro o para los políticos). Aunque hay una serie de «cosas que hay que hacer y no hacer» a la hora de diseñar rankings o clasificaciones, probablemente nunca habrá uno que haga justicia a la heterogeneidad de las instituciones abarcadas y que sea capaz de producir una imagen válida del rendimiento de todas las instituciones.

References

  • Bornmann, L., Mittag, S., & Daniel, H.-D. (2006). Quality assurance in higher education—Meta-evaluation of multi-stage evaluation procedures in Germany. Higher Education, 52(4), 687– 709.CrossrefWeb of Science®Google Scholar
  • Daniel, H.-D., Mittag, S., & Bornmann, L. (2007). The potential and problems of peer evaluation in higher education and research. In A. Cavalli (Ed.), Quality assessment for higher education in Europe (pp. 71– 82). London: Portland Press.Google Scholar
  • Hazelkorn, E. (2011). Rankings and the reshaping of higher education. The battle for world-class excellence. New York: Palgrave Macmillan.CrossrefWeb of Science®Google Scholar
  • Hazelkorn, E. (2012). Being fit-for-purpose. Assessing university-based research: advocating best practice. Wissenschaftsmanagement 5, 30– 33.Google Scholar
  • Merton, R.K. (1973). The sociology of science: Theoretical and empirical investigations. Chicago: University of Chicago Press.Google Scholar

Otros Rankings

World University Rankings THE (Times Higher Education

QS World University Rankings

CWTS Leiden Ranking

Best Global Universities Rankings

The Aggregate Ranking of Top Universities (ARTU)

The Center for World University Rankings (CWUR)

Performance Ranking of Scientific Papers for World Universities

Reuters World’s Top 100 Innovative Universities

Round University Ranking

SCImago Institutions Rankings

Webometrics

Libro Blanco: Medición de los resultados de la investigación mediante la bibliometría

Bibliometrics, University of Waterloo Working Group on, et al. White Paper: Measuring Research Outputs Through Bibliometrics. University of Waterloo Working Grou, 2016.

Texto completo

Este Libro Blanco ofrece una revisión de alto nivel de las cuestiones relevantes para la comprensión de la bibliometría, así como recomendaciones prácticas sobre cómo utilizar adecuadamente estas medidas. No se trata de un documento político, sino que define y resume las pruebas que abordan el uso adecuado del análisis bibliométrico en la Universidad de Waterloo. Las cuestiones identificadas y las recomendaciones se aplicarán en general a otras instituciones académicas. La comprensión de los tipos de medidas bibliométricas y sus limitaciones permite identificar tanto los usos adecuados como las limitaciones cruciales del análisis bibliométrico. Las recomendaciones que se ofrecen al final de este documento ofrecen una serie de oportunidades para que los investigadores y administradores de Waterloo y de otros lugares puedan integrar el análisis bibliométrico en su práctica.

Anuncio de cambios en el Journal Citation Reports 2023 : Clarivate incluirá el Factor de impacto en todas las revistas indexadas en la Web of Science Core Collection

Quaderi, Nandita. Announcing changes to the 2023 Journal Citation Reports. Editor-in-Chief & Vice President Editorial, Web of Science, Clarivate

Ver original

A partir de la versión 2023 del JCR, los factores de impacto de las revistas se ampliarán a todas las revistas de la Web of Science Core Collection, incluidas las de arte y humanidades.

En la versión 2023 del Journal Citation Reports™, todas las revistas de la Web of Science Core Collection™ recibirán un Journal Impact Factor (JIF)™. Esto supone ampliar el JIF del Science Citation Index Expanded (SCIE)™ y del Social Science Citation Index (SSCI)™ para incluir revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™.

Journal Citation Reports anuales permiten a la comunidad investigadora, a los editores y a los bibliotecarios evaluar y comparar el impacto académico de las revistas de calidad del mundo mediante una serie de indicadores, datos descriptivos y visualizaciones.

Clarivate ha dedicido mostrar el JIF para todas las revistas indexadas en la Web of Science Core Collection como parte de su compromiso continuo con la integridad del registro académico. Para acelerar el ritmo de la innovación, los financiadores de la investigación, las instituciones y los investigadores necesitan poder tomar decisiones basadas en datos de calidad en los que puedan confiar. El riguroso proceso de selección permite mantener fuera de los índices a las revistas que no son de confianza, lo que, unido a cuidadosa curación de datos, significa que la comunidad investigadora puede confiar en los datos y métricas de los Journal Citation Reports.

El hecho de dotar a todas las revistas de calidad de un Factor de Impacto de la Revista (JIF) proporcionará total transparencia a los artículos y citas que han contribuido al impacto, y por tanto les ayudará a demostrar su valor a la comunidad investigadora.

Al ampliar el JIF a todas las revistas que han superado los rigurosos criterios de calidad de Web of Science, esta última mejora también ayuda a igualar las condiciones de todas las revistas de calidad, incluidas las de reciente creación, las de acceso abierto, las de ámbito especializado o regional y las del Sur Global

Esta decisión está en consonancia con la posición de que las publicaciones en todas las revistas de calidad, y no sólo en las muy citadas, que deberían poder incluirse en los ejercicios de evaluación de la investigación.

Esto significa que:

  • Casi 9.000 revistas -de más de 3.000 editores, muchos de los cuales son pequeños editores del mundo en desarrollo- tendrán un JIF por primera vez.
  • Habrá un aumento del 8% en las revistas de acceso abierto de la ruta dorada que tendrán un JIF.
  • Habrá un aumento mínimo del 5% en las revistas del Sur Global que tendrán un JIF.
  • Además, la versión 2023 del Journal Citation Reports mostrará el JIF con un decimal, en lugar de los tres actuales, para animar a los usuarios a tener en cuenta los demás indicadores y datos descriptivos de JCR al comparar las revistas.

Compromiso de los usuarios con los tuits de artículos científicos: un análisis a gran escala y multidisciplinar

Fang, Z., Costas, R. & Wouters, P. User engagement with scholarly tweets of scientific papers: a large-scale and cross-disciplinary analysis. Scientometrics (2022). https://doi.org/10.1007/s11192-022-04468-6

Texto completo

Este estudio investiga hasta qué punto los usuarios de Twitter se comprometen con los tweets académicos de artículos científicos a través de cuatro tipos de comportamientos de compromiso de los usuarios, es decir, me gusta, retuitear, citar y responder. Sobre la base de una muestra de 7 millones de tuits académicos de artículos de la Web of Science, los resultados muestran que los «me gusta» son la métrica de participación más frecuente, ya que abarcan el 44% de los tuits académicos, seguidos de los «retuits» (36%), mientras que las citas y las respuestas sólo están presentes en el 9% y el 7% de todos los tuits académicos, respectivamente.

Desde un punto de vista disciplinario, los tuits académicos del ámbito de las Ciencias Sociales y Humanidades son más propensos a provocar la participación de los usuarios que los de otros ámbitos temáticos. La presencia del compromiso de los usuarios está más asociada a otros factores basados en Twitter (por ejemplo, el número de usuarios mencionados en los tuits y el número de seguidores de los usuarios) que a factores basados en la ciencia (por ejemplo, las citas y los lectores de Mendeley de los artículos tuiteados). A partir de estos resultados, este estudio arroja luz sobre la posibilidad de aplicar métricas de compromiso de los usuarios para medir niveles más profundos de recepción de información académica en Twitter.

Mendeley es la herramienta que tiene la mayor correlación con las citas de todas las fuentes altmétricas

Liu, C., Huang, MH. Exploring the relationships between altmetric counts and citations of papers in different academic fields based on co-occurrence analysis. Scientometrics (2022). https://doi.org/10.1007/s11192-022-04456-w

La altmetría es un método emergente para observar la comunicación académica. Muchos investigadores han explorado las relaciones entre los recuentos altmétricos y las citas a través del análisis de correlación, pero no hay un resultado consistente. Los resultados variados pueden provenir de la divergencia de las fuentes de datos, las diferencias disciplinarias y las características de la distribución de los datos. Para reducir la influencia de los factores de interferencia mencionados, en este estudio se propuso el análisis de co-ocurrencia como método para explorar las relaciones entre las citas y los recuentos altmétricos.

Observamos el solapamiento entre los artículos altamente citados y los artículos de alto recuento altmétrico, junto con la cobertura de cada colección de varias fuentes altmétricas en diferentes campos académicos. Los resultados muestran que Mendeley tiene la mayor correlación con las citas entre todas las fuentes altmétricas en los cinco campos académicos, y podría ser la única que tiene la oportunidad de ser un indicador para la evaluación académica. Los otros recuentos altmétricos de diferentes fuentes no muestran relaciones fuertes con las citas en general.

Informe de investigación sobre el impacto de las bibliotecas universitarias

McReynolds, Stephanie JH, Peter Verheyen, Terriruth Carrier, and Scott Warren. Library Impact Research Report: Distinct Academic Learning Communities at Syracuse University Libraries. Washington, DC: Association of Research Libraries, July 18, 2022.

Texto completo

Como parte de la iniciativa del Marco de Impacto de las Bibliotecas de Investigación de la ARL, un equipo de las Bibliotecas de la Universidad de Syracuse llevó a cabo un estudio para explorar el impacto de la incorporación de tres «comunidades de aprendizaje académico distintas» en la Biblioteca Bird de la Universidad de Syracuse: el Blackstone LaunchPad; Center for Learning and Student Success; y la Syracuse Office of Undergraduate Research and Creative Engagement.

Tres objetivos guiaron al equipo:

(1) explorar cómo las bibliotecas impactan en las comunidades;

(2) determinar cómo las comunidades impactan en las bibliotecas; y

(3) identificar métodos/métricas que pudieran demostrar el impacto recíproco y ser útiles para ARL.

El impacto se exploró desde múltiples perspectivas, incluidos los directores de la comunidad, los participantes de la comunidad, el decano de las bibliotecas y el personal de las bibliotecas. Los resultados apuntan al valor de la biblioteca como espacio académico central e interdisciplinario para las comunidades, que ayuda a romper las fronteras disciplinarias al permitir que los participantes de la comunidad se reúnan y colaboren más fácilmente con estudiantes de otras escuelas y universidades.