Archivo de la etiqueta: Análisis de citas

Los investigadores creen que su institución valora más la publicación en revistas muy citadas que el impacto real que pueda tener un trabajo.

Grove, Jack. (2025, 12 de diciembre). Policy Impact Undervalued by Universities, Social Scientists Say. Inside Higher Ed. Recuperado de https://www.insidehighered.com/news/faculty-issues/research/2025/12/12/social-scientists-policy-impact-undervalued-universities

Los resultados reflejan que las universidades tienden a valorar más las publicaciones en revistas altamente citadas y otras métricas tradicionales de prestigio académico, como el recuento de citas o factores de impacto, antes que evaluar el impacto real de la investigación en la formulación de políticas o cambios sociales tangibles.

Encuesta global realizada por Sage entre más de 1 800 científicos sociales de 92 países, centrada en entender cómo perciben la valoración que sus universidades otorgan al impacto de su investigación en la sociedad y las políticas públicas. Según los datos del sondeo, solo alrededor de un tercio de los participantes considera que su institución los promovería o les daría valor por el impacto de su trabajo fuera del ámbito académico, lo que indica una desconexión entre las aspiraciones de estos investigadores y las prioridades institucionales.

En el estudio, el 92 % de los encuestados afirmó que para ellos el objetivo principal de la investigación es contribuir positivamente a la sociedad, pero solo el 68 % cree que esto sea una meta compartida por sus instituciones. Asimismo, un porcentaje similar percibe que los líderes universitarios no valoran plenamente la utilidad social de su trabajo, lo que sugiere que las prácticas de evaluación académica actuales aún están ancladas en métricas internas y tradicionales, dejando fuera dimensiones más abiertas o aplicadas del impacto científico. Cuando se les preguntó si su institución promocionaría o concedería la titularidad a un académico por sus esfuerzos por aplicar la investigación fuera del ámbito académico, solo el 37 % de los 1805 científicos sociales encuestados por Sage respondió afirmativamente.

Los datos también muestran que solo un 28 % de los científicos sociales opina que sus esfuerzos por influir en políticas públicas podrían traducirse en más financiación de investigación, y apenas un 35 % afirma que su universidad ofrece premios o reconocimiento explícito por el impacto fuera de la academia. Además, un 30 % de los encuestados declaró no recibir ningún tipo de reconocimiento por este tipo de trabajo, lo que pone en evidencia una brecha entre el compromiso de los científicos sociales con la relevancia de su investigación y las prácticas de recompensa institucional.

Del mismo modo, el 91 % de los investigadores está de acuerdo en que el objetivo final de la investigación es ampliar la bibliografía y facilitar futuras investigaciones, pero solo el 71 % cree que los responsables de su institución están de acuerdo con esto.

En conjunto, este artículo sugiere que, aunque los investigadores ven la contribución al bien público y a la toma de decisiones informadas como una parte esencial de su labor, el ecosistema académico permanece predominantemente orientado hacia la producción y citación de literatura especializada, con menor énfasis en la aplicación de conocimientos para abordar problemas sociales o influir en políticas. Esto plantea preguntas importantes sobre cómo las universidades podrían replantear sus criterios de evaluación y promoción profesional para reconocer y fomentar formas de investigación que conecten más directamente con desafíos sociales reales.

Esa percepción de desajuste entre la motivación de los científicos sociales y las instituciones debería llevar a replantearse si las métricas de prestigio utilizadas en el mundo académico están desajustadas con los valores, argumenta el informe de Sage.

Citas invisibles y métricas falsas: la ingeniería oculta detrás de las métricas científicas

How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch. Publicado el 9 de octubre de 2023.
https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

Se describe cómo investigadores detectaron un mecanismo de manipulación de métricas científicas consistente en la inserción de «citas invisibles» (o “sneaked citations”). En 2022, el informático Guillaume Cabanac observó un caso extraño: un artículo tenía más de 100 citas en menos de dos meses, pese a haberse descargado solo 62 veces. Cuando se decidió revisar los archivos de metadatos que las editoriales proporcionan a las bases de datos, y se descubrió que contenían referencias que no estaban visibles ni en el PDF ni en la versión online del artículo.

El artículo explica cómo miles de “citas invisibles” pueden infiltrarse en los metadatos de artículos científicos y generar métricas falsas. La alerta surgió cuando un investigador descubrió que un artículo acumulaba más de cien citas en menos de dos meses, pese a que apenas había sido descargado. Esto llevó a examinar los archivos de metadatos que las editoriales envían a los sistemas de indexación, donde se encontró que incluían referencias que no aparecían en el PDF ni en la versión web del artículo.

A partir de esta sospecha, se revisaron los metadatos que las editoriales envían a las bases de datos. En esos archivos —que contienen información técnica para la indexación, como títulos, autores, resúmenes y referencias— se encontraron listas de citaciones que no aparecían en el artículo tal como lo ve el lector. Es decir, la versión en PDF o HTML mostraba una bibliografía normal, pero la versión enviada a los indexadores incluía muchas más referencias añadidas artificialmente. Estas “citas fantasma” no estaban destinadas al lector, sino a los sistemas automatizados.

El problema es que la mayoría de plataformas que calculan métricas —incluyendo sistemas que cuentan citas, generan índices de impacto o alimentan rankings académicos— se basan en esos metadatos. No revisan manualmente las bibliografías visibles, sino que extraen la información directamente de los archivos técnicos. Esto significa que una cita inexistente en el papel puede convertirse en una cita “real” en las métricas, alterando indicadores que son usados en evaluaciones, promociones y decisiones de financiación.

La investigación mostró que esta no era una irregularidad aislada, sino un patrón repetido en varias revistas controladas por un mismo editor. En algunos casos, casi una décima parte de todas las referencias de los artículos eran invisibles para los lectores, pero muy visibles para los algoritmos. Lo más preocupante es que estas citas fantasma beneficiaban sobre todo a un grupo pequeño de autores, lo que sugiere que no eran simples errores técnicos, sino un mecanismo deliberado para inflar perfiles individuales.

Este tipo de manipulación es especialmente peligrosa por su invisibilidad. No se trata de alterar un manuscrito, plagiar contenido o falsificar datos; el artículo, tal y como se publica, parece completamente normal. Toda la distorsión ocurre en una capa oculta que solo las máquinas leen y que pocos investigadores examinan. Esta sofisticación hace que sea mucho más difícil detectar el fraude y, por tanto, mucho más fácil que pase desapercibido durante largos periodos.

El artículo también subraya las implicaciones más amplias para el ecosistema de investigación. Las métricas bibliométricas se han vuelto herramientas cruciales para evaluar la productividad, el prestigio y la influencia científica. Cuando estas métricas pueden manipularse de manera tan sencilla, y a una escala tan grande, se compromete la credibilidad de todo el sistema de evaluación. Investigadores que juegan limpio pueden quedar en desventaja frente a quienes manipulan los metadatos; instituciones pueden otorgar recursos basándose en indicadores inflados; y el público puede perder confianza en la fiabilidad de la ciencia.

Finalmente, se plantea la necesidad urgente de que las editoriales, los indexadores y las plataformas bibliométricas revisen sus procedimientos, auditen los metadatos que reciben y establezcan medidas de detección de anomalías. La transparencia en la gestión de metadatos y la trazabilidad de las referencias podrían ayudar a evitar este tipo de prácticas. Sin medidas correctoras, las “citas invisibles” seguirán distorsionando el sistema científico y creando métricas engañosas que no reflejan la calidad real del trabajo académico.

Clarivate publica la lista 2025 de Investigadores Altamente Citados

Clarivate Announces Highly Cited Researchers 2025 List. STM Publishing News, 12 noviembre 2025. https://clarivate.com/highly-cited-researchers/

Esta lista distingue a aquellos investigadores cuya producción científica ha tenido un “impacto amplio y significativo” a nivel global.

En esta edición, se han reconocido 6.868 investigadores de todo el mundo, quienes acumulan 7.131 reconocimientos, procedentes de más de 1.300 instituciones en 60 países y regiones. El hecho de que haya más “awards” que personas responde a que algunos investigadores han sido reconocidos en más de un campo científico (múltiples disciplinas).

El método de selección se basa principalmente en datos bibliométricos extraídos de la base de datos Web of Science Core Collection, tomando en cuenta la frecuencia de citas de los artículos. No obstante, Clarivate combina estos datos con análisis cuantitativo, métricas complementarias y revisión cualitativa por expertos, con el fin de identificar sólo aquellas contribuciones que genuinamente han influido en su campo a largo plazo.

En cuanto a la distribución geográfica:

  • El país con mayor número de reconocimientos es Estados unidos, con 2.670 premiados, lo que representa aproximadamente el 37 % del total mundial — una cifra que representa un ligero repunte respecto a años anteriores.
  • En segundo lugar aparece China con 1.406 premiados, (20 %), seguida por United Kingdom con 570 premiados, (8 %).
  • Otros países con presencia destacada: Alemania (363), Australia (312) y Canadá (227) awards.
  • Además, la concentración del talento resulta notable: aunque la lista cubre 60 países/regiones, el 86 % de los reconocimientos se concentran en solo 10 de ellos, y el 75 % en los cinco primeros. Esto evidencia una fuerte centralización del impacto científico global.
  • En lo que respecta a España, la presencia de 94 investigadores en ese selecto grupo supone un reconocimiento colectivo del desempeño científico nacional: demuestra que investigadores españoles están contribuyendo a la ciencia global con trabajos de gran impacto e influencia.

Un aspecto clave de esta edición 2025 es el refuerzo del procedimiento de evaluación: para combatir prácticas cuestionables (por ejemplo, producción extremadamente prolífica, auto-citas exageradas, patrones de citación anómalos), Clarivate ha implementado “capas adicionales de escrutinio”. En concreto, este año se excluyeron 432 premios potenciales debido a producción desmedida. Además, la revisión rigurosa permitió reintroducir la categoría de Matemáticas, que había sido temporalmente retirada en años previos.

Por último, la lista de HCR 2025 no sólo es un reconocimiento individual: funcionan como una especie de “termómetro global” del ecosistema científico, permitiendo analizar tendencias por país, instituciones, disciplinas, y también sirve como indicador del “talento investigador” distribuido internacionalmente.

Factores clave que influyen en las citaciones de ChatGPT

SEJ STAFF, “New Data Reveals The Top 20 Factors Influencing ChatGPT CitationsSearch Engine Journal, 26 noviembre 2025.

Texto completo

El estudio pone de manifiesto que, para ser citado por ChatGPT, no basta con una buena optimización SEO tradicional centrada en palabras clave. Lo que más importa es la autoridad del dominio (backlinks y confianza), el volumen de tráfico, contenido profundo y actualizado, estructura clara, buen rendimiento técnico y presencia activa en comunidades en línea. Estos factores —combinados— aumentan significativamente las probabilidades de que una página sea usada como fuente por modelos de IA como ChatGPT.

Un reciente análisis de SE Ranking —reflejado en este artículo de Search Engine Journal— ha investigado qué factores influyen en la probabilidad de que una página web sea citada por ChatGPT. El estudio analizó 129.000 dominios únicos y más de 216.000 páginas en 20 sectores distintos.

El hallazgo más relevante es que la cantidad de dominios referidos de un sitio es el predictor más fuerte de citaciones: sitios con miles de dominios referidos tienden a ser citados mucho más que aquellos con pocos. Además, la confianza del dominio también muestra un patrón claro: puntajes altos de confianza se traducen en un número considerablemente mayor de citas.

En segundo lugar, el tráfico del dominio (sobre todo si es elevado) resulta relevante: los sitios con muchas visitas mensuales y buen tráfico en la página principal son más propensos a ser citados.

Pero no todo depende de backlinks y tráfico. El estudio también destaca la profundidad y estructura del contenido: artículos largos, bien estructurados con secciones claras, y con datos estadísticos o citas de expertos suelen recibir más citas. El contenido recientemente actualizado también tiene ventaja: las páginas revisadas en los últimos meses obtienen más citaciones que las desactualizadas.

Otro factor importante es la actividad social y presencia en plataformas comunitarias: dominios que aparecen con frecuencia en foros, redes o plataformas de discusión (como menciones en Reddit o Quora) muestran una correlación con un mayor número de citas.

Finalmente, se observan también efectos relacionados con el rendimiento técnico de la página —como tiempos de carga rápidos— y con la forma de construir la URL y el título: páginas con URLs y títulos que describen claramente el tema (en lugar de saturados en palabras clave) obtuvieron mejores resultados en términos de citaciones.

Los revisores científicos que fueron citados en el artículo tienen más probabilidades de aprobarlo en su primera evaluación

Barnett, Adrian. 2025. Peer Reviewers Altered Their Recommendation Based on Whether They Were Cited or Wanted to Be Cited. A Matched Study of Open Peer Review at Four Journals.” OSF Preprints, version 2. CC-BY 4.0 https://osf.io/preprints/osf/wdvr9_v2

El estudio realizado por Adrian Barnett analiza si los miembros de los comites científicos en el proceso de revisión abierta por pares podrían estar influyendo en las decisiones editoriales basándose en si fueron citados en el manuscrito. Para ello, se revisaron un total de 18 400 artículos provenientes de cuatro plataformas (F1000Research, Wellcome Open Research, Gates Open Research y Open Research Europe), destacadas por hacer públicas tanto todas las versiones de los artículos como los comentarios de los revisores

El análisis reveló que los revisores que fueron citados en el artículo tenían más probabilidades de aprobarlo en su primera evaluación, en comparación con aquellos que no habían sido citados. Este patrón sugiere un posible sesgo o motivación adicional asociada con la presencia de una cita al revisor en el texto revisado

Para mitigar este tipo de influencias (por ejemplo, solicitudes de cita injustificadas), Barnett sugiere una práctica de transparencia adicional: que los revisores siempre indiquen claramente en sus comentarios cuándo y por qué están recomendando que se cite su trabajo. Esta medida podría ayudar a reducir las menciones motivadas únicamente por interés personal y reforzar la integridad del proceso de revisión.

Clarivate presenta la edición 2025 del Journal Citation Reports con mejoras en la integridad científica y una cobertura sin precedentes

STM Publishing News. 2025. «Clarivate Unveils the 2025 Journal Citation Reports.» STM Publishing News, 18 de junio de 2025. https://www.stm-publishing.com/clarivate-unveils-the-2025-journal-citation-reports/

Clarivate Plc presentó la edición 2025 del Journal Citation Reports (JCR), una herramienta fundamental en la evaluación académica que celebra este año su 50.º aniversario. El informe se ha consolidado como referencia internacional para investigadores, instituciones y editores, proporcionando datos e indicadores que permiten valorar la relevancia e impacto de las revistas científicas en múltiples disciplinas.

Desde su creación hace 50 años por Eugene Garfield, Journal Citation Reports (JCR). ha evolucionado para adaptarse a las necesidades cambiantes de la comunicación científica y este año incorpora mejoras relevantes en favor de la integridad editorial.

La edición 2025 ofrece datos sobre 22 249 revistas académicas procedentes de 111 países y clasificadas en 254 disciplinas. De este total, 14 591 revistas pertenecen al ámbito de las ciencias, 7 559 a las ciencias sociales y 3 368 a las artes y humanidades. Además, más de 6 200 revistas son de acceso abierto de la ruta dorada (gold open access), lo que refleja la creciente importancia de este modelo de publicación. Este año también se incorporan por primera vez 618 revistas con Journal Impact Factor (JIF), lo que demuestra el compromiso de Clarivate con la actualización y ampliación constante de su base de datos.

Una de las novedades más destacadas de esta edición es el cambio metodológico en el cálculo del Journal Impact Factor: a partir de ahora, las citas de o hacia artículos retractados no se contabilizan en el numerador del JIF, aunque dichos artículos siguen formando parte del denominador. Esta decisión busca reforzar la integridad científica, asegurando que las métricas reflejen de manera más precisa la calidad real del contenido publicado. Esta medida afecta aproximadamente al 1 % de las revistas indexadas, y marca un paso relevante en la lucha contra prácticas editoriales poco éticas.

Según Clarivate Journal Citation Reports se presenta como una herramienta editorialmente independiente, sin favorecer a ningún editor en particular. A través de métricas como el JIF o el Journal Citation Indicator, así como estadísticas descriptivas, visualizaciones y datos sobre acceso abierto y procedencia geográfica de los autores, el informe permite una evaluación más completa y matizada del rendimiento de las revistas científicas. Estas herramientas ayudan a investigadores a seleccionar publicaciones adecuadas, a bibliotecas a construir colecciones estratégicas y a editores a posicionar sus revistas en el ecosistema académico global.

Los directivos de Clarivate han subrayado el valor del JCR como instrumento de confianza. La doctora Nandita Quaderi, editora jefe de Web of Science, ha destacado la importancia de preservar el legado de Garfield a través de un sistema más justo y transparente. Por su parte, Emmanuel Thiveaud ha señalado que este informe continúa siendo esencial para fomentar el conocimiento y apoyar la investigación científica en todo el mundo.

Por último, Clarivate pone a disposición de los usuarios numerosos recursos de apoyo, como el acceso a Master Journal List, materiales formativos, documentación técnica y un portal de aprendizaje. Además, el informe ofrece herramientas visuales para facilitar el análisis comparativo entre revistas, disciplinas y regiones geográficas. Con todo ello, la edición 2025 del JCR refuerza su papel como guía imprescindible para evaluar el impacto de la producción científica global.

Litmaps:  herramienta IA para visualizar y rastrear la evolución de la investigación académica a través de mapas de citas.

Litmaps

Acceder

Litmaps es una solución innovadora para gestionar el conocimiento académico, descubrir nuevas conexiones entre investigaciones y mantener al día el seguimiento de publicaciones recientes. Ideal tanto para estudiantes como para investigadores consolidados, su uso puede marcar la diferencia a la hora de elaborar una revisión exhaustiva, preparar un artículo o simplemente organizar la información científica de manera visual y eficaz.

Litmaps es una herramienta digital diseñada para ayudar a investigadores, académicos y estudiantes a explorar, visualizar y gestionar literatura científica de manera más eficiente. Su principal utilidad radica en la creación de mapas conceptuales interactivos que muestran visualmente cómo están conectados diferentes artículos académicos mediante citas y referencias. Esto permite comprender la evolución de un campo de estudio y detectar relaciones clave entre investigaciones que, de otro modo, podrían pasar desapercibidas.

Una de sus funciones más destacadas es el descubrimiento automático de literatura relacionada. A partir de los artículos que el usuario incorpora en su mapa, Litmaps sugiere nuevas publicaciones relevantes, lo que facilita la ampliación de la revisión bibliográfica sin necesidad de realizar múltiples búsquedas manuales en distintas bases de datos. Además, ofrece la posibilidad de seguir temas de interés, de manera que se reciben notificaciones cuando se publican trabajos nuevos sobre el área específica que se está investigando.

Litmaps también permite organizar la información de forma clara. Los usuarios pueden agrupar artículos por temas, añadir etiquetas y notas personalizadas, lo que resulta especialmente útil para estructurar trabajos académicos como tesis, artículos científicos o presentaciones. Otra ventaja importante es su función colaborativa: los mapas pueden compartirse con otros investigadores o compañeros de equipo, lo que facilita el trabajo en grupo y la coordinación en proyectos conjuntos.

Esta plataforma funciona directamente desde el navegador y es compatible con herramientas como Zotero, Mendeley o archivos BibTeX, lo que permite importar bibliografía con facilidad. Litmaps ofrece una versión gratuita con funciones básicas y opciones de pago que habilitan características más avanzadas como mapas ilimitados o descubrimiento extendido.

53 investigadores de la Universidad de Salamanca entre el 2% de los más influyentes del mundo

Academic Ranking of World Universities (ARWU) 2024

https://www.shanghairanking.com/rankings/arwu/2024

En el Academic Ranking of World Universities (ARWU) 2024, también conocido como el ranking de Shanghái, la Universidad de Salamanca (USAL) se situó en el rango 501–600 a nivel mundial. Este ranking evalúa a las universidades según indicadores como premios Nobel y medallas Fields, investigadores altamente citados, publicaciones en revistas de alto impacto y rendimiento académico per cápita.

En cuanto a la producción científica, la USAL registró un notable incremento en el número de investigadores altamente citados. Según el ranking de Stanford de 2024, que identifica al 2% de los científicos más influyentes del mundo, 53 investigadores de la USAL y sus centros vinculados fueron reconocidos, frente a los 48 del año anterior. De estos, 36 destacan por su trayectoria a lo largo de toda su carrera, con una fuerte representación en el ámbito biosanitario, aunque también se incluyen científicos de las ciencias sociales e ingenierías.

A continuación, se presenta una lista de algunos de los investigadores más citados de la USAL y sus áreas de conocimiento:

  1. María Victoria Mateos – Hematología y Oncología
    Reconocida internacionalmente por su trabajo en mieloma múltiple, ha recibido premios como el Bart Barlogie Award y el Premio Castilla y León de Investigación Científica y Técnica e Innovación.
  2. Juan Pedro Bolaños – Neurociencias y Bioquímica
    Especializado en neuroenergética y metabolismo, ha sido galardonado con el Premio Castilla y León de Investigación Científica y Técnica e Innovación.
  3. Alberto Orfao – Hematología y Biología Molecular
    Destacado por sus investigaciones en citometría de flujo y diagnóstico de enfermedades hematológicas.
  4. Xosé R. Bustelo – Biología Molecular y Oncología
    Contribuciones significativas en el estudio de las proteínas GTPasas y su implicación en el cáncer.
  5. Francisco José García-Peñalvo – Ingeniería Informática y Educación
    Enfocado en e-learning, software educativo y ecosistemas tecnológicos.
  6. Celestino Santos-Buelga – Ciencia de los Alimentos
    Investigador en polifenoles y su impacto en la salud.
  7. José Miguel López-Novoa – Fisiología y Nefrología
    Estudios centrados en la función renal y enfermedades asociadas.
  8. Marina Gordaliza – Química Orgánica y Farmacología
    Investigaciones en productos naturales con actividad antitumoral.
  9. Vicente Rives – Química Inorgánica
    Especializado en materiales porosos y catálisis heterogénea.
  10. Javier González-Benito – Ingeniería de Materiales
    Trabajos en polímeros y materiales compuestos.

Evaluación de la cobertura lingüística de OpenAlex

van Eck, Nees Jan, Ludo Waltman, y Thed N. van Leeuwen. 2024. “Evaluating the Linguistic Coverage of OpenAlex: An Assessment of Metadata Accuracy and Completeness.” Journal of the Association for Information Science and Technology. https://doi.org/10.1002/asi.24979

Más sobre Open Alex

El artículo analiza en profundidad la cobertura lingüística de OpenAlex, una base de datos de acceso abierto que busca convertirse en una alternativa transparente y gratuita a plataformas comerciales de referencia como Web of Science (WoS) y Scopus. Uno de los objetivos centrales del estudio es evaluar la precisión y completitud de los metadatos relativos al idioma de publicación que ofrece OpenAlex, un aspecto clave para investigaciones bibliométricas, estudios de comunicación científica y análisis de la diversidad lingüística en la producción académica.

Para llevar a cabo esta evaluación, los autores diseñaron una metodología basada en la validación manual de una muestra significativa de 6,836 artículos. Esta muestra fue seleccionada para representar diversas disciplinas y procedencias geográficas, lo cual permite examinar no solo la precisión de los datos de idioma en OpenAlex, sino también su comparabilidad frente a otras fuentes como WoS. A través de este análisis, se busca determinar en qué medida OpenAlex refleja adecuadamente la diversidad lingüística real de las publicaciones académicas.

Uno de los principales hallazgos del estudio es que OpenAlex ofrece una cobertura lingüística más amplia y equilibrada que Web of Science, particularmente en lo que se refiere a publicaciones en idiomas distintos del inglés. Mientras que WoS tiende a priorizar y sobrerrepresentar publicaciones en inglés —lo cual ha sido señalado como una limitación en muchos estudios— OpenAlex incorpora un número relativamente mayor de trabajos en lenguas como el español, portugués, francés, alemán o chino. Esto representa una ventaja significativa en términos de inclusión y representatividad de comunidades científicas no angloparlantes.

Sin embargo, este avance no está exento de problemas. El estudio identifica que, pese a su cobertura más inclusiva, OpenAlex presenta notables inexactitudes en los metadatos relacionados con el idioma. En muchos casos, el idioma asignado por el sistema no coincide con el idioma real del texto, lo que lleva a una sobreestimación de publicaciones en inglés y una subestimación de otros idiomas. Además, se detectan casos de entradas sin especificación del idioma, o con asignaciones erróneas derivadas de errores de extracción automatizada o de la falta de estandarización en los metadatos originales.

Los autores subrayan que estos errores no son triviales: afectan directamente la calidad de los análisis bibliométricos que utilizan estos datos, y perpetúan sesgos que podrían comprometer estudios sobre la diversidad lingüística, las dinámicas de publicación regional, o las políticas de ciencia abierta. Por ello, se destaca que para que OpenAlex pueda ser una fuente confiable para estudios multilingües, es urgente mejorar la infraestructura técnica subyacente y los algoritmos de detección y normalización del idioma.

En conclusión, el artículo reconoce el enorme potencial de OpenAlex como herramienta abierta, accesible y más equitativa en la representación de la producción científica global. No obstante, también advierte que dicho potencial solo podrá materializarse plenamente si se abordan las deficiencias actuales en la calidad de sus metadatos lingüísticos. Mejorar estos aspectos permitiría realizar análisis más rigurosos y completos sobre las lenguas utilizadas en la ciencia, contribuyendo así a una comprensión más justa y realista del ecosistema de conocimiento global.

Aprovechar las citas de datos para responder a las necesidades de evaluación de datos de las bibliotecas.

Dean, Clare. 2025. Leveraging Data Citations to Respond to Libraries’ Data Evaluation Needs. Zenodo. https://doi.org/10.60804/yxna-f837

Se presenta un estudio sobre cómo la automatización de citas de datos puede mejorar las métricas de datos abiertos y ayudar a las bibliotecas a evaluar el uso y el impacto de los conjuntos de datos generados por sus instituciones.

Las bibliotecas desempeñan un papel clave en la promoción de los datos abiertos y necesitan evaluar el uso e impacto de los conjuntos de datos para apoyar la gestión de datos de investigación y reconocer el trabajo de sus investigadores. Sin embargo, medir este impacto es complejo debido a la dispersión y falta de visibilidad de la información.

Una solución prometedora es el uso de citas de datos como indicadores de utilización. Para demostrar su valor, se analizó el uso de datos en la Universidad Northwestern y la Universidad de Colorado Boulder mediante el Data Citation Corpus y Europe PMC. Se observó un aumento significativo de citas entre 2020 y 2023, con un pico en 2021. Los repositorios más citados fueron dbSNP, Protein Data Bank y European Nucleotide Archive, reflejando un fuerte enfoque en biomedicina y biología estructural.

En cuanto a áreas intensivas en datos, Northwestern destaca en investigación médica y neurociencia, mientras que Colorado Boulder lo hace en ciencias ambientales y biología vegetal. Las citas provienen principalmente de revistas especializadas en dichas disciplinas.

1. Objetivo principal

Mejorar la capacidad de las bibliotecas para rastrear, analizar y reportar el impacto de los datos de investigación utilizando citas automatizadas a gran escala, especialmente a través del Data Citation Corpus.

2. Instituciones involucradas

  • University Libraries, University of Colorado Boulder
  • Helmholtz Open Science Office, Alemania
  • Northwestern University Feinberg School of Medicine

3. Hallazgos clave (Key Data Citation Insights)

  • Los datos de Northwestern se citan más en revistas de ciencias de la vida y biomédicas.
  • Los datos de CU Boulder se usan más en revistas específicas de campos como ciencias ambientales.

Áreas de investigación intensiva en datos:

  • CU Boulder: Ciencias ambientales, biología molecular y genética, ciencias de las plantas.
  • Northwestern: Investigación médica, bioquímica, biología molecular, neurociencia.

Se concluye que las citas de datos ofrecen información valiosa para las estrategias institucionales, y se está ampliando el Data Citation Corpus con nuevas fuentes y mejoras en los metadatos. También se están desarrollando recursos para que las bibliotecas integren estas métricas en procesos de evaluación institucional junto con iniciativas como HELIOS Open.